Você está na página 1de 339

Mtodos Probabilsticos e Estatsticos com

Aplicaes em Engenharias e Cincias Exatas


Marcilia Andrade Campos
Leandro Chaves Rgo
Andr Feitoza de Mendona
19 de Novembro de 2012

Prefcio
Este livro contempla um programa introdutrio de Probabilidade, Estatstica, Processos
Estocsticos e Estatstica Descritiva. O livro organizado de forma tal que pode ser utilizado
tanto em um curso de graduao (semestral) nas reas de exatas e tecnologia, bem como
um curso de mestrado profissionalizante destas reas. A seo Aprendendo um pouco mais
apresenta os tpicos mais tcnicos para um curso de graduao, e so mais adequados para
um estudante de ps-graduao ou para os estudantes de graduao mais curiosos.
Partes foram geradas a partir da experincia do segundo autor ministrando disciplinas
de probabilidade para graduao em diversos cursos de Engenharia e no Bacharelado em Estatstica da UFPE desde 2006 e tambm no mestrado em Estatstica da UFPE desde 2007.
Outras partes deste livro foram geradas a partir de cursos com este programa ministrados
pela primeira autora nas graduaes de Cincia da Computao e Engenharia da Computao no Centro de Informtica/UFPE desde 1998. Aplicaes de probabilidade na modelagem
de falhas de sistemas foram introduzidas pelo terceiro autor, bem como as ilustraes dessa
obra.
Como o objetivo que possa ser usado como um livro de texto, o livro contm exerccios
resolvidos e outros propostos. Respostas da alguns dos problemas propostos encontram-se
ao final de cada captulo. Muitos dos exerccios so retirados dos excelentes livros constantes
nas referncias.
Recife, novembro de 2012
Marcilia Andrade Campos, Leandro Chaves Rgo & Andre Feitoza de Mendona

iii

iv

Lista de Smbolos
IN
Z
Z+
Q
I
IR
C
I

P(A), 2A
a, b, x, y
~x
F
A
B

A, B
Ac ou A
P (A)
P (A | B)
X, Y , Z
(X1 , , Xn ) ou X1 , , Xn
iid
f
fX
F
FX
FX~
~
X

||A||

conjunto dos nmeros naturais


conjunto dos nmeros inteiros
conjunto dos nmeros inteiros positivos
conjunto dos nmeros racionais
conjunto dos nmeros reais
conjunto dos nmeros complexos
conjunto vazio
conjunto das partes de A
nmeros reais
vetor real
lgebra
-lgebra
-lgebra de Borel
espao de resultados elementares, espao amostral
evento simples, resultado elementar
eventos aleatrios, eventos
evento complementar de A
probabilidade de A
probabilidade condicional de A dado B
variveis aleatrias
amostra aleatria simples
variveis aleatrias independentes e identicamente distribudas
funo densidade
funo densidade da varivel aleatria X
funo de distribuio acumulada ou funo de distribuio
funo de distribuio da varivel aleatria X
~
funo de distribuio do vetor aleatrio X
vetor aleatrio
se distribui, a varivel aleatria tem distribuio
cardinalidade, tamanho ou dimenso do conjunto A
infinito
se e somente se
limite ou tende
limite de seqncia monotnica no-decrescente
limite de seqncia monotnoca no-crescente
implica
v

vi

<
>

6
=

:
| |
Akn , (n)k 
Cnk ou nk
!

interseo
unio
e
ou
no
pertence
no pertence
menor
maior
menor ou igual
maior ou igual
incluso
incluso estrita
aproximadamente igual
diferente
equivalente
para todo ou qualquer que seja
existe
tal que
valor absoluto
arranjo de n elementos tomados k deles
combinao de n elementos tomados k deles
fatorial

Contedo
Prefcio

iii

Lista de Smbolos

1 Probabilidade: definies, propriedades


1.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Operaes com Conjuntos . . . . . . . . . . . . . . .
1.1.2 Produto Cartesiano . . . . . . . . . . . . . . . . . . .
1.1.3 Conjunto das Partes . . . . . . . . . . . . . . . . . .
1.1.4 Partio . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.5 Funo Indicadora . . . . . . . . . . . . . . . . . . .
1.2 Breve Histrico sobre o Estudo da Chance e da Incerteza . .
1.3 Experimento Aleatrio . . . . . . . . . . . . . . . . . . . . .
1.4 Espao Amostral . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Eventos e Coleo de Eventos . . . . . . . . . . . . . . . . .
1.6 Fundamentos de Probabilidade . . . . . . . . . . . . . . . .
1.6.1 Hierarquia de Conceitos Estruturais de Probabilidade
1.6.2 Interpretaes de Probabilidade . . . . . . . . . . . .
1.7 Frequncia Relativa . . . . . . . . . . . . . . . . . . . . . . .
1.8 Axiomas de Kolmogorov . . . . . . . . . . . . . . . . . . . .
1.8.1 Exemplos de Medidas de Probabilidade . . . . . . . .
1.8.2 Propriedades de uma Medida Probabilidade . . . . .
1.9 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . .
1.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Mtodos de Contagem
2.1 Introduo . . . . . . . . . . . .
2.2 Regra da Adio . . . . . . . .
2.3 Regra da Multiplicao . . . . .
2.4 Amostragem ou escolhas com ou
2.4.1 Arranjos . . . . . . . . .
2.4.2 Permutaes . . . . . . .
2.4.3 Combinaes . . . . . .
2.5 Aplicaes em Grafos . . . . . .

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
sem reposio .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
vii

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
1
4
5
6
7
7
8
10
10
11
12
14
15
16
17
19
23
29
31

.
.
.
.
.
.
.
.

37
37
37
38
39
39
40
41
43

viii

2.6
2.7

2.5.1 Grafos No Direcionados . . . . . . . . . . . . . . . . . . .


2.5.2 Grafos Direcionados . . . . . . . . . . . . . . . . . . . . .
Contagem Multinomial ou Permutao com Elementos Repetidos
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

CONTEDO
. . . . . 43
. . . . . 44
. . . . . 45
. . . . . 47

3 Probabilidade Condicional. Independncia


3.1 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Independncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51
51
62
67

4 Variveis Aleatrias Unidimensionais e


4.1 Introduo . . . . . . . . . . . . . . . .
4.2 Definindo uma probabilidade sobre B .
4.3 Funo de Distribuio Acumulada . .
4.4 Tipos de Variveis Aleatrias . . . . .
4.4.1 Varivel Aleatria Discreta . . .
4.4.2 Varivel Aleatria Contnua . .
4.4.3 Varivel Aleatria Singular . . .
4.4.4 Varivel Aleatria Mista . . . .
4.5 Distribuies de caudas-pesadas . . . .
4.6 Funes de Variveis Aleatrias . . . .
4.7 Aprendendo um pouco mais . . . . . .
4.8 Exerccios . . . . . . . . . . . . . . . .

73
73
74
75
78
78
80
81
82
83
84
94
95

Funes
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

5 Vetores Aleatrios e Funes


5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Funo de Distribuio Acumulada Conjunta . . . . . . . . . . . . .
5.2.1 Vetor Aleatrio Discreto . . . . . . . . . . . . . . . . . . . .
5.2.2 Vetor Aleatrio Contnuo . . . . . . . . . . . . . . . . . . . .
5.3 Distribuies Marginais e Condicionais . . . . . . . . . . . . . . . .
5.4 Independncia entre Variveis Aleatrias . . . . . . . . . . . . . . .
5.5 Funes de Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . .
5.5.1 Distribuio de Z = X + Y . . . . . . . . . . . . . . . . . .
5.5.2 Distribuio de Z = XY
. . . . . . . . . . . . . . . . . . .
Y
5.5.3 Distribuio de Z = X . . . . . . . . . . . . . . . . . . . . .
5.5.4 Jacobiano de uma Funo . . . . . . . . . . . . . . . . . . .
5.6 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . . . . . .
5.6.1 Extenso do Mtodo Jacobiano para o Clculo de Densidades
es de Vetores Aleatrios Quaisquer . . . . . . . . . . . . .
5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
de Fun. . . . .
. . . . .

101
101
101
103
103
104
108
115
116
120
122
128
129
130
134

6 Esperana e outros Momentos


139
6.1 Esperana Matemtica de uma Varivel Aleatria . . . . . . . . . . . . . . . 139
6.2 Propriedades da Esperana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.3 Esperana Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

CONTEDO
6.4 Esperana Matemtica de Funes e Vetores de
Variveis Aleatrias . . . . . . . . . . . . . . . .
6.4.1 Caso Discreto . . . . . . . . . . . . . . .
6.4.2 Caso Contnuo . . . . . . . . . . . . . .
6.5 Momentos . . . . . . . . . . . . . . . . . . . . .
6.5.1 Momentos Centrais. Varincia . . . . . .
6.5.2 Propriedades da Varincia . . . . . . . .
6.6 A Desigualdade de Tchebychev . . . . . . . . .
6.7 Momentos Conjuntos . . . . . . . . . . . . . . .
6.8 Aprendendo um pouco mais . . . . . . . . . . .
6.8.1 Interpretao Geomtrica da Esperana .
6.9 Exerccios . . . . . . . . . . . . . . . . . . . . .

ix
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

7 Principais Variveis Aleatrias Discretas


7.1 Bernoulli de parmetro p: B(p) . . . . . . . . . . . . . . . . .
7.2 Binomial de parmetros n e p: B(n, p) . . . . . . . . . . . . .
7.3 Poisson de parmetro : P oisson() . . . . . . . . . . . . . .
7.3.1 Poisson como um Limite de Eventos Raros de Binomial
7.4 Geomtrica de parmetro p: G(p) . . . . . . . . . . . . . . . .
7.5 Pascal de parmetros r e p: P ascal(p, r) . . . . . . . . . . . .
7.6 Hipergeomtrica de parmetros N, D, e n: H(n, D, n) . . . . .
7.7 Zeta ou Zipf de parmetro > 1: Z() . . . . . . . . . . . . .
7.8 Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8 Principais Variveis Aleatrias Contnuas
8.1 Uniforme de parmetros a e b: U (a, b) . . . . . . . .
8.2 Exponencial de parmetro : Exp() . . . . . . . .
8.3 Normal de parmetros e 2 : N (, 2 ) . . . . . . .
8.3.1 Tabulao da Distribuio Normal . . . . .
8.4 Pareto de parmetros e k: Pareto(, k) . . . . .
8.5 Weibull de parmetros e : W (, ) . . . . . . . .
8.6 Log-normal de parmetros e 2 : LN (, 2 ) . . . .
8.7 Gama de parmetros r e : G(r, ) . . . . . . . . .
8.8 Qui-quadrado de parmetro n:, 2n . . . . . . . . . .
8.9 t-Student de parmetro n: t(n) . . . . . . . . . . .
8.10 F-Snedecor de parmetros n e m: F (n, m) . . . . .
8.11 Aprendendo um pouco mais . . . . . . . . . . . . .
8.11.1 Beta de parmetros a e b: Beta(a, b) . . . .
8.11.2 Cauchy de parmetros x0 e : Cauchy(x0 , )
8.11.3 A Distribuio Normal Bivariada . . . . . .
8.12 Exerccios . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

144
144
147
149
150
152
153
154
156
158
162

.
.
.
.
.
.
.
.
.
.

167
167
168
169
171
173
175
176
180
181
185

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

191
191
193
195
198
199
200
201
201
203
204
205
206
206
207
208
209

x
9 Confiabilidade: Probabilidade aplicada
9.1 Introduo e Definies . . . . . . . . . . . .
9.2 Distribuies para Confiabilidade . . . . . .
9.2.1 Distribuio Exponencial para Falhas
9.2.2 Distribuio Weibull para Falhas . .
9.3 Sistemas Complexos . . . . . . . . . . . . .
9.3.1 Configurao em srie . . . . . . . .
9.3.2 Configurao em paralelo . . . . . . .
9.4 Exerccios . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

10 Teoremas Limite e Transformaes de Variveis Aleatrias


10.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Lei de Grandes Nmeros . . . . . . . . . . . . . . . . . . . . .
10.3 Teoremas Centrais de Limite . . . . . . . . . . . . . . . . . . .
10.4 Transformaes de Variveis Aleatrias . . . . . . . . . . . . .
10.5 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . . .
10.5.1 Modos de Convergncia . . . . . . . . . . . . . . . . .
10.5.2 Funo Caracterstica . . . . . . . . . . . . . . . . . . .
10.5.3 Lei Fraca dos Grandes Nmeros de Khintchine (1929) .
10.5.4 Lei Forte dos Grandes Nmeros de Kolmogorov (1933)
10.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

CONTEDO
215
. . . . . 215
. . . . . 221
. . . . . 222
. . . . . 223
. . . . . 224
. . . . . 224
. . . . . 227
. . . . . 229

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

231
231
232
234
236
237
237
238
238
238
239

11 Introduo aos Processos Estocsticos


11.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Classificao dos processos estocsticos . . . . . . . . . . . . . . . . . . . .
11.3 Exemplos de processos estocsticos . . . . . . . . . . . . . . . . . . . . . .
11.3.1 Processo de contagem . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.2 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.3 Processo de nascimento-e-morte . . . . . . . . . . . . . . . . . . .
11.3.4 Processo de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.4 Cadeias de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.4.1 Probabilidades de transio em um passo e distribuio inicial . . .
11.4.2 Probabilidades de transio em n passos e distribuio de Xn , n 1
11.4.3 Classificao dos estados e distribuies limite . . . . . . . . . . . .
11.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

245
245
246
248
248
248
250
251
251
251
253
255
259

12 Anlise Exploratria de Dados


12.1 Tipos de Variveis . . . . . . . . . .
12.2 Anlise preliminar de um conjunto de
12.2.1 Representaes Grficas . . .
12.2.2 Sumarizando Observaes . .
12.2.3 Dados agrupados . . . . . . .
12.2.4 Dados no-agrupados . . . . .
12.3 Exerccios . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

263
263
264
264
265
268
271
278

. . . . . . .
observaes
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

CONTEDO
13 Uma Introduo Inferncia Estatstica

xi
279

13.1 Populao e Amostra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279


13.1.1 Seleo de uma Amostra . . . . . . . . . . . . . . . . . . . . . . . . . 280
13.2 Estatsticas e Parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
13.3 Distribuies Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
13.3.1 Distribuio da Mdia da Amostra, X

. . . . . . . . . . . . . . . . . 284

13.3.2 Distribuio da Varincia da Amostra, S 2 . . . . . . . . . . . . . . . 285


13.3.3 Distribuio da Proporo Amostral, p . . . . . . . . . . . . . . . . . 286
13.4 Estimadores e Estimativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
13.4.1 Propriedades de Estimadores . . . . . . . . . . . . . . . . . . . . . . . 287
13.4.2 Como obter Estimativas . . . . . . . . . . . . . . . . . . . . . . . . . 291
13.5 Intervalos de Confiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
13.5.1 Intervalo de Confiana para a Mdia Populacional () com Varincia
Populacional ( 2 ) Conhecida . . . . . . . . . . . . . . . . . . . . . . . 292
13.5.2 Intervalo de Confiana para Mdia Populacional () com Varincia
Populacional ( 2 ) Desconhecida . . . . . . . . . . . . . . . . . . . . . 293
13.6 Teste de Hipteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
13.6.1 Procedimento para realizar um Teste de Hiptese . . . . . . . . . . . 300
13.6.2 Teste de Hiptese para a Mdia de uma Populao Normal com Varincia Conhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
13.6.3 Teste para a Proporo . . . . . . . . . . . . . . . . . . . . . . . . . . 301
13.6.4 Testes para Amostras Grandes . . . . . . . . . . . . . . . . . . . . . . 302
13.6.5 Teste para a Mdia de uma Populao Normal com Varincia Desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
13.6.6 Probabilidade de Significncia . . . . . . . . . . . . . . . . . . . . . . 304
13.6.7 Significncia Estatstica versus Significncia Prtica . . . . . . . . . . 305
13.7 Teste de Aderncia ou Bondade de Ajuste . . . . . . . . . . . . . . . . . . . 306
13.8 Aprendendo um pouco mais . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
13.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Referncias Bibliogrficas

317

A Nmeros de ponto-flutuante e Arredondamentos

321

A.1 Nmeros de ponto-flutuante . . . . . . . . . . . . . . . . . . . . . . . . . . . 321


A.2 Arredondamentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325

Captulo 1
Probabilidade: definies, propriedades
Que ferramentas usar, e como, analisar, entender, modelar as seguintes situaes:
(i) anlise de tempo de execuo de um algoritmo:
pior caso (worst-case);
caso mdio (average-case).
(ii) alocamento dinmico de memria;
(iii) anlise do erro de arredondamento acumulado em um algoritmo numrico;
(iv) anlise de um sistema computacional servindo a um grande nmero de usurios.
Modelagem dessas situaes so diferentes da modelagem, por exemplo, de enviar uma
aeronave ao espao e monitorar sua rbita! Lanar uma moeda e observar a face voltada
para cima, lanar um dado e observar o nmero na face voltada para cima, tirar uma carta
do baralho e ver qual o naipe, contar o nmero de usurios acessando o servidor de e-mail em
um dado instante, contar o nmero de arquivos na fila de uma impressora, entre outros, so
situaes cujo resultado foge ao controle do observador. Neste caso a modelagem matemtica
proposta denominada de probabilstica ou estocstica, a qual realizada fundamentalmente
pela Teoria da Probabilidade ou Processos Estocsticos.
Este captulo inicia o estudo de probabilidade deste livro. Para tanto, inicialmente, antes
de entrar no estudo de probabilidade, conceitos bsicos sobre conjuntos so apresentados.

1.1

Conjuntos

Definio 1.1.1:
ordenados.

Um uma coleo de elementos distintos1 onde os elementos no so

Na Estatstica comum se falar de conjuntos incluindo o caso onde seus elementos no so distintos.
Por exemplo, o conjunto dos tempos de acesso a um banco de dados, o conjunto das notas de uma dada
disciplina, entre outros, pode ter valores iguais

1.1. CONJUNTOS
2
Esta definio intuitiva de um conjunto foi dada primeiramente por Georg Cantor (18451918), que criou a teoria dos conjuntos em 1895. Um conjunto pode ser especificado, listando
seus elementos dentro de chaves. Por exemplo,
A = {0, 1, 2, 3, 5, 8, 13}, B = {0, 1, 2, . . . , 1000}.
Alternativamente, um conjunto pode ser especificado por uma regra que determina seus
membros, como em:
C = {x : x inteiro e positivo} ou D = {x : x par}.
Como em um conjunto a ordem dos elementos no importa, tem-se que:
{1, 2, 3} = {2, 3, 1}.
Se um dado elemento faz parte de um conjunto, diz-se que ele pertence ao conjunto e
denota-se isso com smbolo . Por exemplo, 2 D = {x : x par} ou 3 E = {x :
primo }.
Por outro lado, se um dado elemento no faz parte de um conjunto, diz-se que ele no
pertence ao conjunto e denota-se isso com o smbolo .
/ Por exemplo, 3
/ D = {x : x par}
ou 4
/ E = {x : x primo}.
preciso ter cuidado ao distinguir entre um elemento como 2 e o conjunto contendo
somente este elemento {2}. Enquanto, tem-se 2 F = {2, 3, 5}, {2}
/ F = {2, 3, 5}, pois o
conjunto contendo somente o elemento 2 no pertence F .
Exemplo 1.1.2: Seja G = {2, {3}}. Ento, 2 G e {3} G, porm 3
/ G.
O tamanho de um conjunto A, ||A||, a quantidade de elementos que ele possui, a
qual chamada de sua . A cardinalidade pode ser finita, infinita enumervel, ou infinita
no-enumervel. Um conjunto finito quando existe uma funo bijetiva cujo domnio
igual a este conjunto e a imagem o conjunto dos inteiros no-negativos menores que um
nmero finito; seus elementos podem ser contados, sendo possvel exibir seu ltimo elemento.
Um conjunto infinito enumervel tem exatamente a mesma quantidade de elementos que os
naturais, ou seja, existe uma funo bijetiva cujo domnio igual a este conjunto e a imagem
igual ao conjunto dos naturais. Um conjunto enumervel se ele for finito ou infinito
enumervel. Um conjunto no-enumervel se ele no for enumervel. Por exemplo, os
seguintes conjuntos so enumerveis:
Nn = {0, 1, 2, . . . , n 1},
Z = {x : x um inteiro},
Z + = {x : x um inteiro positivo},
Q = {x : x racional}.
Para notar que o conjunto dos nmeros racionais enumervel considere a seguinte matriz
de nmeros racionais. (Lembrando que um nmero x racional se pode ser escrito sob a
forma pq , onde p e q so inteiros e q 6= 0.)
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

0/1
1/1

2/1

.
2/3

2/2
.

..
.

1/3

1/2
.

3/1

0/3

0/2
.

.
3/2

.
..
..
.
.

3/3
.
..
..
.
.

..

Esta matriz contm todos os racionais no-negativos. Utilizando o mtodo da diagonalizao, os elementos da matriz so ordenados, sem repetio, da seguinte forma:
0/1, 1/1, 1/2, 2/1, 1/3, 3/1, . . .
Definindo-se uma correspondncia f onde para cada racional no-negativo r, f (r) representa a posio em que r aparece na sequncia acima, tem-se que f uma correspondncia 1-1
entre os racionais no-negativos e os naturais. Por exemplo, temos que f (1/2) = 3, f (3) = 6.
Pode-se definir g no conjunto de todos os racionais tal que tal que g(r) = 2(f (r) 1) se
r > 0, e g(r) = 2f (|r|) 1 se r 0. Desse modo, g(r) um natural par se r for um racional positivo, e um natural mpar, se r for um racional no-positivo. Portanto, g(r) uma
correspondncia 1-1 entre os racionais e os naturais, o que implica que os racionais formam
um conjunto enumervel.
Por outro lado, os conjuntos abaixo so no-enumerveis:
IR = {x : x um nmero real},
(a, b) = {x : a < x < b}, onde a < b,
[a, b] = {x : a x b}, onde a < b.
Em muitos problemas o interesse estudar um conjunto definido de objetos. Por exemplo,
o conjunto dos nmeros naturais; em outros, o conjuntos dos nmeros reais; ou ainda, por
todas as peas que saem de uma linha de produo durante um perodo de 24h, etc. O
conjunto que contm todos os elementos objeto de estudo chamado de conjunto universo e
denotado por . Por outro lado, o conjunto especial que no possui elementos chamado
de conjunto vazio e denotado por . Este conjunto tem cardinalidade 0 e portanto finito.
Por exemplo,
= {} = {x : x IR e x < x} ou = (a, a).
Dois conjuntos A e B podem ser relacionados atravs da relao de incluso, denotada
por A B, e lida A um subconjunto de B ou B contm A, quando todo elemento de A
tambm elemento de B. Quando A no for subconjunto de B, denota-se por A 6 B. Diz-se
que A um subconjunto prprio de B quando se tem A B, A 6= , e B 6 A. Se A
subconjunto de B, ento B chamado um superconjunto de A. Diz-se que A e B so iguais
se e somente se A B e B A. Se A B, ento tambm pode-se dizer que B A.
Campos, Rgo & Mendona

1.1. CONJUNTOS

A relao possui as propriedades de (i) reflexividade (A A); (ii) transitividade


(A B, B C A C); e anti-simetria (A B, B A A = B). Contudo, ela no
uma relao completa, ou seja, no verdade que, para todos os conjuntos A e B, ou A B,
ou B A. Tambm fcil verificar que A e A para todo conjunto A.

1.1.1

Operaes com Conjuntos

Conjuntos podem ser transformados atravs das seguintes operaes:


(i) Complementao: Ac = { :
/ A}. De acordo com esta definio, para todo
e todo conjunto A, no existe outra opo alm de A ou Ac ; alm disso
no pode ser verdade que A e Ac simultaneamente.
(ii) Unio: A B = { : A ou B}.
(iii) Interseco: A B = { : A e B}.
(iv) Diferena: A B = A B c = { : A e
/ B}.
Se A B = , ento A e B no tm qualquer elemento em comum, e diz-se ento que A
e B so disjuntos.
Exemplo 1.1.3: Seja = {0, 1, 2, 3, 4, 5, 6, 7}, A = {0, 1, 5} e B = {1, 2, 3, 4}. Ento,
Ac = {2, 3, 4, 6, 7}, A B = {0, 1, 2, 3, 4, 5}, A B = {1}, A B = {0, 5}.
Exemplo 1.1.4: Sejam A, B, C e D subconjuntos do conjunto universo tal que AB = ,
C D = , A C e B D. Prove que A = C e B = D.
Soluo: Basta provar que C A e D B. Seja C, ento como C D = , tem-se
que
/ D. Logo, como B D, segue que
/ B. Mas como A B = , tem-se que A.
Portanto, C A.
Para provar que D B, seja D, ento como C D = , tem-se que
/ C. Logo,
como A C, segue que
/ A. Mas como A B = , tem que B. Portanto, D B.
Relaes e propriedades das operaes entre conjuntos incluem:
(i) Idempotncia: (Ac )c = A.
Prova: Suponha que (Ac )c . Ento,
/ Ac , o que por sua vez implica que A,
c c
ou seja, (A ) A. Agora suponha que A, ento
/ Ac , e portanto (Ac )c ,
ou seja, A (Ac )c . Logo, (Ac )c = A.
(ii) Comutatividade (Simetria): A B = B A e A B = B A.
Prova: Suponha que A B. Ento, A, ou B, o que implica que
B A, ou seja, A B B A. Agora suponha que B A. Ento, B, ou
A, o que por sua vez implica que A B, ou seja, B A A B. Portanto,
A B = B A.
A prova para o caso da interseco anloga e deixada como Exerccio.
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

(iii) Associatividade: A (B C) = (A B) C e A (B C) = (A B) C.
Prova: Exerccio.
(iv) Distributividade: A (B C) = (A B) (A C) e A (B C) = (A B) (A C).
Prova: Exerccio.
(v) Leis de De Morgan: (A B)c = Ac B c e (A B)c = Ac B c .
Prova: Suponha que (A B)c . Ento,
/ (A B), o que por sua vez implica
c
que
/ A e
/ B. Logo, A e B c , ou seja, (Ac B c ). Ento,
(A B)c (Ac B c ). Agora suponha que (Ac B c ). Ento, Ac e B c , o
que por sua vez implica que
/Ae
/ B. Logo,
/ (A B), ou seja, (A B)c .
Ento, (Ac B c ) (A b)c . Portanto, (Ac B c ) = (A b)c .
A prova da outra Lei de De Morgan anloga e deixada como exerccio.
As Leis de De Morgan permitem que se possa expressar unies em termos de interseces
e complementos e interseces em termos de unies e complementos.
Unies e interseces podem ser estendendidas para colees arbitrrias de conjuntos.
Seja I um conjunto qualquer. Este conjunto I ser utilizado para indexar, ou seja, identificar
atravs de um nico smbolo os conjuntos na coleo arbitrria de interesse e desse modo
simplificar a notao utilizada. Por exemplo, se I = {1, 5, 7}, ento iI Ai = A1 A5 A7 ;
ou, se I = IN, ento iIN Ai = A1 A2 An .
De modo anlogo ao caso de dois conjuntos, define-se:
iI Ai = { : pertence a pelo menos um dos conjuntos Ai , onde i I, }
e
iI Ai = { : pertence a todo Ai , onde i I.}
Se I for um conjunto enumervel, diz-se que iI Ai , respectivamente, iI Ai , uma
unio, respectivamente interseco, enumervel de conjuntos.
Exemplo 1.1.5: Se Ai = [1, 2 + 1i ), i IN, ento iIN Ai = [1, 3) e iIN = [1, 2].

1.1.2

Produto Cartesiano

Definio 1.1.6: Produto Cartesiano. O produto Cartesiano A B de dois conjuntos


dados A e B o conjunto de todos os pares ordenados de elementos, onde o primeiro pertence
A e o segundo pertence B:
A B = {(a, b) : a A, b B}.
Campos, Rgo & Mendona

1.1. CONJUNTOS

Por exemplo, se A = {a, b, c} e B = {1, 2}:


A B = {(a, 1), (a, 2), (b, 1), (b, 2), (c, 1), (c, 2)}
e
B A = {(1, a), (1, b), (1, c), (2, a), (2, b), (2, c)}.
O produto cartesiano de dois conjuntos pode ser estendido para n conjuntos da seguinte
maneira: se A1 , . . . , An forem conjuntos, ento,
A1 A2 . . . An = {(a1 , a2 , . . . , an ) : ai Ai },
ou seja, o conjunto de todas as nuplas ordenadas.
Um caso especial importante o produto cartesiano de um conjunto por ele prprio, isto
, AA. Exemplos disso so o plano euclideano, IRIR, e o espao euclideano tridimensional,
representado por IR IR IR.

1.1.3

Conjunto das Partes

Definio 1.1.7: Dado um conjunto qualquer A, pode-se definir um outro conjunto, conhecido como conjuntos das partes de A, e denotado por 2A , cujos elementos so subconjuntos
de A.
Exemplo 1.1.8: Seja A = {1, 2, 3}, ento
2A = {, A, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}.
Pode-se provar que a cardinalidade do conjunto das partes de qualquer conjunto dado A
maior que a cardinalidade de A.
Teorema 1.1.9: Se A um conjunto e 2A o conjunto das partes de A, no existe uma
funo f : A 2A que seja sobrejetiva.
Prova: Recorde que uma funo g : D I sobrejetiva se para todo y I, existe x D
tal que g(x) = y. Suponha por contradio, que existe uma funo sobrejetiva f : A 2A .
Defina o conjunto, B = {x A : x
/ f (x)}. Como f por suposio sobrejetiva e
A
B 2 , tem-se que existe b A tal que f (b) = B. Existem dois casos a considerar: b B
ou b B c . Se b B, ento b
/ f (b). Mas como B = f (b), tem-se que b
/ B, absurdo. Se
c
b B , ento b f (b). Mas como B = f (b), tem-se que b B, absurdo.
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

1.1.4

Partio

Intuitivamente, uma partio de um conjunto universo uma maneira de distribuir os elementos deste conjunto em uma coleo arbitrria de subconjuntos. Formalmente, tem-se a
seguinte definio:
Definio 1.1.10: Dado um conjunto universo , uma partio = {A , I} de
uma coleo de subconjuntos de (neste caso, indexados por que toma valores no
conjunto de ndices I) e satisfaz:
(i) Para todo 6= , A A = ;
(ii) I A = .
Deste modo os conjuntos de uma partio so disjuntos par a par e cobrem todo o conjunto
universo. Portanto, cada elemento pertence a um, e somente um, dos conjuntos A
de uma partio.
Exemplo 1.1.11: Se = {1, 2, 3, 4}, ento {A1 , A2 }, onde A1 = {1, 2, 3} e A2 = {4},
uma partio de .
Exemplo 1.1.12: A coleo de intervalos {(n, n + 1] : n Z} uma partio dos nmeros
reais IR.

1.1.5

Funo Indicadora

sempre conveniente representar um conjunto A por uma funo IA tendo domnio (conjunto
dos argumentos da funo) e contra-domnio (conjunto dos possveis valores da funo)
binrio {0, 1}.
Definio 1.1.13: Funo Indicadora. A funo indicadora IA : {0, 1} de um
conjunto A dada por

1, se A,
IA () =
0, se
/ A.
fcil observar que I () = 1, e que I () = 0, . Note que existe uma
correspondncia 1-1 entre conjuntos e suas funes indicadoras:
A = B ( )IA () = IB ().
Esta relao entre conjuntos e suas respectivas funes indicadoras permite usar a aritmtica de funes indicadoras para explorar propriedades de conjuntos. fcil provar as
seguintes propriedades de funes indicadoras:
IAc = 1 IA ,
A B IA IB ,
IAB = min(IA , IB ) = IA IB ,
IAB = max(IA , IB ) = IA + IB IAB ,
IAB = max(IA IB , 0) = IA IB c .
Campos, Rgo & Mendona

1.2. BREVE HISTRICO SOBRE O ESTUDO DA CHANCE E DA INCERTEZA

Exemplo 1.1.14: Utilizando funes indicadoras, verifique que A B B c Ac .


Soluo: Tem-se que
A B IA IB 1 IA 1 IB IAc IB c B c Ac .

1.2

Breve Histrico sobre o Estudo da Chance e da Incerteza

Antes de comear as definies e propriedades da funo probabilidade, ser dado um breve


histrico a partir do sculo XVI.
...a era dos jogos de azar...
Cardano (1501-1576).
Primeiro matemtico que calculou uma probabilidade corretamente. Introduziu a
idia de combinaes para calcular o cardinal do espao amostral e do nmero de
eventos elementares favorveis, de modo que o quociente entre ambos os nmeros
desse um resultado que estivesse de acordo com a experincia.
Fermat (1601-1655), Pascal (1623-1662), Huygens (1629-1695).
Um dos primeiros problemas interessantes em probabilidade foi proposto pelo
nobre francs Chevalier de Mr. O problema o seguinte: dois jogadores, A e
B, concordam em jogar uma srie de jogos, s. Por alguma razo acidental, eles
decidem parar o jogo quando A tem ganho m jogos e B, n, sendo m s, n s e
m 6= n . A pergunta : como as apostas devem ser divididas?
A soluo desse problema envolveu Fermat, Pascal e Huygens.
Huygens (1629-1695).
Huygens publicou em 1657 o primeiro livro sobre Teoria da Probabilidade De
Ratiociniis in Alae Ludo (On Calculations in Game of Chance), o qual foi muito
bem aceito pelos matemticos da poca e foi a nica introduo Teoria da
Probabilidade durante 50 anos.
Ainda datam desse perodo os fundamentos do conceito de esperana matemtica,
o teorema da adio de probabilidades e o teorema da multiplicao de probabilidades.
...o comeo...
James Bernoulli (1654-1705).
Publicou em 1713 Ars Conjectandi (The Art of Guessing), obra dividida em quatro
partes, onde, na ltima, provou o primeiro limite da Teoria da Probabilidade, A
Lei dos Grandes Nmeros, ou Teorema de Ouro.
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

Pierre Simon, Marqus de Laplace (1749-1827).


Publicou em 1812 Thorie Analytique des Probabilits, no qual apresentou seus
prprios resultados e os de seus predecessores. Suas contribuies mais importantes foram a (i) aplicao de mtodos probabilsticos aos erros de observaes
e (ii) formulou a idia de considerar os erros de observaes como o resultado
acumulativo da adio de um grande nmero de erros elementares independentes.
Poisson (1781-1840), Gauss (1777-1855).
Ambos tiveram grande interesse por teoremas limite. A Gauss creditada a
origem da Teoria dos Erros, em particular, dos Mnimos Quadrados.
...estamos chegando...
P. L. Chebyshev (1822-1894), A. A. Markov (1856-1922), A. M. Lyapunov
(1857-1918).
Desenvolveram mtodos efetivos para provar teoremas limite para soma de variveis aleatrias independentes, mas arbitrariamente distribudas. Chebyshev foi o
primeiro a explorar com profundidade as relaes entre variveis aleatrias e suas
esperanas matemticas.
As contribuies de Markov, relacionam-se com teoremas limite para soma de
variveis aleatrias independentes e a criao de um novo ramo da Teoria da
Probabilidade: a teoria das variveis aleatrias dependentes conhecidas como
Cadeias de Markov.
Uma das contribuies de Lyapunov foi o uso da funo caracterstica para provar
o teorema central do limite.
John von Neumann (1903-1957).
Ainda nessa poca, von Neumann assentou sobre bases firmes a Teoria dos Jogos, em 1928, contribuiu para a descoberta da Mecnica Quntica, contribuiu
para o desenvolvimento da primeira bomba atmica americana e ...inventou o
computador digital!
...a axiomatizao...
Lebesgue, definiu a Teoria da Medida e Integrao.
Borel (1871-1956), estabeleu a analogia entre medida de um conjunto e probabilidade de um evento e integral de uma funo e esperana matemtica.
A. N. KOLMOGOROV, publicou em 1933 Foundations of the Theory of Probability, com a axiomtica que tem sido usada at hoje.
...hoje...
Campos, Rgo & Mendona

1.3. EXPERIMENTO ALEATRIO

10

Atualmente, idias recentes em Teoria da Probabilidade so (i) Probabilidade Intervalar


(Campos, 1997)(Santos, 2010), (ii) Probabilidades Imprecisas2 e (iii) Probabilidade
sobre Domnios3 .

1.3

Experimento Aleatrio

Um experimento qualquer processo de observao. Em muitos experimentos de interesse,


existe um elemento de incerteza, ou chance, que no importa o quanto se saiba sobre o passado de outras performances deste experimento, no possvel predizer o seu comportamento
em futuras realizaes por vrias razes: impossibilidade de saber todas as causas envolvidas;
dados insuficientes sobre as suas condies iniciais; os fenmenos que o geraram podem ser
to complexos que impossibilitam o clculo do seu efeito combinado; ou, na verdade, existe
alguma aleatoriedade fundamental no experimento. Tais experimentos so conhecidos como
experimentos aleatrios. Salvo mencionado em contrrio, este livro restringe-se classe de
experimentos aleatrios cujo conjuntos de possveis resultados seja conhecido4 .
Os resultados de um experimento aleatrio so caracterizados pelos seguintes componentes:
(i) um conjunto de resultados que podem ocorrer: ;
(ii) uma coleo que contm como elementos conjuntos de resultados que se pretende analisar: A;
(iii) para cada conjunto da coleo A um valor numrico, p, que descreve quo verossmil
a ocorrncia de um resultado contido em A.

1.4

Espao Amostral

O conjunto de possveis resultados de um experimento aleatrio chamado de espao amostral. Em um dado experimento aleatrio a especificao do espao amostral deve ser tal que
este (i) liste todos os possveis resultados do experimento sem duplicao e o (ii) faa em
um nvel de detalhamento suficiente para os interesses desejados, omitindo resultados que,
embora logicamente ou fisicamente possveis, no tenham qualquer implicao prtica na
sua anlise.
Por exemplo, suponha que o prmio de uma determinada aposta envolvendo um jogo de
baralho dependa somente da cor do naipe da carta retirada. Ento, o espao amostral poderia
2

http://www.sipta.org/documentation.
http://www.it.iitb.ac.in/papers/pkdd07.pdf,
http://dauns.math.tulane.edu/ mwm/ftp/darms.pdf.
4
importante ressaltar que frequentemente so encontradas situaes prticas onde no se consegue
descrever todos os possveis resultados de um experimento. Uma maneira de contornar este problema
assumir que um resultado possvel do experimento a no ocorrncia de qualquer dos resultados descritos,
contudo, em problemas prticos, tal suposio pode acarretar em dificuldades quando se tenta elicitar ou
eduzir probabilidades de especialistas.
3

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

11

ser dado por = {vermelho, preto} ou = {copas, ouro, espada, paus} ou ainda =
{todas as 52 cartas do baralho}. Portanto, muito mais se poderia dizer sobre o resultado de
uma retirada de carta de um baralho que os simples resultados binrios vermelho ou preto.
Informaes outras so ignoradas quando se usa a hiptese adicional que existe uma aposta
com pagamentos que dependem apenas da cor do naipe da carta retirada.

1.5

Eventos e Coleo de Eventos

Um evento um subconjunto do espao amostral, ou seja, um conjunto de resultados


possveis do experimento aleatrio. Ao se realizar um experimento aleatrio, se o resultado
pertence a um dado evento A, diz-se que A ocorreu.
Definio 1.5.1: Os eventos A e B so disjuntos ou mutuamente excludentes ou mutuamente exclusivos se no puderem ocorrer juntos, ou, em liguagem de conjuntos, A B = .
A ocorrncia de eventos combinados tambm um evento; essas combinaes podem ser
expressas atravs das operaes de conjuntos: complementar, unio, interseco e diferena.
Exemplo 1.5.2: Sejam A, B, e C eventos em um mesmo espao amostral . Expresse os
seguintes eventos em funo de A, B, e C e operaes Booleanas de conjuntos.
(a) Pelo menos um deles ocorre:
A B C.
(b) Exatamente um deles ocorre:
(A B c C c ) (Ac B C c ) (Ac B c C).
(c) Apenas A ocorre:
(A B c C c ).
(d) Pelo menos dois ocorrem:
(A B C c ) (A B c C) (Ac B C) (A B C).
(e) No mximo dois deles ocorrem:
(A B C)c .
(f ) Nenhum deles ocorre:
(Ac B c C c ).
(g) Ambos A e B ocorrem, mas C no ocorre:
(A B C c ).

Campos, Rgo & Mendona

1.6. FUNDAMENTOS DE PROBABILIDADE

12

De acordo com Fine (2006), embora possa-se pensar que, dado um espao amostral,
necessariamente de interesse analisar todos os seus subconjuntos (e isto eventualmente
verdadeiro), tem-se trs razes para esperar que o interesse seja apenas por alguns de seus
subconjuntos. Primeiro, o espao amostral pode conter um grau de detalhamento superior
ao de interesse no problema. Por exemplo, ele pode representar uma nica jogada de um
dado mas o interesse apenas em saber se o resultado par ou mpar. Segundo, o objetivo
associar a cada evento A uma probabilidade P (A); como essas probabilidades esto baseadas
em algum conhecimento sobre a tendncia de ocorrer o evento, ou no grau de crena que
determinado evento ocorrer, o conhecimento sobre P pode no se estender para todos os
subconjuntos de . A terceira (e tcnica) razo para limitar a coleo de eventos de interesse
que condies impostas em P pelos axiomas de Kolmogorov, que sero vistos adiante,
podem no permitir que P seja definida em todos os subconjuntos de , em particular isto
pode ocorrer quando for no enumervel (fato este fora do escopo deste livro (Burrill,
1972)(Shiryayev, 1984).
Em probabilidade, o interesse em uma coleo especial A de subconjuntos do espao
amostral (A um conjunto cujos elementos tambm so conjuntos!) que so eventos de
interesse no que se refere ao experimento aleatrio E e os quais tem-se conhecimento sobre
a sua probabilidade. A chamado de uma -lgebra de eventos. O domnio de uma medida
de probabilidade uma -lgebra.
Definio 1.5.3: Uma lgebra de eventos F uma coleo de subconjuntos do espao
amostral que satisfaz:
(i) F no vazia;
(ii) F fechada com respeito a complementos (se A F, ento Ac F);
(iii) F fechada com respeito a unies finitas (se A, B F, ento A B F).
Definio 1.5.4: Uma -lgebra A uma lgebra de eventos que tambm fechada com
relao a uma unio enumervel de eventos,
(i I)Ai A iI Ai A.
Pelas Leis de De Morgan, tem-se que A tambm fechada com respeito a interseces
enumerveis.
Dado um espao amostral , a maior -lgebra o conjunto das partes de , A = P(),
e a menor A = {, }. 5

1.6

Fundamentos de Probabilidade

Raciocnio probabilstico frequente no dia a dia da humanidade e pode ser observado tanto
atravs de aes (atravessar uma rua, embarcar num avio ou navio, ligar um computador so atividades que revelam um julgamento de que a probabilidade de um acidente
5

Em geral, dada qualquer partio enumervel de , pode-se definir uma nova -lgebra de considerando
todas as possveis unies enumerveis de conjunto que formam a partio.

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

13

suficientemente pequena para assegurar a vantagem de se tomar tais aes) ou de palavras


(provavelemente chover amanh, existe uma probabilidade suficientemente grande de que
o Brasil seja o prximo campeo mundial de futebol).
De acordo com Fine (2006), o raciocnio probabilstico pode ser classificado nas seguintes
dimenses:
grau de preciso o conceito estrutural;
o significado, ou interpretao a ser dada probabilidade;
estrutura matemtica formal da funo probabilidade dada por um conjunto de axiomas.
O conceito estrutural determina a preciso esperada de que probabilidade represente
fenmenos aleatrios. A interpretao proporciona a base com a qual a probabilidade deve
ser determinada e indica o que se pode aprender com ela, ou seja, o que uma afirmao
probabilstica significa. O conceito estrutural e a interpretao guiam a escolha dos axiomas.
O conjunto de axiomas, contudo, pode somente capturar uma parte do que se entende da
interpretao.
A compreenso de fundamentos de probabilidade importante, pois aplicaes de teoria
da probabilidade dependem fortemente de seus fundamentos. Por exemplo, os fundamentos
influem na escolha dos mtodos estatsticos a serem utilizados (frequentistas e Bayesianos,
entre outros) e na interpretao dos resultados obtidos. Os prximos exemplos motivam a
importncia do estudo de fundamentos de probabilidade.
Exemplo 1.6.1: (Halpern, (2003)) Suponha que Alice tenha uma moeda honesta e que
ela e Joo saibam que a moeda honesta. Alice joga a moeda e olha o resultado. Aps a
moeda ser jogada, qual a probabilidade de cara segundo Joo? Um argumento diria que a
probabilidade ainda 1/2, pois Joo nada aprendeu sobre o resultado da jogada, ento ele
no deve alterar o valor de sua probabilidade. Um outro argumento, questiona se realmente
faz sentido falar sobre probabilidade de cara depois que a moeda foi jogada. Segundo este
argumento, a moeda ou caiu cara ou coroa, ento o melhor que Joo pode afirmar que a
probabilidade de cara ou 0 ou 1, mas ele no sabe discernir entre esses valores.
Exemplo 1.6.2: (Halpern, (2003)) Suponha agora que Alice tenha duas moedas, uma
honesta e outra tendenciosa e duas vezes mais provvel dar cara que coroa com esta
moeda. Alice escolhe uma das moedas (suponha que ela sabe distinguir as moedas) e est
prestes a jog-la. Joo sabe que uma moeda honesta e que a outra tendenciosa e que
duas vezes mais provvel cair cara que coroa com a moeda tendenciosa, mas ele no sabe
qual moeda Alice escolheu nem lhe foi dada a probabilidade com que Alice escolhe a moeda
honesta. Qual a probabilidade de cara segundo Joo?
Exemplo 1.6.3 : Paradoxo de Ellsberg (1961). Suponha que existam duas urnas cada
uma com 60 bolas. A urna 1 contm 30 bolas azuis e 30 bolas verdes. Tudo que se sabe
sobre a urna 2 que ela contm bolas azuis e verdes, mas no se sabe a distribuio das
Campos, Rgo & Mendona

1.6. FUNDAMENTOS DE PROBABILIDADE

14

bolas. Considere que existem duas loteria com prmios baseados no sorteio de bolas dessas
urnas. Loteria L1 paga R$1.000,00 se uma bola azul for sorteada na urna 1, e R$0,00 caso
contrrio. Loteria L2 paga R$1.000,00 se uma bola azul for sorteada na urna 2, e R$0,00
caso contrrio. A maioria das pessoas quando questionada se prefere um bilhete da Loteria
L1 ou L2 prefere um bilhete da loteria L1 . Suponha agora que temos duas outras loterias L3
e L4 , onde a primeira paga R$1.000,00 somente se uma bola verde for sorteada da urna 1,
e a segunda para R$1.000,00 somente se uma bola verde for sorteada da urna 2. Tambm,
verificado que a maioria das pessoas que preferiram a loteria L1 loteria L2 preferem a
loteria L3 loteria L4 . Com estas preferncias, no possvel que o decisor possua uma nica
distribuio de probabilidade subjetiva sobre as cores das bolas na urna 2, pois a primeira
preferncia (L1 sobre L2 ) indica que o decisor considera que existam mais bolas verdes que
azuis na urna 2, e a segunda (L3 sobre L4 ) indica que o decisor considera que existam mais
bolas azuis que verdes na urna 2. Esse fenmeno conhecido na literatura como averso
a ambiguidade, e pode-se modelar a incerteza do decisor por um conjunto de medidas de
probabilidade ao invs de uma nica medida de probabilidade.

1.6.1

Hierarquia de Conceitos Estruturais de Probabilidade

A seguir apresenta-se uma variedade de conceitos estruturais e interpretaes de probabilidade que foram descritos em Fine (2005).
Possivelmente. Possivelmente A o conceito mais rudimentar e menos preciso, e o usado
pelos antigos Gregos para distinguir entre o que era necessrio e o que era contingente.
Existe um nmero de conceitos de possibilidade que incluem os seguintes:
possibilidade lgica, no sentido que no se contradiz logicamente; ou seja, no
possvel logicamente que algo ocorra e no ocorra simultaneamente.
possibilidade epistmica, segundo a qual a ocorrncia de A no contradiz o conhecimento, que inclui, mas estende mais que mera lgica; por exemplo, no
epistemicamente possvel que ocorra uma tempestade de neve em Recife.
possibilidade fsica, a ocorrncia de A compatvel com leis fsicas, contudo pode
ser extremamente improvvel por exemplo, uma moeda parando e ficando
equilibrada na borda em uma superfcie rgida;
possibilidade prtica, a noo do dia-a-dia segundo a qual A praticamente possvel
se ele tem pelo menos uma verossimilhana no to pequena de ocorrer.
Provavelmente. Provavelmente A um fortalecimento da noo de possibilidade significando mais que provvel que no provvel. Enquanto ela pode corresponder ao caso
que a probabilidade numrica de A seja maior que 1/2, este conceito no requer qualquer comprometimento com uma probabilidade numrica nem com o preciso estado de
conhecimento que uma probabilidade numrica requer.
Probabilidade Comparativa. A pelo menos to provvel quanto B. A probabilidade
comparativa inclui provavelmente A atravs de A pelo menos to provvel quanto
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

15

Ac . Pode ser relacionada com probabilidade numrica atravs de P (A) P (B); embora como nos dois exemplos anteriores, probabilidade comparativa no requer qualquer comprometimento com probabilidade numrica.
Probabilidade Intervalar. A tem probabilidade intervalar, ou probabilidade inferior e
superior (P (A), P (A)). Isto permite um grau de indeterminao varivel sem o comprometimento de que exista um verdadeiro valor no intervalo; alm dessa probabilidade intervalar, existe outra (Campos, 1997), baseada na matemtica intervalar
(Moore, 1966 e 1979) e na aritmtica de exatido mxima (Kulisch & Miranker, 1981),
a qual consiste de um intervalo fechado de nmeros reais, [P (A), P (A)] com a preciso
(Sterbenz, 1974) to pequena quanto possvel.
Probabilidade Numrica. A probabilidade de A o nmero real P (A). Este o conceito usual e ser o enfocado neste livro. Enquanto este conceito absorveu quase toda a
ateno de pessoas envolvidas com fenmenos de chance e incerteza e provou ser frutfero na prtica cientfica, este no o nico conceito utilizado em linguagem ordinria
e no raciocnio probabilstico do dia-a-dia.
De agora em diante o foco o conceito estrutural mais utilizado que a probabilidade
numrica.

1.6.2

Interpretaes de Probabilidade

Ainda segundo Fine (2006), parece no ser possvel reduzir probabilidade a outros conceitos;
ela uma noo em si mesma. O que pode ser feito relacionar probabilidade a outros
conceitos atravs de uma interpretao. Os cinco mais comuns grupos de interpretao para
probabilidade so os seguintes:
1. Lgica: grau de confirmao da hiptese de uma proposio que A ocorre dada uma
evidncia atravs da proposio que B ocorreu. Quando as evidncias, ou premissas,
so insuficientes para deduzir logicamente a hiptese ou concluso, pode-se ainda medir quantitativamente o grau de suporte que uma evidncia d a uma hiptese atravs
de probabilidade lgica. Por exemplo, um jurado tem de utilizar julgamento que envolvem probabilidades lgicas para condenar ou no um determinado ru baseado nas
evidncias disponveis.
2. Subjetiva: se refere ao grau de crena pessoal na ocorrncia do evento A e medida
atravs da interpretao comportamental de disposio a apostar ou agir. Por exemplo,
se um torcedor de futebol acredita que seu time tem mais de 50% de chance de ganhar
o campeonato, ele dever preferir um bilhete de loteria que lhe pague um prmio L se
seu time for campeo a um outro bilhete que lhe pague um prmio L obteno de
cara no lanamento de uma moeda honesta.
3. Frequentista: se refere ao limite da frequncia relativa de ocorrncia do evento A em
repetidas realizaes no relacionadas do experimento aleatrio E. Note que limites de
frequncia relativas so uma idealizao, pois no se pode realizar infinitas realizaes
de um experimento.
Campos, Rgo & Mendona

1.7. FREQUNCIA RELATIVA

16

4. Propensidade: tendncia, propensidade, ou disposio para um evento A ocorrer. Por


exemplo, consideraes de simetria, podem levar a concluso que um dado tem a mesma
propenso, ou tendncia, a cair em qualquer uma de suas faces.
5. Clssica: baseada em uma enumerao de casos igualmente provveis.
Neste livro adota-se a abordagem tradicional de interpretao de probabilidade, isto , a
frequentista.

1.7

Frequncia Relativa

Para discutir sobre a terceira dimenso do raciocnio probabilstico, isto , a associao de


uma medida numrica a eventos a qual representa a probabilidade com que eles ocorrem,
ser utilizada a interpretao frequentista para motivar os axiomas de Kolmogorov. Fixando
uma sequncia de resultados (i )iIN , se o interesse na ocorrncia de um dado evento
A, a frequncia relativa de A nada mas que uma mdia aritmtica da funo indicadora de
A calculada em cada um dos termos i , ou seja,
Definio 1.7.1: A frequncia relativa de um evento A, fn (A), determinada pela sequncia
de resultados (1 , . . . , n ) de n experimentos aleatrios,
n

fn (A) =

1X
Nn (A)
,
IA (i ) =
n i=1
n

sendo Nn (A) o nmero de ocorrncias de A nas n repeties do experimento aleatrio.


Propriedades da frequncia relativa so:
(i) fn : A IR.
(ii) fn (A) 0.
(iii) fn () = 1.
(iv) Se A e B so disjuntos, ento fn (A B) = fn (A) + fn (B).
(v) SePA1 , A2 , An , uma seqncia de eventos disjuntos dois a dois, ento fn (
i=1 Ai ) =

i=1 fn (Ai ).
No que se segue, supe-se que existe alguma base emprica, fsica ou sobrenatural, que
garanta que fn (A) P (A), embora que o sentido de convergncia quando n cresce s
ser explicado pela Lei dos Grandes Nmeros (estudada posteriormente). Esta tendncia da
frequncia relativa de estabilizar em um certo valor conhecida como regularidade estatstica.
Deste modo, dada a interpretao frequentista de probabilidade natural que P satisfaa
propriedades similares s (i)-(v).
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

1.8

17

Axiomas de Kolmogorov

Antes de um sistema computacional ou algoritmo ser analisado, vrias distribuies de probabilidade tm de ser analisadas. De onde vm essas distribuies? Como possvel avaliar
a vazo (throughput), tempo de resposta (response time), confiabilidade (reliability) e disponibilidade (availability) de um sistema de comunicao? Estas e outras perguntas esto
ligadas a problemas de avaliao de desempenho, a qual suportada, primordialmente, por
Probabilidade, Estatstica e Processos Estocsticos.
Questes de probabilidade em situaes prticas basicamente constituem-se, como seria
o esperado, em como calcular probabilidades. A onde a situao se complica. Se o
espao amostral finito e os resultados equiprovveis, pode-se usar a definio clssica e a
complicao consiste em contar, o que implica no uso de tcnicas de anlise combinatria,
que, no so fceis. Se o problema envolve volumes de slidos, possvel, em algumas
situaes, usar as chamadas probabilidades geomtricas e o problema est resolvido. Se o
espao amostral enumervel, conhecimentos sobre progresses geomtricas adquiridos no
segundo grau resolvem alguns problemas. Uma outra forma para calcular probabilidades
usar a frequncia relativa como sendo a probabilidade para um dado evento. Nesse caso
teramos que ter um grande nmero de observaes, mas, o que grande? Portanto
a construo axiomtica da teoria da probabilidade, abstrai o clculo de probabilidades de
casos particulares e nos prov de um mtodo formal para resolver problemas probabilsticos.
Os axiomas descritos a seguir no descrevem um nico modelo probabilstico, apenas determinam quais funes matemticas podem ser usadas para se descrever as probabilidades
envolvidas em um experimento qualquer. A partir dos axiomas pode-se utilizar mtodos
matemticos para encontrar propriedades que sero verdadeiras em qualquer modelo probabilstico. A escolha de um modelo especfico satisfazendo os axiomas feita pelo probabilista,
ou estatstico, familiar com o fenmeno aleatrio sendo modelado.
Os primeiros quatro axiomas de Kolmogorov so diretamente relacionados com as propriedades de frequncia relativa.
(K1) Inicial. O experimento aleatrio descrito pelo espao de probabilidade (, A, P )
que consiste do espao amostral , de uma -lgebra A, construda a partir de e de
uma funo de valores reais P : A IR.
(K2) No-negatividade. A A, P (A) 0.
(K3) Normalizao Unitria. P () = 1.
(K4) Aditividade Finita. Se A, B so disjuntos, ento P (A B) = P (A) + P (B).
fcil provar (tente!) utilizando induo matemtica que (K4) vlida para qualquer
coleo finita de eventos disjuntos
dois a dois, ou seja, se Ai Aj = , i 6= j, com i, j =
Pn
n
1 n, ento P (i=1 Ai ) = i=1 P (Ai ).
Um quinto axioma, embora no tenha significado em espaos amostrais finitos, foi proposto por Kolmogorov para garantir continuidade da medida probabilidade.
Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

18

(K5) Continuidade Monotnica. Se para todo n > 0, An+1 An e n An = , ento


lim P (An ) = 0.6

Um forma equivalente de (K5) a seguinte, que, conforme visto anteriormente, tambm


uma propriedade da frequncia relativa:
(K5)0 -aditividade. Se {An } uma coleo enumervel de eventos disjuntos dois a dois,
ento

P (An ).
P (n=1 An ) =
n=1

Teorema 1.8.1: Se P satisfaz (K1)(K4), ento P satisfaz (K5)0 se, e somente se, satisfaz
(K5).
Prova: Primeiro, ser provado que (K1)(K5) implicam o axioma da -aditividade (K5)0 .
Seja {Ai } qualquer sequncia enumervel de eventos disjuntos dois a dois, e defina para todo
n
Bn = i>n Ai ,
n

i=1 Ai = Bn (i=1 Ai ).

Claramente, para todo i n, tem-se que Ai e Bn so disjuntos. Por (K4), tem-se


P (
i=1 Ai ) = P (Bn ) +

n
X

P (Ai ).

i=1

Por definio de srie numrica,


lim
n

n
X
i=1

P (Ai ) =

P (Ai ).

i=1

(K5)0 segue-se se se mostrar que limn P (Bn ) = 0. Note que Bn+1 Bn , e que
n=1 Bn = .
Ento por (K5), o limite acima zero e K40 verdadeiro.
Agora, ser provado que (K1)(K4), (K5)0 implicam o axioma da continuidade monotnica (K5). Seja {Bn } qualquer coleo enumervel de eventos satisfazendo as hipteses do
axioma (K5): Bn+1 Bn e
n=1 Bn = . Definindo, An = Bn Bn+1 observa-se que {An }
uma coleo enumervel de eventos disjuntos dois a dois e que
Bn = jn Aj .
(K5) (ou equivalentemente (K5)0 ) uma idealizao que no aceita por alguns tratamentos subjetivistas
de probabilidade, em especial no aceita por uma escola de estatsticos liderados por deFinetti (1972).
Assumir apenas aditividade finita, embora parea mais plausvel, pode levar a complicaes inesperadas em
teoria estatstica. Portanto, neste livro, prossegue-se sob a suposio que o axioma da continuidade (K5)
vlido.
6

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

19

Ento, por (K5)0 ,


P (Bn ) = P (jn Aj ) =

P (Aj ).

jn

Como por (K5)0 ,

P (Aj ) = P (
j=1 Aj ) 1,

j=1

ento
lim P (Bn ) = lim
n

P (Aj ) = 0,

jn

logo (K5) verdadeiro.


Definio 1.8.2 :
probabilidade.

Uma funo que satisfaz (K1)(K5) chamada de uma medida de

A terna (, A, P ) chamada de espao de probabilidade. Intuitivamente quando se


modela uma problema atravs de probabilidade, basicamente, o que se faz especificar cada
uma das componentes da terna acima.
Eventos so os elementos de A, aos quais se pode atribuir probabilidade. Probabilidade
uma funo cujo argumento um conjunto. Portanto, no somente conjuntos, como tambm
as operaes sobre eles, tm uma importncia fundamental em teoria da probabilidade.
Entretanto, preciso que a linguagem de conjuntos seja traduzida para a linguagem de
probabilidade. A Tabela 1.1 exibe algumas dessas tradues. A idia subjacente que um
experimento aleatrio foi realizado e aconteceu algum evento.
Tabela 1.1: Interpretaes interessantes.

Ac ou A
AB
AB
n An
n An

1.8.1

conjunto universo
elemento
conjunto A
conjunto vazio
complemento de A
A interseco B
A unio B
interseco dos conjuntos An
unio dos conjuntos An

espao amostral, evento certo


evento elementar ou resultado do experimento
evento A
evento impossvel
no ocorreu o evento A
os eventos A e B ocorreram
os eventos A ou B ocorreram
todos os eventos An ocorreram
ao menos um dos eventos An ocorreu

Exemplos de Medidas de Probabilidade

Probabilidade clssica Assumindo que finito e que os resultados do experimento so


equiprovveis, A define-se a probabilidade clssica por
P (A) =

||A||
,
||||

(1.1)
Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

20

onde |||| o nmero de resultados possveis (nmero de elementos do espao amostral) e


||A|| o nmero de resultados favorveis a A (nmero de elementos de A) dentre o nmero de
resultados possveis. definido para qualquer subconjunto A de . O fato que 0 ||A|| ||||
e que
||A B|| = ||A|| + ||B|| ||A B||,
permitem verificar que P satisfaz os axiomas de Kolmogorov.
A definio pode ser aplicada apenas a uma classe limitada de problemas, isto , aqueles
onde possvel contar os elementos do espao amostral, , e do evento A. Nessa contagem
a tcnica usada Anlise Combinatria, que ser estudada com mais detalhes no prximo
captulo.
O exemplo a seguir 7 calcula probabilidades usando (1.1). Adicionalmente, a expresso
(1.2) mostra que, neste caso, existe uma frmula fechada,
logb (1 + 1/k),
para o clculo de
lim N (k)/N.

Exemplo 1.8.3 : Todo nmero real x unicamente representado na expanso b-dica


(Kulisch & Miranker, 1981)
x = dn dn1 . . . d1 d0 .d1 d2 . . . =

d i bi ,

i=n

onde {+, } o sinal do nmero, b a base da representao, b IN, b > 1, di ,


i = n, . . . , , so inteiros positivos tais que 0 di b 1 e di b 2 para infinitamente
muitos i.
Sejam a, b, k, n, N inteiros positivos tais que a, b, N 2, k = 1, , b 1, n = 1, , N.
Seja N (k) o nmero de vezes que k aparece como o primeiro dgito de {an }N
n=1 na base b.
Sabe-se que
lim N (k)/N = logb (1 + 1/k).
(1.2)
N

As Tabelas 1.2 e 1.3 apresentam resultados computacionais para k, N (k) e


P (k, N ) = N (k)/N,
que a distribuio de probabilidade clssica do primeiro dgito significativo, onde b = 10,
N = 102 , 103 , 104 , 105 a = 2, 3.

R. A. Mendoza e M. A. Campos, The Limit Probability Distribution of the First Digit of an , manuscrito
no publicado baseado em R. Raimi (1976) The first digit problem, Amer. Math. Monthly 83, pp 521-538.
7

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

21

Tabela 1.2: k, N (k) e P (k, N ) para 2n , n = 1, , N e N = 102 , 103 , 104 , 105 .


k
1
2
3
4
5
6
7
8
9

N (k) P (k, 102 )


30
0.30
17
0.17
13
0.13
10
0.10
7
0.07
7
0.07
6
0.06
5
0.05
6
0.05

N (k) P (k, 103 )


301
0.301
176
0.176
125
0.125
97
0.097
79
0.079
69
0.069
56
0.056
52
0.052
45
0.045

N (k) P (k, 104 )


3010
0.3010
1761
0.1761
1249
0.1249
970
0.0970
791
0.0791
670
0.0670
579
0.0579
512
0.0512
458
0.0458

N (k) P (k, 105 )


30103
0.30103
17611
0.17611
12492
0.12492
9692
0.09692
7919
0.07919
6695
0.06695
5797
0.05797
5116
0.05116
4576
0.04576

Tabela 1.3: k, N (k) e P (k, N ) para 3n , n = 1, , N e N = 102 , 103 , 104 , 105 .


k
1
2
3
4
5
6
7
8
9

N (k) P (k, 102 )


28
0.28
19
0.19
12
0.12
8
0.08
9
0.09
7
0.07
7
0.07
5
0.05
5
0.05

N (k) P (k, 103 )


300
0.300
177
0.177
123
0.123
98
0.098
79
0.079
66
0.066
59
0.059
52
0.052
46
0.046

N (k) P (k, 104 )


3007
0.3007
1764
0.1764
1247
0.1247
968
0.0968
792
0.0792
669
0.0669
582
0.0582
513
0.0513
458
0.0458

N (k) P (k, 105 )


30101
0.30101
17611
0.17611
12492
0.12492
9693
0.09693
7916
0.07916
6697
0.06697
5798
0.05798
5116
0.05116
4576
0.04576

A Tabela 1.4 exibe valores numricos aproximados para o resultado terico


logb (1 + 1/k),
quando a = 2 e N = 105 .

Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

22

Tabela 1.4: Valores para logb (1 + 1/k).


k
1
2
3
4
5
6
7
8
9

log10 (1 + 1/k)
0.30103
0.17609
0.12385
0.09691
0.07918
0.06818
0.05690
0.05115
0.04532

Probabilidade frequentista

nA
,
n n
onde nA o nmero de ocorrncias de A em n ensaios independentes do experimento (teoria
baseada na observao).
O problema quando da aplicao desta definio para calcular a probabilidade de um
evento : quando que n suficientemente grande, isto , quando que o experimento
aleatrio foi realizado um nmero suficientemente grande de vezes, para garantir que a
frequncia relativa do evento A P (A)? A resposta formal a esta pergunta ser respondida
no estudo de teoremas limite.
P (A) = lim

Exemplo 1.8.4: Simule o lanamento de uma moeda para constatar que quando uma
moeda lanada um nmero grande de vezes as probabilidades de cara e coroa tornam-se
aproximadamente as mesmas.
Probabilidade geomtrica. Considerando o espao amostral constitudo de objetos geomtricos tais como pontos, retas e planos, a obteno de probabilidades, nesse caso,
referenciada na literatura como problemas de probabilidade geomtrica. Portanto, dado um
certo evento A, nesse contexto, de modo geral,
P (A) =

m(A)
,
m()

desde que todas as medidas estejam bem definidas.


Por exemplo, suponha que um ponto seja escolhido aleatoriamente no quadrado 0 x
1, 0 y 1. Pode-se encontrar a probabilidade de que o ponto pertena regio limitada
pelas retas x 1/2 e x + y 1/3, atravs da razo entre a rea desta regio, que 1/2, pela
rea do quadrado 0 x 1, 0 y 1, que 1. Logo a probabilidade igual a 1/2.
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

23

Espao amostral enumervel. O nmero de elementos de finito, mas os eventos


elementares no so necessariamente equiprovveis. Seja
} um conjunto
Pn = {1 , 2 , . . . , nP
finito, e seja P ({i }) = pi , onde pi 0, i = 1, n e i=1 pi = 1, e P (A) = i A P ({i }).
Neste caso, tambm fcil verificar que P uma medida de probabilidade, verificando os
axiomas de Kolmogorov.

1.8.2

Propriedades de uma Medida Probabilidade

Teorema 1.8.5: Se P uma medida de probabilidade, ento


(i) P (Ac ) = 1 P (A).
(ii) P () = 0.
(iii) P (A) 1.
(iv) Monotonicidade. Se A B, ento P (A) P (B).
(v) A1 A2 P (A2 A1 ) = P (A2 ) P (A1 ).
(vi) P (A B) = P (A) + P (B) P (A B).
(vii) Princpio da Incluso-Excluso
P (ni=1 Ai ) =

P (Ai )

= + . . . + (1)

P (Ai Aj )

1i<jn
n1

P (A1 A2 . . . An ).

(viii) P (A B) max{P (A), P (B)} min{P (A), P (B)} P (A B).


(ix) Sejam A1 A2 . . ., tal que
n=1 An = A, ento limn P (An ) = P (A). (continuidade da probabilidade)
(x) Sejam A1 A2 . . ., tal que
n=1 An = A, ento limn P (An ) = P (A). (continuidade
da probabilidade)
Prova:
(i) Segue-se do fato que = A Ac , (K3), e (K4), pois
1 = P () = P (A) + P (Ac ).
(ii) c = , e por (i)
P () = 1 P () = 0.
(iii) 1 = P () = P (A) + P (Ac ) P (A), visto que P (Ac ) 0 por (K2).
Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

24

(iv) B = A (B A), onde A e B A so disjuntos. Ento (K4) implica que P (B) =


P (A) + P (B A). O resultado segue do fato que P (B A) 0 (K2).
(v)
A1 A2 A2 = A1 (A2 Ac1 ) P (A2 ) = P (A1 ) + P (A2 Ac1 ).
Como A2 Ac1 = A2 A1 , o resultado segue-se.
(vi) A B = A (B A), e A e B A so disjuntos, (K4) implica que P (A B) =
P (A) + P (B A); como B = (A B) (B A), onde A B e B A so disjuntos,
(K4) implica que P (B) = P (A B) + P (B A). Logo,
P (A B) = P (A) + P (B) P (A B).
(vii) Esta prova por induo. Seja B = A1 A2 . . . An1 . Logo, ni=1 Ai = B An , e
portanto, pela propriedade anterior,
P (ni=1 Ai ) = P (B) + P (An ) P (B An ).
Mas,
B An = (A1 A2 . . . An1 ) An
= (A1 An ) (A2 An ) . . . (An1 An ).
Logo,
P (B An ) = P (A1 An ) + . . . + P (An1 An )
= P ((A1 An ) (A2 An )) . . . + (1)n2 P (A1 A2 . . . An ).
Lembrando que P (B) = P (A1 A2 . . . An1 ), aplicando a hiptese indutiva e
realizando as simplificaes entre conjuntos, o resultado est provado.
No caso particular de n = 3, o princpio de incluso-excluso afirma que
P (A1 A2 A3 ) = P (A1 ) + P (A2 ) + P (A3 )
P (A1 A2 ) P (A1 A3 ) P (A2 A3 )
P (A1 A2 A3 ).
(viii) Sem perda de generalidade, sejam
P (A) = min{P (A), P (B)}
e
P (B) = max{P (A), P (B)}.
Como B A B P (B) P (A B)
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

25

P (A B) max{P (A), P (B)}.


Obviamente,
max{P (A), P (B)} min{P (A), P (B)}.
De A B A, tem-se que P (A B) P (A). Logo,
min{P (A), P (B)} P (A B).
(ix) Construindo uma sequncia, {Bn }, de elementos excludentes:
B1 = A1
B2 = A2 Ac1

Bn = An Acn1

Tem-se que:

n=1 An = A = n=1 Bn

e
An = nk=1 Bk .
Logo,

lim P (An ) =

lim P (nk=1 Bk )
n
P (
n=1 Bn )
P (
n=1 An )

=
=
= P (A).

(x) Como An An+1 , n 1, ento Acn Acn+1 . Do item anterior tem-se que
lim P (Acn ) = P ( Acn ) = P (Ac ).

Logo,
Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

26

lim P (An ) =

lim (1 P (Acn ))

= 1 lim P (Acn )
n

= 1 P (Ac )
= P (A).

A notao usada neste captulo a comumente encontrada nos livros de probabilidade.


Entretanto, fora do contexto de probabilidade, possvel, alis quase certo, encontrar notao
distinta. Por exemplo, em Russel & Norvig (1995) tem-se P (A B), P (A B) e P (A)
para P (A B), P (A B), P (Ac ).
Teorema 1.8.6: Probabilidade de Parties. Se {Ai } uma partio enumervel (ou
finita) de composta de conjuntos em A, ento para todo B A
X
P (B) =
P (B Ai ).
i

Prova: Como {Ai } uma partio, segue-se que


B = B = B (i Ai ) = i (B Ai ).
O resultado segue vem por (K5)0 .
Teorema 1.8.7: Desigualdade de Boole. Para n eventos arbitrrios {A1 , . . . , An }, a
desigualdade de Boole
n
X
P (ni=1 Ai )
P (Ai ).
i=1

Prova: Seja n = 2. Logo, P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) P (A1 ) + P (A2 )


porque P (A1 A2 ) 0. Usar induo para provar para n.
Corolrio 1.8.8: Para n eventos arbitrrios {A1 , . . . , An },
P (Ai )

n
X

P (Ai ) (n 1).

i=1

Prova: Utilizando a Lei de De Morgan e a desigualdade de Boole para os eventos {Ac1 , . . . , Acn },
P (ni=1 Aci )

=1

P (ni=1 Ai )

n
X
i=1

P (Aci )

n
X

(1 P (Ai )).

i=1

Logo,
P (i=1 nAi )

n
X

P (Ai ) (n 1).

i=1

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

27

Exemplo 1.8.9: Em um grupo de r pessoas qual a probabilidade de haver pelo menos


duas pessoas que completem aniversrio no mesmo dia, assumindo que a distribuio de
aniversrios uniforme ao longo do ano e desprezando a existncia de anos bissextos?
Soluo: Para determinar esta probabilidade a probabilidade usada a clssica. O nmero
de resultados possveis para os aniversrios de r pessoas 365r . O nmero de casos possveis
onde todas as pessoas fazem aniversrio em dias diferentes dado por 365 364
(365 (r 1)). Portanto, o nmero de casos possveis onde pelo menos duas pessoas fazem
aniversrio no mesmo dia a diferena entre o nmero total de aniversrios possveis e o
nmero de casos onde as pessoas tm aniversrios em datas diferentes, ou seja, igual a
365r 365 364 (365 (r 1)).
Logo, a probabilidade deste evento :
1

365 364 (365 (r 1))


.
365r

Para r = 23, essa probabilidade aproximadamente igual a 0.51. E para r = 50, 0.97.
Exemplo 1.8.10: Em uma loteria de N nmeros h um s prmio. Salvador compra n
(1 < n < N ) bilhetes para uma s extrao e Slvio compra n bilhetes, um para cada uma
de n extraes. Qual dos dois jogadores tm mais chance de ganhar algum prmio?
Soluo: A probabilidade de Salvador ganhar algum prmio Nn . O nmero total de n
extraes possveis N n . O nmero de casos onde Slvio no ganha qualquer prmio
(N 1)n , logo, o nmero de casos onde Slvio ganha algum prmio igual a N n (N 1)n .
n
.
Portanto, a probabilidade de Slvio ganhar algum prmio 1 (NN1)
n
n
,
Por induo prova-se que Salvador tem mais chance de ganhar, ou seja, Nn > 1 (NN1)
n
que equivale a
n
(N 1)n
>
1

.
Nn
N
Para n = 2:
(N 1)2
2
1
2
=
1

+
>
1

.
N2
N
N2
N
Suponha que para n = k,
(N 1)k
k
>1 .
k
N
N
Multiplicando esta expresso por

N 1
,
N

(N 1)k+1
N 1
k
1
k
k
k+1
>(
)(1 ) = 1

+ 2 >1
.
k+1
N
N
N
N
N
N
N

Exemplo 1.8.11: Doze pessoas so divididas em trs grupos de 4. Qual a probabilidade


de duas determinadas dessas pessoas ficarem no mesmo grupo?
Campos, Rgo & Mendona

1.8. AXIOMAS DE KOLMOGOROV

28

 8 4
Soluo: O nmero total de divises de doze pessoas em 3 grupos de 4 12
. Para
4
4 4
contar o nmero de casos favorveis ao evento, sabe-se que existem 3 opes de escolha sobre
em qual grupo as duas pessoas determinadas podem ficar. Das 10 pessoas restantes,
 tem de
10
se escolher maisduas
 para estarem neste grupo, o que pode ser resolvido de 2 maneiras
8 4
diferentes. E 4 4 so maneiras diferentes de dividir as outras 8 pessoas nos dois grupos
restantes. Portanto, a probabilidade de duas determinadas pessoas ficarem no mesmo grupo
:
 8 4
3 10
3
2
 4 4 = .
12 8 4
11
4
4 4

Exemplo 1.8.12: Suponha que numa sala esto n mes cada uma com um filho. Suponha
que duplas sejam formadas aleatoriamente, onde cada dupla contm uma me e um filho.
Qual a probabilidade de que pelo menos uma me forme uma dupla com seu prprio filho?
Soluo: Seja Ai o evento que a i-sima me forma dupla com seu filho. O objetivo
determinar
P (ni=1 Ai ).
Calculando esta probabilidade utilizando a frmula da incluso-excluso. Note que:
1
(n 1)!
= para todo i {1, 2, . . . , n}
n!
n
(n 2)!
1
P (Ai Aj ) =
=
para i 6= j
n!
n(n 1)
P (Ai ) =

e em geral, para um grupo I {1, 2, . . . , n} de mes,


P (iI Ai ) =
Como existem

n
||I||

(n ||I||)!
.
n!

grupos de mes com cardinalidade ||I||,


P (ni=1 Ai )
=

n
X
i=1

 
n
X
i+1 n (n i)!
=
(1)
n!
i
i=1

(1)i+1

1
i!

Note que quando n , esta probabilidade tende a 1 1e .


Exemplo 1.8.13: Demonstre que se P (Ai ) = 1 para i = 1, 2, . . ., ento P (
i=1 Ai ) = 1.
Soluo: Como P (AiP
) = 1, tem-se que P (Aci ) = 1 P (Ai ) = 0. Logo, pela desigualdade

c
c

c
de Boole, P (
i=1 Ai )
i=1 P (Ai ) = 0. Portanto, P (i=1 Ai ) = 0 e pela Lei de DeMorgan,

c c

c
i=1 Ai = (i=1 Ai ) , tem-se que P (i=1 Ai ) = 1 P (i=1 Ai ) = 1.
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

29

Exemplo 1.8.14: Demonstre: se A1 , A2 , . . . e B1 , B2 , . . . so eventos do mesmo espao de


probabilidade tais que P (An ) 1 e P (Bn ) p, ento P (An Bn ) p.
Soluo: Note que
P (An Bn ) = 1 P ((An Bn )c ) = 1 P (Acn Bnc )
1 P (Acn ) P (Bnc ) = P (An ) + P (Bn ) 1.

(1.1)

Como P (An ) + P (Bn ) 1 p, tem-se que lim inf P (An Bn ) p. Por outro lado, como
P (An Bn ) P (Bn ) e P (Bn ) p, tem-se que lim sup P (An Bn ) p. Portanto, lim P (An
Bn ) = p.

1.9

Aprendendo um pouco mais

Teorema 1.9.1: Se (An ) uma sequncia de suconjuntos de um conjunto tal que A1


A2 A3 . . ., ento lim An =
n=1 An .
Teorema 1.9.2: Se (An ) uma sequncia de suconjuntos de um conjunto tal que A1
A2 A3 . . ., ento lim An =
n=1 An .
Dado estes resultados, os itens (ix) e (x) do Teorema 1.8.5 nos permitem afirmar que
para sequncias monotnicas de eventos o limite da sequncia comuta com a probabilidade,
isto ,
P (lim An ) = lim P (An ).
Teorema 1.9.3: O conjunto dos nmeros reais no-enumervel.
Se o espao amostral for finito, toda lgebra uma -lgebra, pois s existe um nmero
finito de eventos distintos. Se o espao amostral for infinito, existem lgebras que no so
-lgebras, como mostra o exemplo seguinte.
Exemplo 1.9.4: Um conjunto co-finito se seu complementar for finito. A coleo de
conjuntos de nmeros reais finitos e co-finitos uma lgebra que no uma -lgebra.
Lema 1.9.5: Se A uma -lgebra, ento A
Prova: Como A no vazio, seja A um seu elemento qualquer. Pela segunda propriedade
de lgebras, tem-se que Ac A, e pela terceira, = A Ac A.
Teorema 1.9.6: Sejam A1 e A2 lgebras (-lgebras) de subconjuntos de e seja A =
A1 A2 a coleo de subconjuntos comuns s duas lgebras. Ento, A ma lgebra (lgebra).
Prova: Como A1 e A2 so lgebras, ambos contm . Ento, A. Se A A, ento A
est em ambos A1 e A2 . Logo, Ac est em ambos A1 e A2 , e portanto na sua interseco A.
Se A, B A, ento eles esto em ambos A1 e A2 . Consequentemente, A B est em ambos
A1 e A2 e, portanto, em A. Como A satisfaz as trs condies da definio de lgebra de
eventos, A uma lgebra de eventos. A prova no caso de -lgebras anloga.
Campos, Rgo & Mendona

1.9. APRENDENDO UM POUCO MAIS

30

Corolrio 1.9.7: Existe uma menor (no sentido de incluso) lgebra (-lgebra) contendo
qualquer famlia dada de subconjuntos de .
Prova: Seja C uma coleo qualquer de subconjuntos de . Defina A(C) como sendo o
conjunto que igual a interseco de todas as lgebras de eventos que contm C, isto :
\
A(C) =
A.
AC:A uma lgebra de eventos
Pelo Teorema 1.9.6, A(C) uma lgebra de eventos, e consequentemente a menor lgebra
de eventos contendo C. A prova no caso de -lgebras anloga.
Seja um conjunto no-vazio. Se for um espao topolgico, isto , contiver
conjuntos abertos, a nova -lgebra sobre a coleo dos abertos de denominada lgebra de Borel. Se = IR, esta -lgebra denotada por B. Os elementos de B so
chamados conjuntos de Borel, ou borelianos. Os conjuntos [x, y], (x, y] e [x, y) so conjuntos
de Borel, pois:
1
1
, y + ),
n
n
1
[x, y) =
, y),
n=1 (x
n
1
(x, y] =
).
n=1 (x, y +
n
A -lgebra de Borel B de subconjuntos de reais , por definio, a menor -lgebra
contendo todos os intervalos e a -lgebra usual quando se lida com quantidades reais
ou vetoriais. Em particular, tem-se que unies enumerveis de intervalos (por exemplo, o
conjunto dos nmeros racionais), seus complementos (por exemplo, o conjunto dos nmeros
irracionais), e muito mais esto em B. Para todos os fins prticos, pode-se considerar que B
contm todos os subconjuntos de reais que consegue-se descrever.
[x, y] =
n=1 (x

Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

1.10

31

Exerccios

1.1 (a) Uma caixa com 6 chips contm 2 defeituosos. Descreva um espao amostral para
cada uma das situaes abaixo:
(a1) Os chips so examinados um a um sem reposio at que um defeituoso seja
encontrado.
(a2) Os chips so examinados um a um sem reposio at que todos os defeituosos
sejam encontrados.
(b) Generalize o problema. Responda s mesmas questes anteriores, supondo que se
tem N chips na caixa, dos quais n < N so defeituosos.
1.2 Coloque V ou F nas sentenas abaixo:
(a) A = P (A) = 0.

( )

(b) P (A) = 0 A = .

( )

(c) A = P (A) = 0.

( )

(d) A B P (A) P (B).

( )

(e) A B P (A) P (B).

( )

(f ) A B P (A) P (B).

( )

(g) A e B excludentes P (A B) = P (A) + P (B).

( )

(h) A e B excludentes P (A B) = P (A)P (B).

( )

1.3 Professor Lenidas est tentando calcular a probabilidade p = P (A) do evento A, e


determinou que ela uma raiz do seguinte polinmio de grau cinco:

(p 3)(p 3 1)(p + 3 1)(p + 0.3)(p 0.3) = 0.


Baseado nesta fato, qual o valor de p?
1.4 Se = {a, b, c}, a lgebra A o conjunto das partes de e a medida de probabilidade
P parcialmente definida por
P ({a, b}) = 0.5, P ({b, c}) = 0.8, P ({a, c}) = 0.7,
ento complete a especificao de P para todos os eventos em A.
1.5 Se {Ai } for uma partio enumervel de e P (Ai ) = abi , i 1, quais as condies
que a e b devem satisfazer para que P seja uma medida de probabilidade?
1.6 As seguintes questes no esto relacionadas umas com as outras.
(a) Se IA IB for identicamente igual a zero, o que dizer a respeito da relao entre A
e B?
(b) Se A B c = B Ac , o que dizer a respeito da relao entre A e B?
Campos, Rgo & Mendona

1.10. EXERCCIOS

32

(c) Se IA2 + IB2 for identicamente igual a 1, o que concluir sobre A e B?


1.7 Determine se cada uma das afirmaes a seguir so verdadeiras ou falsas. Se a relao
for falsa, apresente um contra-exemplo. Se for verdadeira, prove-a.
(a) Se x A e A B, ento x B.
(b) Se A B e B C, ento A C.
(c) Se A 6 B e B C, ento A 6 C.
(d) Se A 6 B e B 6 C, ento A 6 C.
(e) Se x A e A 6 B, ento x
/ B.
(f ) Se A B e x
/ B, ento x
/ A.
1.8 Descreva um espao amostral para cada um dos experimentos abaixo.
(a) Strings de dgitos binrios so geradas at que pela primeira vez o mesmo resultado
aparea duas vezes em sucesso.
(b) Strings de dgitos binrios so geradas at que o dgito 1 aparea pela primeira
vez.
(c) Strings de 3 dgitos binrios so geradas. Observe as sequncias de zeros e uns.
(d) Conte o nmero de zeros em uma string de dgitos binrios com n dgitos.
1.9 Mostre que P (E F ) P (E) P (E F ) P (E) + P (F ).
1.10 Um ponto escolhido ao acaso sobre um quadrado unitrio. Determine a probabilidade
de que o ponto esteja no tringulo limitado por x = 0, y = 0 e x + y = 1.
1.11 Um ponto escolhido ao acaso sobre um disco unitrio. Determine a probabilidade de
que o ponto esteja no setor angular de 0 a /4.
1.12 Suponha que A, B e C sejam eventos tais que P (A) = P (B) = P (C) = 1/4, P (AB) =
P (B C) = 0 e P (A C) = 1/8. Calcule a probabilidade de que ao menos um dos
eventos A, B ou C ocorra.
1.13 Suponha a declarao if B then s1 else s2 e que o experimento aleatrio consista em
observar duas execues sucessivas desta declarao. Sejam os eventos
E1 = {pelo menos uma execuo de s1 }
e
E2 = {a declarao s2 executada pela primeira vez}.
(a) Exiba um espao amostral para o experimento.
(b) Calcule P (E1 ) e P (E2 ) supondo equiprobabilidade onde necessrio.
1.14 Distribuio de Nmeros Primos
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

33

(a) Considere os intervalos Ak = [10k, 10(k + 1)), k = 0 , 9. Sejam, n o total dos


primos em [0,100) e nk a frequncia deles em cada Ak . Seja pk = nnk . Calcule pk
e faa um grfico com os pontos (k, pk ), para k = 0 , 9.
(b) Repita todo o problema anterior com Ak = [100k, 100(k + 1)), k = 0 , 9, e n o
total dos primos em [0,1000).
(c) Agora com Ak = [1000k, 1000(k + 1)), k = 0 , 9, sendo n o total dos primos em
[0,10000).
(d) Os resultados que voc obteve, empiricamente, aceitam ou refutam a seguinte
afirmao: nmeros primos ocorrem menos frequentemente entre inteiros maiores
que entre inteiros menores.
(e) Seja (x) o nmero de primos menores que x IR, x > 0. De acordo com seus
clculos, qual afirmao abaixo voc aceita como sendo verdadeira?
(x) blog2 (log2 x)c + 1,
(x) blog2 (log2 (x)c + 1,
onde em (a) x = 100, em (b) x = 1000 e em (c) x = 10000.
1.15 Sejam A1 , A2 , , B1 , B2 , eventos aleatrios definidos no mesmo espao de probabilidade (, A, P ). Mostre que:
P
(a) P (nk=1 Ak ) 1 nk=1 P (Ack ).
(b) Se P (Ak ) 1 para k = 1, , n, ento P (nk=1 Ak ) 1 n.
(c) Se P (An ) = 0 para n = 1, 2, ento P (
n=1 An ) = 0.
1.16 Para
todo conjunto unidimensional A para o qual a integral existe seja P (A) =
R
f (x)dx, onde f (x) = 6x(1 x), 0 < x < 1 e zero para x 6 (0, 1). Se A1 =
A
{x | 41 < x < 34 } e A2 = {x | x = 12 }, calcule P (A1 ), P (A2 ), P (A1 A2 ), P (A1 A2 ).
1.17 Seja a probabilidade do evento A,
Z
P (A) =

ex dx, 0 < x < ,

e seja Ak = {x | 2 1/k < x 3}, k = 1, 2, . Mostre que limk P (Ak ) =


P (limk Ak ). Seja agora Ak = {x | 1/k 2 < x 3}, k = 1, 2, . Mostre que
limk P (Ak ) = P (limk Ak ).
1.18 Um poliedro com k faces, k > 3, rotuladas f1 , f2 , , fk atirado aleatoriamente em
um plano, sendo observada a face tangente ao mesmo.
(a) Descreva o espao amostral.
(b) Seja o evento A, a face voltada para baixo no excede o nmero k/2. Descreva A.
(c) Calcule P (A) para um icosaedro, dodecaedro e octaedro.
Campos, Rgo & Mendona

1.10. EXERCCIOS

34

1.19 Uma coleo de 100 programas foi checada com respeito a erros de sintaxe, S, erros
de entrada e sada, I, e outros tipos de erros, E. A quantidade de vezes que os erros
ocorreram foi: S, 20 vezes; I, 10 vezes; E, 5 vezes; S I, 6 vezes; S E, 3 vezes;
I E, 2 vezes; S I E, 1 vez. Um programa selecionado aleatoriamente. Calcule
a probabilidade de que este apresente
(a) S ou I;
(b) ao menos um tipo de erro.
1.20 Dois dados so lanados. Considere os eventos
A = {a soma dos pontos sobre as duas faces um nmero par},
B = {1 aparece em pelo menos um dos dados}.
Descreva os eventos: (a) A B; (b) A B; (c) A B.
1.21 Um alvo consiste de dez crculos concntricos com raios rk , k = 1, 2, . . . 10, onde r1 <
r2 < . . . r10 . O evento Ak indica um acerto no crculo de raio k. Descreva em palavras
os eventos B = 6k=1 Ak e C = 10
k=5 Ak .
1.22 Um experimento consiste em se retirar sem reposio 3 impressoras de um lote e testlas de acordo com alguma caracterstica de interesse. Assinale D, para impressora
defeituosa e B, para perfeita. Sejam os eventos:
A1 = {a 1a. impressora foi defeituosa},
A2 = {a 2a. impressora foi defeituosa},
A3 = {a 3a. impressora foi defeituosa}.
(a) Descreva o espao amostral.
(b) Liste todos os elementos de cada um dos seguintes eventos: A1 , A2 , A1 A2 ,
A2 A3 , A1 A2 A3 , A1 A2 A3 .
(c) Explique, em palavras, o significado dos eventos acima.
1.23 Seja A o evento pelo menos um entre trs itens checados defeituoso, e B o evento
todos os trs itens so bons. Descreva os eventos: (a) A B; (b) A B; (c) A; (d) B.
1.24 H trs edies diferentes cada uma contendo pelo menos trs volumes. Os eventos A,
B e C, respectivamente indicam que pelo menos um livro escolhido da primeira, da
segunda e da terceira edio. Sejam
As = {s volumes so escolhidos da primeira edio},
Bk = {k volumes so escolhidos da segunda edio}.
Qual o significado dos eventos: (a) A B C; (b) A B C; (c) A B3 ; (d) A2 B2 ;
(e) (A1 B3 ) (A3 B1 )?
Campos, Rgo & Mendona

CAPTULO 1. PROBABILIDADE: DEFINIES, PROPRIEDADES

35

1.25 Um nmero escolhido do conjunto dos nmeros naturais. Sejam


A = {o nmero escolhido divisvel por 5}
e
B = {o nmero escolhido termina por 0}.
Qual o significado dos eventos A B e A B?
1.26 Sejam A, B e C eventos e A B. Determine: (a) A B; (b) A B; (c) A B C;
(d) A B C.
1.27 Mostre que os seguintes eventos formam uma partio do espao amostral : A, A B
e A B.
1.28 Encontre uma condio sob a qual os eventos A B, A B e A B sejam mutuamente
exclusivos.
1.29 Suponha que uma instruo leva pelo menos 9 segundos para ser transmitida, processada e a resposta exibida no terminal. O experimento aleatrio consiste em mensurar
o tempo decorrido da operao completa. Descreva o espao amostral.
1.30 Uma moeda honesta lanada at que aparea o mesmo resultados duas vezes seguidas.
(a) Descreva o espao amostral.
(b) Encontre a probabilidade de que o experimento termine antes de 6 lanamentos.
(c) Encontre a probabilidade de que seja necessrio um nmero par de lanamentos
para que o experimento termine.
1.31 Um dado lanado duas vezes. Seja a o nmero de pontos obtidos no primeiro lanamento e b o nmero de pontos obtidos no segundo lanamento. Determine a probabilidade da equao ax b = 0 ter razes inteiras.

Campos, Rgo & Mendona

1.10. EXERCCIOS

36

Campos, Rgo & Mendona

Captulo 2
Mtodos de Contagem
2.1

Introduo

No captulo anterior foi visto que se = {1 , 2 , . . . , n } um conjunto finito, ento para


determinar a probabilidade de qualquer evento A suficiente especificar a probabilidade de
cada evento simples ou elementar {i }, ouPseja P ({i }) = pi . fcil
P ver que os axiomas de
Kolmogorov implicam que pi 0, i 1 e ni=1 pi = 1, e P (A) = i A P ({i }).
Para se determinar as probabilidades dos eventos simples hipteses adicionais so necessrias. Por exemplo, se em = {w1 , w2 , w3 }, {w1 } for 3 vezes mais provvel que {w2 , w3 },
e {w2 } for igualmente provvel a {w3 }, tem-se que p1 = 3(p2 + p3 ), p2 = p3 . Logo, como
p1 + p2 + p3 = 1 ento p3 = p2 = 81 , e p1 = 34 .
De acordo com a definio clssica de probabilidade onde o espao amostral finito e
os possveis resultados do experimento so equiprovveis, a probabilidade de qualquer evento
A A proporcional a sua cardinalidade, isto ,
P (A) =

||A||
.
||||

Portanto, fundamental contar a quantidade de elementos do evento de interesse quanto


do espao amostral.
Neste captulo sero estudados mtodos de contagem, tambm conhecidos como mtodos
de anlise combinatria. Embora conjuntos com poucos elementos possam ser contados
exaustivamente (fora-bruta), conjuntos com cardinalidade moderada podem ser difceis de
contar sem a utilizao dessas tcnicas matemticas.

2.2

Regra da Adio

Considere duas atividades 1 e 2 que podem ser realizadas de n1 e n2 maneiras distintas,


respectivamente. Alm disso, suponha que as atividades 1 e 2 sejam excludentes. Ento, o
nmero de maneiras pelas quais pode-se executar pelo menos uma das atividades n1 + n2 .
Generalizando, se existirem k atividades e a i-sima atividade puder ser realizada de
ni maneiras, i = 1, 2, . . . , k, ento, o nmero de maneiras pelas quais pode-se realizar pelo
37

2.3. REGRA DA MULTIPLICAO

38

menos uma das atividades dado por n1 + n2 + . . . + nk , supondo que as atividades sejam
excludentes.
Exemplo 2.2.1 : Seja o problema de escolher um caminho entre duas cidades A e B
dentre trs percurssos pelo interior e dois pelo litoral. Portanto existem 3 + 2 = 5 caminhos
disponveis para a viagem.

2.3

Regra da Multiplicao

Considere novamente as atividades 1 e 2 que podem ser realizadas de n1 e n2 maneiras,


respectivamente. Suponha tambm que cada maneira de executar 1 possa ser seguida por
qualquer maneira para executar 2. Ento, a atividade composta formada por 1 seguida de 2
poder ser executada de n1 n2 maneiras.
Generalizando, se existirem k atividades e a i-sima atividade puder ser executada de
ni maneiras, i = 1, 2, . . . , k, ento a atividade composta formada por 1, seguida por 2,. . . ,
seguida pela atividade k, poder ser executada de n1 n2 nk maneiras.
Exemplo 2.3.1: Quantos divisores inteiros e positivos possui o nmero 360? Quantos
desses divisores so pares? Quantos so mpares? Quantos so quadrados perfeitos?
Soluo: 360 = 23 32 5. Os divisores inteiros e positivos de 360 so os nmeros da forma
2a 3b 5c , onde a {0, 1, 2, 3}, b {0, 1, 2}, e c {0, 1}. Portanto, existem 4 3 2 = 24
maneiras de escolher os expoentes a, b, c. Logo h 24 divisores.
Para o divisor ser par, a no pode ser zero. Ento, existem 3 3 2 = 18 divisores pares.
Por outro lado, para o divisor ser mpar, a tem que ser zero. Logo, existem 1 3 2 = 6
divisores mpares. Por fim para o divisor ser quadrado perfeito os expoentes tm que ser
pares. Logo, existem 2 2 1 = 4 divisores quadrados perfeitos.
Exemplo 2.3.2: De quantos modos o nmero 720 pode ser decomposto em um produto
de dois inteiros positivos? E o nmero 144?
Soluo: 720 = 24 32 5. Os divisores inteiros e positivos de 720 so os nmeros da
forma: 2a 3b 5c , onde a {0, 1, 2, 3, 4}, b {0, 1, 2}, e c {0, 1}. Portanto, existem
5 3 2 = 30 maneiras de escolher os expoentes a, b, c. Logo h 30 divisores. Observe que
como 720 no um quadrado perfeito, para cada divisor x de 720 existe um outro divisor
y 6= x de 720 tal que x y = 720. Portanto, cada produto contm dois divisores diferentes
de 720. Como existem 30 divisores, existem 15 produtos diferentes.
144 = 24 32 . Seguindo o raciocnio anterior, tem-se 5 3 = 15 divisores de 144. Note
que 144 = 122 e este constitui um produto de inteiros positivos que igual a 144. Os demais
produtos contm dois inteiros positivos diferentes que so divisores de 144. Como existem
14 divisores de 144 diferentes de 12, ento existem 7 produtos envolvendo estes divisores.
Logo, tem-se um total de 8 produtos diferentes.
Exemplo 2.3.3: O conjunto A possui 4 elementos e, o conjunto B, 7. Quantas funes
f : A B existem? Quantas delas so injetoras?
Soluo: Para cada elemento de A tem-se 7 possveis valores diferentes. Como A contm 4
elementos, existem 7 7 7 7 = 74 funes diferentes. Recorde que uma funo injetora
Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

39

se f (a) 6= f (b) sempre que a 6= b. Portanto, o mesmo elemento de B no pode ser imagem
de dois elementos de A, logo existem 7 6 5 4 = 840 funes injetoras.
Exemplo 2.3.4: Em uma banca h 5 exemplares iguais da Veja, 6 exemplares iguais da
poca e 4 exemplares iguais da Isto . Quantas colees no-vazias de revistas dessa banca
podem ser formadas?
Soluo: Note que cada coleo de revistas vai ser composta por a revistas Veja, b revistas
poca e c revistas Isto , onde 0 a 5, 0 b 6, 0 c 4, e pelo menos 1 de a, b,
ou c diferente de zero. Ento, tem-se 6 7 5 1 = 210 1 = 209 diferentes colees
no-vazias dessas revistas.

2.4

Amostragem ou escolhas com ou sem reposio

Dado um conjunto com n elementos distintos, o nmero, n,r , de maneiras de selecionar


uma sequncia distinta de comprimento r escolhida desse conjunto com repetidas selees
do mesmo elemento sendo permitidas, amostragem com reposio, dado por nr , uma
vez que o mesmo procedimento repetido r vezes e cada procedimento tem n maneiras de
ser executado.
Exemplo 2.4.1 : Nmero de Sequncias Binrias ou Subconjuntos. O nmero
de sequncias binrias de comprimento r igual a 2r pois neste caso tem-se que para cada
posio i da sequncia, ni = 2. O nmero de subconjuntos de um dado conjunto A, ||A|| = r,
pode ser determinado enumerando A = {a1 , a2 , a3 , . . . , ar } e descrevendo cada subconjunto
B de A por uma sequncia binria
(b1 , b2 , . . . , br ),
onde bi = 1 se ai B e bi = 0, caso contrrio. Como existem 2r destas sequncias, ento
existem 2r subconjuntos de um conjunto de r elementos. Portanto, se ||A|| = r, o conjunto
das partes de A, possui 2r elementos, o que explica a notao exponencial do conjunto das
partes.

2.4.1

Arranjos

Dado um conjunto com n elementos distintos, o nmero (n)r de maneiras de selecionar uma
sequncia distinta de comprimento r escolhida desse conjunto com repetidas selees do
mesmo elemento no sendo permitidas, amostragem sem reposio, dado por
r1

Arn

Y
n!
= (n)r = n(n 1) . . . (n r + 1) =
=
(n i),
(n r)! i=0

desde que no primeiro procedimento (escolha do primeiro elemento da sequncia) tem-se n


maneiras de execut-lo, no segundo procedimento (escolha do segundo elemento da sequncia) tem-se n 1 maneiras de execut-lo, . . ., e no r-simo e ltimo procedimento (escolha
do r-simo elemento da sequncia) tem-se n r + 1 maneiras de execut-lo. Este nmero de
sequncias tambm chamado na literatura de arranjo quando tem-se n elementos distintos
e deseja-se escolher r deles onde a ordem de escolha importante.
Campos, Rgo & Mendona

2.4. AMOSTRAGEM OU ESCOLHAS COM OU SEM REPOSIO

2.4.2

40

Permutaes

Um caso particular de amostragem sem reposio quando o objetivo saber o nmero de


permutaes de um conjunto de n elementos distintos. Neste caso, r = n, e o nmero de
permutaes dado por
n! = (n)n = n(n 1) 1,
onde n! conhecida como funo fatorial.
Propriedades da funo fatorial incluem 0! = 1! = 1 e n! = n(n 1)!.
Pode-se provar (Robbins 1 (1955)) a seguinte desigualdade envolvendo a funo fatorial

2nn+ 2 en e 12n+1 < n! <

2nn+ 2 en e 12n .

1
Ento, se conveniente, n! pode ser aproximado por 2nn+ 2 en , onde esta ltima frmula
conhecida com frmula de Stirling.
Exemplo 2.4.2: Se A um conjunto de n elementos, quantas so as funes f : A A
injetoras?
Soluo: Tem-se que garantir que cada elemento de A tem uma imagem diferente. Como A
finito e tem n elementos, f tambm sobrejetora e, portanto, bijetora. Ento, o primeiro
elemento de A tem n opes, o segundo n 1 opes, at que o ltimo elemento de A tem
somente uma opo disponvel. Portanto, existem n! funes bijetoras f : A A.
Exemplo 2.4.3: De quantos modos possvel colocar r rapazes e m moas em fila de
modo que as moas permaneam juntas?
Soluo: Primeiro tem-se r + 1 opes de se escolher o lugar das moas. Em seguida, r!
maneiras de se escolher a posio dos rapazes entre si, e m! maneiras de se escolher a posio
das moas entre si. Portanto, tem-se (r + 1)r!m! modos diferentes de escolha.
Exemplo 2.4.4: Quantas so as permutaes simples dos nmeros 1, 2, . . . , 10 nas quais
o elemento que ocupa o lugar de ordem k, da esquerda para a direita, sempre maior que
k 3?
Soluo: Inicialmente escolhem-se os nmeros da direita para esquerda. Observe que o
nmero no lugar de ordem 10, tem que ser maior que 7, portanto existem 3 opes. O
nmero no lugar de ordem 9, tem que ser maior que 6, existem, portanto, 3 opes visto
que um dos nameros maiores que 6 j foi utilizado na ltima posio. De maneira similar
pode-se ver que existem 3 opes para os nmeros que ocupam do terceiro ao oitavo lugar.
O nmero no lugar de ordem 2, tem somente 2 opes, pois oito nmeros j foram escolhidos
anteriormente. Finalmente, resta apenas um nmero para o lugar de ordem n. Portanto,
existem 2 38 permutaes deste tipo.
Exemplo 2.4.5: Com oito bandeiras diferentes, quantos sinais feitos com trs bandeiras
diferentes se podem obter?
Soluo: Neste caso a ordem acarreta diferena e por isso tem-se (8)3 = 336 sinais.
1

H. Robbins, A Remark of Stirlings Formula, Amer. Math. Monthly, Vol. 62, No. 1, pp. 26-29, 1955.

Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

2.4.3

41

Combinaes

O nmero de colees no ordenadas de r elementos distintos escolhidos de um conjunto


universo de cardinalidade n dado pelo coeficiente binomial:
 
n
(n)r
Ar
n!
=
= n =
.
r
r!
r!
(n r)!r!
Para verificar isto, note que o nmero de colees ordenadas de tamanho r sem repetio
(n)r . Como os elementos de cada sequncia de comprimento r so distintos, o nmero de
permutaes de cada sequncia r!. Porm, utilizando a regra da multiplicao, o procedimento de se escolher uma coleo ordenada de r termos sem repetio igual a primeiro
escolher uma coleo no-ordenada de r termos sem repetio e depois escolher uma ordem
para esta coleo no-ordenada, ou seja,
 
n
r
An = (n)r =
r!,
r
de onde segue o resultado.
O coeficiente binomial tem as seguintes propriedades:
  

n
n
=
,
r
nr
 
n
= 1,
0
 
n
= n,
1
 
n
= 0, se n < r.
r
O coeficiente binomial tambm d o nmero de subconjuntos de tamanho r que podem
ser formados de um conjunto de n elementos. Como visto que o nmero total de subconjuntos
de um conjunto de tamanho n 2n , ento
n  
X
n
n
2 =
.
r
r=0

n
Os nmeros r so chamados de coeficientes binomiais porque eles aparecem como
coeficientes na expresso binomial (a + b)n . Se n for um inteiro positivo, (a + b)n =
(a + b)(a + b) (a + b). Quando a multiplicao tiver sido realizada, cada termo ser
formado de k elementos de a e de (n k) elementos de b, para k = 0, 1, 2, . . . , n. Mas,
quantos termos da forma ak bnk existiro? Simplesmente contado o nmero de maneiras
possveis de escolher k dentre os n elementos a, deixando de lado a ordem (onde o i-simo
elemento
a corresponde ao i-simo fator do produto acima). Mas isso justamente dado por

n
. Da obtm-se o que conhecido como o Teorema Binomial:
k
n  
X
n k nk
n
(a + b) =
a b .
k
k=0
Campos, Rgo & Mendona

2.4. AMOSTRAGEM OU ESCOLHAS COM OU SEM REPOSIO

42

Exemplo 2.4.6 : Dentre oito pessoas, quantas comisses de trs membros podem ser
escolhidas, desde que duas comisses sejam a mesma comisso se forem constitudas pelas
mesmas pessoas (no se levando em conta a ordem em que sejam escolhidas)?
Soluo: A resposta dada por 83 = 56 comisses possveis.
Exemplo 2.4.7 : Um grupo de oito pessoas formado de cinco homens e trs mulheres. Quantas comisses de trs pessoas podem ser constitudas, incluindo exatamente dois
homens?
Soluo: Aqui deve-se escolher dois
 homens (dentre cinco) e duas mulheres (dentre trs).
Portanto, o nmero procurado 52 31 = 30 comisses.
Exemplo 2.4.8: Quantas sequncias binrias de comprimento n contm no mximo trs
dgitos 1?
Soluo: Tem-se quatro casos possveis: todas as sequncias que no contm 1, todas as
que contm apenas um 1, todas as que contm dois
 dgitos 1 e todas as que contm trs
dgitos 1. Para 0 r n, existem exatamente nr sequncias binrias com r nmeros 1.
Portanto, pela regra da adio existem
       
n
n
n
n
+
+
+
0
1
2
3
sequncias binrias de comprimento n contendo no mximo trs nmeros 1.
Exemplo 2.4.9: Quantas sequncias de cara e coroa de comprimento n contm pelo menos
1 cara?
Soluo: Neste caso, apenas uma sequncia no contm qualquer cara (a sequncia que
contm apenas coroa). Como o nmero total de sequncias de cara e coroa de comprimento
n igual a 2n , ento 2n 1 sequncias de comprimento n contm pelo menos uma cara.
Exemplo 2.4.10: Determine o coeficiente de x3 no desenvolvimento de (x4 x1 )7 .
Soluo: O termo genrico do desenvolvimento
 
 
7
1 7k
4 k
7k 7
(x ) ( )
= (1)
x5k7 .
k
x
k
Portanto, tem-se
o termo x3 se 5k 7 = 3, o que implica que k = 2. Logo, o coeficiente de

x3 (1)5 72 = 21.
Portanto, de modo geral, problemas de escolhas podem ser postos da seguinte forma: temse n objetos, entre os quais r devem ser escolhidos. Seja N o nmero de eleies possveis.
N depende de como a seleo feita e do nmero de objetos selecionados. Segue-se a soluo
para cada tipo de escolha.
(a) A ordem dos elementos relevante.
Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

43

(a1) Se r = n e a escolha dos objetos for sem reposio,


N = n!,
isto , tem-se a permutao dos n objetos.
(a2) Se r < n e a escolha dos objetos for sem reposio,
N = Arn .
Neste caso tem-se arranjo dos n elementos tomados r a r.
(a3) Se r = n, r < n ou r > n e a escolha dos r objetos dentre os n for com reposio,
N = nr .
(b) A ordem dos elementos irrelevante. Neste caso, se r < n e os elementos diferem na
sua natureza,
 
n
N =
.
r

2.5

Aplicaes em Grafos

Grafos so modelos matemticos utilizados para analisar a conectividade de redes. Nesta


seo so descritas propriedades de grafos ilustrando uma aplicao das tcnicas de contagem
que foram estudadas.

2.5.1

Grafos No Direcionados

Definio 2.5.1: Um grafo no direcionado = (V, E) definido por um conjunto V de


elementos chamados ns ou vrtices e um conjunto E {{u, v} : u, v V }} de pares no
ordenados de ns que so chamados de bordas ou arestas.
Um grafo no direcionado que contm n vrtices ser denotado por n .
A aresta {u, v} vista como conectando os vrtices u e v os quais so chamados de
vizinhos ou adjacentes. A aresta que conecta um n a ele mesmo chamada de lao. Note
que o grafo chamado de no direcionado porque a propriedade de adjacncia simtrica2 .
Por exemplo, considere um grafo utilizado para descrever as amizades em sites de redes
sociais. Como a relao de amizade entre as pessoas simtrica, necessrio um grafo no
direcionado para model-la nesses sites.
No que se segue, apenas so considerados grafos que no tm laos.
Exemplo 2.5.2: Nmero de grafos no direcionados com n vrtices. Qual o nmero
n de grafos no direcionados com um conjunto V de n vrtices? Qual o nmero n,m de
grafos no direcionados com um conjunto V de n de vrtices e um conjunto E de m arestas?
2

Lembre-se, = simtrica porque a = b b = a.

Campos, Rgo & Mendona

2.5. APLICAES EM GRAFOS

44

Soluo: Note que o nmero de arestas o nmero possvel de maneiras de escolher pares de
de vrtices de V (a ordem dos vrtices no relevante pois o grafo no direcionado). Ento,
tem-se n2 possveis arestas em um grafo. Cada grafo corresponde a um subconjunto do
conjunto de todas as arestas. Como existem 2r subconjuntos de um conjunto de r elementos,
ento existem
n
= 2( 2 )
n

grafos no direcionados com n vrtices.



Como existem n2 possveis arestas, ento existem
 n
n,m =

grafos no direcionados com n vrtices e m arestas.

2.5.2

Grafos Direcionados

Enquanto algumas conexes so simtricas, outras no so. Por exemplo, considere um


grafo utilizado para descrever que contas do Twitter so seguidas umas das outras; como as
relaes neste caso so no simtricas, necessrio um grafo direcionado para model-las.
Definio 2.5.3: Um grafo direcionado = (V, E) um conjunto V de vrtices e um
conjunto E {(u, v) : u, v V } = V V de pares ordenados de vrtices que definem
arestas direcionadas que conectam u a v, mas no necessariamente o contrrio.
Exemplo 2.5.4: Quantos grafos direcionados sem laos existem com um conjunto V de
n vrtices? Qual o nmero de grafos direcionados com um conjunto V de n vrtices e um
conjunto E de m arestas?
Soluo. Como existem n(n 1) pares ordenados de vrtices sem repetio, ento o nmero
total de possveis arestas do grafo n(n 1). Cada grafo corresponde a um subconjunto do
conjunto de todas as arestas. Ento, existem
n = 2n(n1)
grafos direcionados com n vrtices.
Como existem n(n 1) possveis arestas, ento existem


n(n 1)
m
grafos direcionados com n vrtices e m arestas.
Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

2.6

45

Contagem Multinomial ou Permutao com Elementos Repetidos

Considere r tipos de elementos e ni cpias indistinguveis do elemento do tipo i. Por exemplo,


a palavra probabilidade tem duas cpias de cada uma das letras a,b,d,i e uma cpiaPde cada
uma das letras l,p,r,o,e. O nmero de sequncias ordenadas de comprimento n = ri=1 ni
dado por
 


n
n n1
n n1 n2
n!
.
1 = Qr
n1
n2
n3
i=1 ni !
Esta quantidade conhecida como coeficiente multinomial e denotada por


n
,
n1 n2 . . . n r
P
onde n = ri=1 ni .
Para verificar esta contagem, note que das n posies na sequncia de comprimento
n,

pode-se escolher n1 posies para os n1 elementos indistinguveis do tipo 1 de nn1 maneiras;
das n n1 posies
 restantes na sequncia, n2 posies para os n2 elementos indistinguveis
nn1
do tipo 2 de n2 maneiras. Finalmente, aps repetir este processo r 1 vezes, restam nr
posies na sequncia para os nr elementos do tipo r, que s podem ser escolhidas de uma
nica maneira. Utilizando o mtodo da multiplicao, o nmero total de sequncias possveis
produto do nmero de maneiras onde os r tipos de elementos podem ser colocados.
O coeficiente multinomial tambm calcula o nmero de parties de um conjunto n elementos em r subconjuntos com tamanhos dados n1 , n2 , . . . , nr . Aplicando-se o mesmo argumento usado para demonstrar o Teorema Binomial, pode-se provar a seguinte generalizao
conhecida como Teorema Multinomial:
P
n j<r1 ij 
Y
ni
n
r
1
XX
X
n
n
(x1 + x2 + . . . + xr ) =
xikk ,

i
i
.
.
.
i
1 2
r
i =0 i =0
i
=0
k=1
1

onde ir = n

r1

j<r ij .

Exemplo 2.6.1: Um monitor tendo resoluo de n = 1.280 854 pixels,


 com r = 3 cores
n
possveis (verde, azul, e vermelho) para cada pixel, pode mostrar i1 i2 i3 imagens tendo i1
pixels verdes, i2 pixels azuis, e i3 pixels vermelhos. O nmero total de imagens que pode ser
exibida por este monitor para qualquer composio de cores de ver, azul, e vermelho pode
ser obtido utilizando o Teorema Multinomial fazendo x1 = x2 = x3 = 1, dando o resultado
de 3n possveis imagens.
Exemplo 2.6.2: Determine o coeficiente de x9 y 4 no desenvolvimento de (x3 + 2y 2 + x52 )5 .
Soluo: O termo genrico do desenvolvimento


5
5
(x3 )i1 (2y 2 )i2 ( 2 )5i1 i2 =
i1 i2 5 i1 i2
x


5
(2)i2 (5)5i1 i2
x3i1 10+2i1 +2i2 y 2i2 .
(2.1)
i1 i2 5 i1 i2
Campos, Rgo & Mendona

2.6. CONTAGEM MULTINOMIAL OU PERMUTAO COM ELEMENTOS


REPETIDOS
46
9 4
Portanto, tem-se o termo x y se 5i1 + 2i2 10 = 9 e 2i2 = 4, o que implica que i2 = 2 e
i1 = 3. Logo, o coeficiente de x9 y 4 (2)2 (5)0 3 25 0 = 40.

Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

2.7

47

Exerccios

2.1 Sabe-se que a senha pertencente a um sistema do Centro de Informtica-CIn/UFPE


possui 8 caracteres. Cada caracter pode ser qualquer letra (maisculas so diferentes de
minsculas), nmero ou caracter especial, somando ao todo 256 caracteres diferentes,
o que corresponde aos caracteres da tabela ASC. Com base nessas informaes calcule:
(a) Quantas senhas diferentes o sistema aceita?
(b) Quantas senhas diferentes podemos formar comeando com a letra a?
(c) Quantas senhas diferentes contendo o nmero 1 podemos formar?
(d) Quantas senhas diferentes podemos ter sem repetir nenhum caracter?
(e) Quantas senhas diferentes sem caracteres repetidos possuem a letra B ou possuem
o nmero 1 ou ambos?
(f ) Desafio: Quantas senhas diferentes possuem a letra Z vindo antes o caracter {?
Observao: vindo antes no significa imediatamente antes. (proposto por Gustavo S. Ferreira)
2.2 O cdigo gentico especifica um aminocido atravs de uma sequncia de trs nucleotdeos. Cada nucleotdeo pode ser de um dos quatro tipos T , A, C e G, sendo permitidas
repeties. Quantos aminocidos podem ser codificados dessa maneira?
2.3 O cdigo Morse consiste de uma sequncia de pontos e traos em que repeties so
permitidas.
(a) Quantas letras se pode codificar usando exatamente n smbolos?
(b) Qual o nmero de letras que se pode codificar usando n ou menos smbolos?
2.4 Um domin um bloco retangular dividido em dois sub-retngulos. Cada sub-retngulo
possui um nmero. Sejam x e y esses nmeros (no necessariamente distintos). Como
o bloco simtrico, o domin (x, y) igual ao domin (y, x). Quantos blocos diferentes
de domin se pode fazer usando n nmeros diferentes?
2.5 Um homem possui n chaves das quais, exatamente uma abre a fechadura. Ele experimenta as chaves uma de cada vez, escolhendo ao acaso em cada tentativa uma das
chaves que no foi experimentada. Determine a probabilidade de que ele escolha a
chave correta na r-sima tentativa.
2.6 Uma caixa contm 40 fusveis bons e 10 defeituosos. Suponha que se selecionam 10
fusveis. Qual a probabilidade de que todos eles estejam bons?
2.7 Um nibus parte com 6 pessoas e pra em 10 pontos diferentes. Supondo que os
passageiros tm igual probabilidade de descer em qualquer parada, determine a probabilidade de que dois passageiros no desembarquem na mesma parada.
Campos, Rgo & Mendona

2.7. EXERCCIOS

48

2.8 Uma caixa contm 10 bolas numeradas de 1 a 10. Seleciona-se uma amostra aleatria
de 3 elementos. Determine a probabilidade de que as bolas 1 e 6 estejam entre as bolas
selecionadas.
2.9 Uma caixa contm b bolas pretas e r bolas vermelhas. Bolas so extradas sem reposio, uma de cada vez. Determine a probabilidade de se obter a primeira bola preta
na n-sima extrao.
2.10 Suponha que se extrai uma amostra de tamanho n de uma populao de r elementos. Determine a probabilidade de que nenhum de k elementos especficos estejam na
amostra se o mtodo utilizado
(a) amostragem sem reposio;
(b) amostragem com reposio.
2.11 Uma secretria descuidadamente coloca ao acaso n cartas em n envelopes. Determine
a probabilidade de que ao menos uma carta chegue ao seu destino.
2.12 Se voc possui 3 bilhetes de uma loteria para a qual se vendeu n bilhetes e existem 5
prmios, qual a probabilidade de voc ganhar pelo menos um prmio?
2.13 M mensagens so enviadas aleatoriamente atravs de N canais de comunicao, N >
M . Encontre a probabilidade do evento
A = {no mais que uma mensagem seja enviada atravs de cada canal}.
2.14 Qual a probabilidade de que os nascimentos de 12 pessoas caiam nos 12 diferentes
meses do ano (assumindo igual probabilidade para os nascimentos nos 12 meses)?
2.15 Dez livros so colocados aleatoriamente em uma prateleira. Encontre a probabilidade
de que:
(a) trs particulares livros estejam sempre juntos;
(b) k particulares livros estejam sempre juntos, 2 < k < 10.
2.16 Um conjunto de 4 chips de circuito integrado constitudo de 2 perfeitos e 2 defeituosos.
Se 3 chips so selecionados aleatoriamente do grupo, qual a probabilidade do evento
dois entre os 3 selecionados so defeituosos.
2.17 Calcule a probabilidade de que algum nmero decimal com k dgitos escolhido aleatoriamente seja um nmero vlido de k dgitos na base octal.
2.18 Suponha o alfabeto com 26 letras. Calcule a probabilidade de que no haja letras
repetidas entre todas as seqncias com 3 letras.
2.19 Se uma caixa contm 75 chips de circuito integrado perfeitos e 25 defeituosos, e so
selecionados aleatoriamente 12, calcule a probabilidade de que pelo menos um dentre
os selecionados seja defeituoso.
Campos, Rgo & Mendona

CAPTULO 2. MTODOS DE CONTAGEM

49

2.20 Um professor faz 3 cartas de recomendao para 3 alunos. Entretanto, no momento de


entregar as cartas, ao invs de entregar cada carta ao seu respectivo dono, o professor
as entrega aleatoriamente.
(a) Qual a probabilidade de que ao menos um aluno tenha recebido a carta correta?
(b) Generalize o problema para n cartas.
2.21 Em um conjunto de 5 pessoas, compute a probabilidade de que pelos menos 2 faam
aniversrio no mesmo dia, assumindo que o ano tem 365 dias.
2.22 De uma caixa com etiquetas numeradas de 1 a 10, retiram-se duas ao acaso, com
reposio. Determine a probabilidade de que os nmeros nas etiquetas difiram por 2.
2.23 No Brasil, a placa dos automveis uma string, na qual os 3 primeiros elementos so
letras escolhidas dentre as 26, e, os 4 ltimos, dgitos na base decimal.
(a) Qual o nmero mximo de automveis que podem ser emplacados neste sistema?
(b) Qual a probabilidade de que uma placa seja iniciada pela letra K?
2.24 Uma caixa contm bolas numeradas de 1 at n.
(a) Todas as bolas so retiradas da caixa aleatoriamente uma a uma.
(a1) Descreva o espao amostral.
(a2) Encontre a probabilidade de que os nmeros selecionados sejam inteiros
consecutivos em ordem crescente.
(b) Suponha a mesma caixa, com as mesmas bolas, mas agora a bola retirada, seu
nmero anotado e reposta na urna antes da retirada seguinte. Responda os
itens (a1) e (a2).
2.25 M cartes de Natal so distribudos aleatoriamente para N pessoas, N > M . Encontre
a probabilidade de que no mais que um carto de Natal seja enviado para cada pessoa.
2.26 Os nmeros 1, 2, , n so escritos de forma aleatria. Encontre a probabilidade de
que os dgitos
(a) 1 e 2,
(b) 1, 2 e 3,
apaream como vizinhos nessa ordem.
(c) Repita os itens (a) e (b) considerando apenas a condio de vizinhos.
2.27 (a) Suponha que os trs dgitos 1, 2 e 3 sejam escritos em ordem aleatria. Qual a
probabilidade de que ao menos um dgito ocupe seu lugar prprio?
(b) O mesmo que em (a) com os dgitos 1, 2, 3, e 4.
(c) O mesmo que em (a) com os dgitos 1, 2, , n.
Campos, Rgo & Mendona

2.7. EXERCCIOS

50

(d) Examine a resposta em (c) quando n for grande.


2.28 Suponha que de N objetos, n < N sejam escolhidos ao acaso, com reposio. Qual
ser a probabilidade de que nenhum objeto seja escolhido mais do que uma vez?
2.29 Uma caixa contm etiquetas numeradas de 1, 2, , n. Duas etiquetas so escolhidas
ao acaso. Determine a probabilidade de que os nmeros das etiquetas sejam inteiros
consecutivos se:
(a) as etiquetas forem escolhidas sem reposio;
(b) as etiquetas forem escolhidas com reposio.
2.30 Dentre os nmeros 0, 1, , 9 so escolhidos ao acaso r nmeros (0 < r < 10), com
reposio. Qual a probabilidade de que no ocorram dois nmeros iguais?
2.31 Dois nmeros so selecionados aleatoriamente entre os nmeros 1, 2, . . . , n. Qual a
probabilidade de que a diferena entre o primeiro e o segundo nmeros escolhidos no
seja menor que m (m > 0).
2.32 Seja um alfabeto com 26 smbolos distintos a, b, , z. Considere como experimento
aleatrio a formao de strings de 3 smbolos, podendo os smbolos serem iguais.
(a) Descreva um espao amostral para este experimento.
(b) Qual a probabilidade de que uma string escolhida ao acaso dentre todas no
tenha elementos repetidos?
2.33 Um lote contm n peas das quais se sabe serem r defeituosas. Se a ordem da inspeo
das peas se fizer ao acaso, qual a probabilidade de que a pea inspecionada em k-simo
lugar, k r, seja a ltima pea defeituosa contida no lote?
2.34 Em um conjunto de N itens, M esto com defeito. So tomados n itens para inspeo.
Se m ou mais itens dessa amostra so defeituosos, o conjunto todo rejeitado. Encontre
a probabilidade de que isto acontea.

Campos, Rgo & Mendona

Captulo 3
Probabilidade Condicional.
Independncia
3.1

Probabilidade Condicional

Neste captulo tem-se duas definies de suma importncia, tanto para Probabilidade e
Processos Estocsticos quanto para Estatstica, que so as definies de probabilidade condicional e eventos independentes. A importncia e nfase no conceito de independncia ficar
evidente quando voc aluno descobrir como essa palavra aparecer repetidas vezes, especialmente no contexto de varivel aleatria, ou vetores aleatrios, mais para frente. Se se tem
independncia, problemas, de modo geral, so resolvidos facilmente. Caso contrrio, so
estudos de caso.
Como visto no Captulo 1, existem vrias possveis interpretaes de probabilidade. Por
exemplo, pode-se interpretar probabilidade de um evento A como um limite das frequncias
relativas de ocorrncia do evento A em realizaes independentes de um experimento. Por
outro lado, a interpretao subjetiva de probabilidade associa a probabilidade de um evento
A com o grau de crena pessoal que o evento A ocorrer. Em ambos os casos, probabilidade
baseada em informao e conhecimento. Reviso desta base de informao ou conhecimento pode levar a reviso do valor da probabilidade. Em particular, conhecimento que
determinado evento ocorreu pode influenciar na probabilidade dos demais eventos.
Considerando-se a interpretao frequentista de probabilidade, suponha que o interesse
seja saber qual a probabilidade do evento A, visto que sabe-se que o evento B ocorreu.
Suponha que se realizasse um experimento n vezes das quais o evento A (respectivamente,
B e A B) ocorre nA (respectivamente, nB > 0 e nAB 0) vezes. Seja fn (A) = nA /n a
frequncia relativa do evento A nas n realizaes do experimento. A probabilidade condicional de A dado que sabe-se que B ocorreu segundo esta interpretao frequentista, sugere que
ela deve ser igual ao limite das frequncias relativas condicionais do evento A dado o evento
B, isto , deve ser o limite da razo nAB /nB quando n tende ao infinito. fcil provar que
esta razo igual a fn (A B)/fn (B), que por sua vez segundo a interpretao frequentista
de probabilidade aproximadamente igual a P (A B)/P (B) para valores grandes de n.
Considerando-se uma interpretao subjetiva, suponha que a incerteza de um agente
descrita por uma probabilidade P em (, A) e que o agente observa ou fica sabendo que
51

3.1. PROBABILIDADE CONDICIONAL

52

o evento B ocorreu. Como o agente deve atualizar sua probabilidade P (|B) de modo a
incorporar esta nova informao? Claramente, se o agente acredita que B verdadeiro,
ento parece razovel requerer que
P (B c |B) = 0.

(3.1)

Em relao aos eventos contidos em B, razovel assumir que sua chance relativa permanea inalterada se tudo que o agente descobriu foi que o evento B ocorreu, ou seja, se
A1 , A2 B com P (A2 ) > 0, ento
P (A1 )
P (A1 |B)
=
.
P (A2 )
P (A2 |B)

(3.2)

Segue que (3.1) e (3.2) determinam completamente P (|B) se P (B) > 0.


Teorema 3.1.1: Se P (B > 0) e P (|B) uma medida de probabilidade em que satisfaz
(3.1) e (3.2), ento
P (A B)
.
P (A|B) =
P (B)
Prova: Como P (|B) uma medida de probabilidade e satisfaz P (B c |B) = 0, ento
(A)
P (B|B) = 1 P (B c |B) = 1. Considerando A1 = A e A2 = B em (3.2), logo P (A|B) = PP (B)
para A B. Se A no um subconjunto de B, tem-se que A = (A B) (A B c ). Como
(A B) e (A B c ) so eventos disjuntos, P (A|B) = P (A B|B) + P (A B c |B). Como
A B c B c e P (B c |B) = 0, ento P (A B c |B) = 0. Como A B B, usando o caso
anterior
P (A B)
.
P (A|B) = P (A B|B) =
P (B)

Deste modo as interpretaes frequentista e subjetivista de probabilidade justificam a


seguinte definio.
Definio 3.1.2: Seja (, A, P ) um espao de probabilidade. Se A, B A e P (B) > 0 a
probabilidade condicional de A dado B definida por
P (A|B) =

P (A B)
.
P (B)

Para um evento fixo B que satisfaz P (B) > 0, P (|B) satisfaz aos axiomas K1-K4 (Captulo 1) e realmente uma medida de probabilidade. Para provar K2, note que para todo
A A, como P (A B) 0,
P (A|B) =

P (A B)
0.
P (B)
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

53

Para provar K3, como B = B, ento


P (|B) =

P ( B)
P (B)
=
= 1.
P (B)
P (B)

Finalmente, para provar (K5)0 (que implica K4), se A1 , A2 , . . . so mutuamente exclusivos


A1 B, A2 B, . . . tambm o so, ento
P ((i Ai ) B)
P (B)
P (i (Ai B))
=
P (B)
P
i P (Ai B)
=
P (B)
X
=
P (Ai |B).

P (i Ai |B) =

Logo, para um dado evento B fixo, tal que P (B) > 0, tem-se que P (|B) satisfaz todas
as propriedades de uma probabilidade incondicional vistas no Captulo 1.
A probabilidade condicional tambm satisfaz s seguintes propriedades facilmente provveis:
(i) P (B|B) = 1.
(ii) P (A|B) = P (A B|B).
(iii) Se A B, ento P (A|B) = 1.
(iv) P (A B|C) = P (A|B C)P (B|C).
(v) Fazendo C = na propriedade (iv) acima,
P (A B) = P (A|B)P (B).
Utilizando induo matemtica, pode-se facilmente provar que
P (A1 A2 . . . An ) = P (A1 )P (A2 |A1 ) . . . P (An |A1 . . . An1 ).
Exemplo 3.1.3: Suponha uma turma com 30 alunos dos quais 5 so mulheres e o restante
homens. 4 alunos saem da sala de aula sucessivamente. Qual a probabilidade de que sejam
2 mulheres e 2 homens, nessa ordem?
Soluo: Sejam os eventos:
M1 = {o primeiro a sair mulher},
M2 = {o segundo a sair mulher},
Campos, Rgo & Mendona

3.1. PROBABILIDADE CONDICIONAL

54

H3 = {o terceiro a sair homem},


H4 = {o quarto a sair homem}.
Portanto, a probabilidade pedida :

P (M1 M2 H3 H4 ) = P (M1 )P (M2 |M1 ) . . . P (H4 |M1 M2 H3 ) =

5 4 25 24
100
=
.
30 29 28 27
5481

Um mtodo de se obter uma probabilidade (incondicional) de uma probabilidade condicional utilizando o Teorema da Probabilidade Total.
Teorema 3.1.4:
todo A A

Seja a sequncia de eventos B1 , B2 , . . . uma partio de . ento para


X
P (A) =
P (A|Bi )P (Bi ).
i:P (Bi )6=0

Prova:
Como B1 , B2 , . . . uma partio de ,
A = A = A (i Bi ) = i (A Bi ).
Como os eventos Bi s so mutuamente exclusivos, os eventos (A Bi )s tambm so
mutuamente exclusivos. Ento o axioma (K5)0 implica que
P (A) = P (i (A Bi ))
X
=
P (A Bi )
i

P (A Bi )

i:P (Bi )6=0

P (A|Bi )P (Bi ).

i:P (Bi )6=0

Se os eventos da partio B1 , B2 , . . . so interpretados como possveis causas e o evento


A corresponda a um efeito particular associado a uma causa, P (A|Bi ) especifica a relao
estocstica entre a causa Bi e o efeito A.
Exemplo 3.1.5: Seja {D, Dc } uma partio do espao amostral, onde o evento D significa
que um dado indivduo possui uma certa doena. Seja A o evento que determinado teste para
o diagnstico da doena deu positivo. Ento, P (A|Dc ) descreve a probabilidade do exame d
positivo mesmo que o paciente esteja saudvel, a chamada probabilidade de falso positivo.
P (Ac |D) a probabilidade do exame d negativo mesmo que o paciente esteja doente, a
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

55

chamada probabilidade de falso negativo. Estas probabilidades determinam a qualidade do


teste, quanto menores as probabilidades de falso negativo e falso positivo melhor a qualidade
do teste. Caso as probabilidades P (D), P (A|D), P (A|Dc ) sejam conhecidas pode-se usando o
Teorema da Probabilidade Total obter a probabilidade incondicional de determinado exame
dar positivo P (A).
Porm, geralmente o que se busca saber que dado que o resultado de um exame deu positivo qual a probabilidade de que o indivduo esteja doente. Pode-se obter esta probabilidade
utilizando a famosa frmula de Bayes:
P (D|A) =

P (A|D)P (D)
P (A D)
=
.
P (A D) + P (A Dc )
P (A|D)P (D) + P (A|Dc )P (Dc )

Mais geralmente, a frmula de Bayes dada por:


P (A Bi )
P (Bi |A) = P
j P (A Bj )
= P

P (A Bi )
j:P (Bj )6=0 P (A Bj )

= P

P (A|Bi )P (Bi )
.
j:P (Bj )6=0 P (A|Bj )P (Bj )

Os Bi podem descrever, por exemplo, diferentes mensagens emitidas em um sistema de


comunicaes e A pode descrever uma mensagem recebida pelo sistema. P (A|Bi ) determina a
probabilidade que a mensagem Bi seja emitida e a mensagem A seja recebida por este sistema.
Essas probabilidades condicionais especificam o modelo do canal de comunicaes. Caso
as probabilidades P (Bi )s de cada mensagem ser enviada e as probabilidades condicionais
que descrevem o canal de comunicao sejam conhecidas pode-se usando o Teorema da
Probabilidade Total obter a probabilidade incondicional que determinada mensagem A seja
recebida. Entretanto, de modo geral, o objetivo saber que, se uma dada mensagem foi
recebida (efeito), A, qual a probabilidade de cada uma das mensagens Bi terem sido as
mensagens enviadas. Podem-se obter estas probabilidades utilizando-se a frmula de Bayes.
fcil de provar a frmula de Bayes usando o Teorema da Probabilidade Total. As probabilidades P (Bi ) so usualmente chamadas de probabilidades a priori e as probabilidades
condicionais P (Bi |A) de probabilidades a posteriori. O seguinte exemplo, extrado de Fine
(2006), ilustra uma aplicao da frmula de Bayes.
Exemplo 3.1.6: Considere uma imagem formada por n m pixels com a k-sima linha
contendo dk ( m) pixels defeituosos. No primeiro estgio do experimento uma linha
escolhida ao acaso. A seguir, um pixel selecionado ao acaso nessa linha e constatado ser
defectivo; seja D este evento. Qual a probabilidade de que este pixel defeituoso esteja na
linha k?
Soluo: Seja R = k o evento que este pixel pertencia a k-sima linha da imagem. A
frmula de Bayes permite determinar que, dado que
1
P (R = k) =
n
Campos, Rgo & Mendona

3.1. PROBABILIDADE CONDICIONAL

56

e
P (D|R = k) =

dk
,
m

tem-se que
1 dk
dk
P (R = k|D) = Pnn m1 di = Pn
i=1 n m

i=1

di

Exemplo 3.1.7: Um sistema de comunicao telegrfico transmite os sinais ponto (.) e


trao (-). A experincia tem mostrado que 2/5 dos pontos e 1/3 dos traos so mudados.
Suponha que a razo entre os pontos transmitidos e os traos transmitidos de 5 para 3.
Qual a probabilidade de que o sinal recebido seja o que foi transmitido quando
(a) o sinal recebido um ponto;
(b) o sinal recebido um trao.
Soluo:
Sejam os eventos
R = {um ponto recebido},
R_ = {um trao recebido},
T = {um ponto transmitido},
T_ = {um trao transmitido}.
e as probabilidades dadas no problema ou decorrentes de usar o complementar:
P (R | T ) = 35 , P (R | T_ ) = 13 , P (R_ | T ) = 25 , P (R_ | T_ ) = 32 , P (T ) =
P (T_ ) = 38 .
Tem-se que:

5
8

R = (R T ) (R T_ ),
R_ = (R_ T_ ) (R_ T ),
logo,
P (R ) = P (R | T )P (T ) + P (R | T_ )P (T_ ) =

35 13
4
+
= ,
58 38
8

P (R_ ) = P (R_ | T_ )P (T_ ) + P (R_ | T )P (T ) =

23 25
4
+
= .
38 58
8

(a)
P (T | R ) =

P (R T )
3
= .
P (R )
4
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

57

(b)
P (T_ | R_ ) =

P (T_ R_ )
1
= .
P (R_ )
2

Exemplo 3.1.8: Um canal de comunicao binrio envia um dentre dois tipos de sinais,
denotados por 0 e 1. Devido ao rudo, um 0 transmitido alguma vezes recebido como um
1 e um 1 transmitido alguma vezes recebido como um 0. Para um dado canal, assuma
uma probabilidade de 0.94 que um 0 transmitido seja corretamente recebido como um 0 e
uma probabilidade de 0.91 que um 1 transmitido seja corretamente recebido como um 1.
Adicionalmente, assuma uma probabilidade de 0.45 de se transmitir um 0. Se um sinal
enviado, determine,
(a) A probabilidade de que um 1 seja recebido.
(b) A probabilidade de que um 0 seja recebido.
(c) A probabilidade de que um 1 foi transmitido, dado que um 1 foi recebido.
(d) A probabilidade de que um 0 foi transmitido, dado que um zero foi recebido.
(e) A probabilidade de um erro.
Soluo:
Sejam os eventos
T0 = {um 0 transmitido},
T1 = {um 1 transmitido},
R0 = {um 0 recebido},
R1 = {um 1 recebido}.
Logo,
P (R0 | T0 ) = 0.94 P (R1 | T0 ) = 0.06,
P (R1 | T1 ) = 0.91 P (R0 | T1 ) = 0.09,
P (T0 ) = 0.45,
P (T1 ) = 0.55.
(a)
R1 = (R1 T1 ) (R1 T0 ),
logo,
P (R1 ) = P (R1 | T1 )P (T1 ) + P (R1 | T0 )P (T0 ) = 0.91 0.55 + 0.06 0.45 = 0.5275.
Campos, Rgo & Mendona

3.1. PROBABILIDADE CONDICIONAL

58

(b)
R0 = (R0 T0 ) (R0 T1 ),
logo,
P (R0 ) = P (R0 | T0 )P (T0 ) + P (R0 | T1 )P (T1 ) = 0.94 0.45 + 0.09 0.55 = 0.4725,
ou,
P (R0 ) = 1 P (R1 ) = 1 0.5275 = 0.4725.
(c)
P (T1 R1 )
P (R1 )
P (R1 | T1 )P (T1 )
=
P (R1 )
0.91 0.55
= 0.9488.
=
0.5275

P (T1 | R1 ) =

(d)
P (T0 R0 )
P (R0 )
P (R0 | T0 )P (T0 )
=
P (R0 )
0.94 0.45
=
= 0.8952.
0.4725

P (T0 | R0 ) =

(e)
E = {acontece um erro}.
Logo,
E = (T1 R0 ) (T0 R1 ),
P (E) = P (R0 | T1 )P (T1 ) + P (R1 | T0 )P (T0 ) = 0.09 0.55 + 0.06 0.45 = 0.0765.

Exemplo 3.1.9: Uma urna contm 4 bolas brancas e 6 bolas pretas. Sacam-se, sucessivamente e sem reposio, duas bolas dessa urna. Determine a probabilidade da primeira bola
ser branca sabendo que a segunda bola branca.
Soluo: Sejam B1 e B2 os eventos a primeira bola branca e a segunda bola branca,
respectivamente. Queremos calcular P (B1 |B2 ). Utilizando a frmula de Bayes,
P (B1 |B2 ) =

P (B2 |B1 )P (B1 )


.
P (B2 |B1 )P (B1 ) + P (B2 |B1c )P (B1c )
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA


Mas P (B2 |B1 ) = 39 , P (B2 |B1c ) = 94 , P (B1 ) =
P (B1 |B2 ) =

3
9

3
9
4
10

4
10

e P (B1c ) =

4
10
+ 49

6
10

2
15
2
5

6
.
10

59

Logo,

1
= .
3

Exemplo 3.1.10: Se P (C|D) = 0, 4 e P (D|C) = 0, 5, que evento mais provvel C ou D?


Soluo:
P (C D)
P (C D)
P (C | D) =
= 0.4 P (D) =
.
P (D)
0.4
P (D | C) =
Como

P (CD)
0.4

>

P (CD)
,
0.5

P (C D)
P (C D)
= 0.5 P (C) =
.
P (C)
0.5

ento D mais provvel que C.

Exemplo 3.1.11: Se P (E) = 0.4 e P (F ) = 0.7, o que pode-se concluir sobre P (E|F )?
Soluo: Por definio,
P (E F )
.
P (E|F ) =
P (F )
Porm,
max{P (E) + P (F ) 1, 0} P (E F ) min{P (E), P (F )}.
Logo, 0.1 P (E F ) 0.4, portanto
0.1
0.4
P (E|F )
.
0.7
0.7

Os dois prximos exemplos foram extrados de Fine (2005) e servem para ilustrar aplicaes de probabilidade condicional que desafiam nossa intuio.
Exemplo 3.1.12: (Paradoxo de Monty Hall) Monty Hall foi um popular apresentador
de programa de jogos em TV cujo jogo comeava mostrando ao participante trs portas
fechadas d1 , d2 , d3 , onde atrs de apenas uma delas havia um prmio valioso. O participante
selecionava uma porta, por exemplo, d1 , mas antes que a porta fosse aberta, Monty Hall,
que sabia em que porta estava o prmio, por exemplo, d2 , abria a porta restante d3 , que no
continha o prmio. O participante tinha ento permisso para ficar com sua porta original,
d1 , ou escolher a outra porta fechada. A pergunta se melhor ficar com a porta original
ou trocar de porta.
Soluo: A frmula de Bayes utilizada para analisar este problema. Seja G uma porta
escolhida aleatoriamente para conter o prmio; Y a porta que o participante escolhe primeiro;
e M a porta que Monty Hall abre. O participante no tem qualquer conhecimento a priori
sobre a localizao do prmio, ou seja ele considera todas as portas equiprovveis, e isto pode
ser modelado por
1
P (G = di |Y = dj ) = ,
3
Campos, Rgo & Mendona

3.1. PROBABILIDADE CONDICIONAL

60

isto , todas as portas tm a mesma probabilidade de conter o prmio no importa qual porta
o participante escolha. Se o participante escolher uma porta que no contm o prmio, Monty
Hall necessariamente ter de abrir a porta que no contm o prmio, isto pode ser modelado
por
P (M = di1 |Y = di2 , G = di3 ) = 1,
onde i1 , i2 , i3 {1, 2, 3} e so distintos. Se o participante escolher corretamente, por exemplo,
Y = G = di2 , ento Monty Hall escolhe aleatoriamente entre as outras duas outras portas:
1
P (M = di1 |Y = G = di2 ) = , para di1 6= di2 .1
2
Para determinar se o participante deve trocar de porta, deve-se calcular
P (G = d1 , Y = d2 , M = d3 )
P (Y = d2 , M = d3 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )P (Y = d2 )
=
P (M = d3 |Y = d2 )P (Y = d2 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )
=
P (M = d3 |Y = d2 )
1/3
=
.
P (M = d3 |Y = d2 )

P (G = d1 |Y = d2 , M = d3 ) =

O Teorema da Probabilidade Total e a definio de probabilidade condicional so utilizados


para determinar o valor de P (M = d3 |Y = d2 ).
P (Y = d2 , M = d3 )
P (Y = d2 )
P (Y = d2 , M = d3 , G = d1 ) + P (Y = d2 , M = d3 , G = d2 ) + P (Y = d2 , M = d3 , G = d3 )
=
P (Y = d2 )
P (M = d3 |Y = d2 , G = d1 )P (G = d1 |Y = d2 )P (Y = d2 )
=
P (Y = d2 )
P (M = d3 |Y = d2 , G = d2 )P (G = d2 |Y = d2 )P (Y = d2 )
+
P (Y = d2 )
P (M = d3 |Y = d2 , G = d3 )P (G = d3 |Y = d2 )P (Y = d2 )
+
P (Y = d2 )
= P (M = d3 |Y = d2 , G = d1 )P (G = d1 |Y = d2 )
+P (M = d3 |Y = d2 , G = d2 )P (G = d2 |Y = d2 )
+P (M = d3 |Y = d2 , G = d3 )P (G = d3 |Y = d2 )
1 1 1
1
=1 + +0= .
3 2 3
2
P (M = d3 |Y = d2 ) =

A soluo depende como este caso resolvido.

Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

61

Logo, P (G = d1 |Y = d2 , M = d3 ) = 32 , e o participante deve trocar de porta de sua escolha


original d2 para d1 !
Exemplo 3.1.13: Seja D o evento que um indivduo selecionado ao acaso de uma populao
tem uma doena particular. A probabilidade que um indivduo selecionado ao acaso nesta
populao tenha determinada doena pd . Existe um teste para diagnstico desta doena
que sempre acusa presena da doena quando o indivduo tem a doena. Contudo, quando
o indivduo no tem a doena, o teste reporta falsamente que o indivduo tem a doena com
probabilidade pt . Seja T P o evento que o teste reporta positivamente que o indivduo tem
a doena. Formalmente,
P (D) = pd , P (T P |D) = 1, P (T P |Dc ) = pt .
Um indivduo pode estar interessado em saber a probabilidade P (D|T P ) que ele tenha a
doena dado que o teste deu positivo. Se, por exemplo, a doena for rara, pd = 0, 001 e o
teste reportar falsamente com probabilidade pequena pt = 0, 05, ser visto que, apesar desta
pequena probabilidade do teste d um resultado errado, a probabilidade do indivduo ter a
doena pequena.
Soluo:
Pela frmula de Bayes
P (D|T P ) =

pd
P (T P |D)P (D)
=
= 0, 02.
P (T P |D)P (D) + P (T P |Dc )P (Dc )
pd + pt (1 pd )

Exemplo 3.1.14: Suponha que todos os bytes tenham a mesma probabilidade de ocorrncia. Seja W o nmero de 1s em um byte. Considere os seguintes eventos:
A = {O primeiro e o segundo bit so iguais a 1}
e
B = {W um nmero mpar}.
Calcular P (A), P (B), P (B|A) e P (A|B).
Soluo:
||A||
26
1
P (A) =
= 8 = .
||||
2
4



8
+ 83 + 85 +
||B||
P (B) =
= 1
||||
28
P (B|A) =
onde P (A B) =

||AB||

(61)+(63)+(65)
28

8
7

1
= .
2

P (A B
,
P (A)

= 18 . Portanto,

P (B|A) =

1
8
1
4

1
= .
2
Campos, Rgo & Mendona

3.2. INDEPENDNCIA

62
P (A|B) =

P (A B)
=
B

1
8
1
2

1
= .
4

Exemplo 3.1.15: Dois dados so jogados, um aps o outro, e observa-se o evento a soma
dos dois dados igual a 9; ento, qual a probabilidade do primeiro dado ter dado resultado
4?
Soluo:
1
P (A B)
1
P (A|B) =
= 36
4 = .
P (B)
4
36

De acordo com Halpern (2003), embora probabilidade condicional seja bastante til, ela
sofre de problemas, em particular quando se quer tratar de eventos de probabilidade zero.
Tradicionalmente, se P (B) = 0, ento P (A|B) no definida. Isto leva a um nmero
de dificuldades filosficas em relao a eventos com probabilidade zero. So eles realmente
impossveis? Caso contrrio, quo improvvel um evento precisa ser antes de ele ser atribudo
probabilidade zero? Deve um evento em algum caso ser atribudo probabilidade zero? Se
existem eventos com probabilidade zero que no so realmente impossveis, ento o que
significa condicionar em eventos de probabilidade zero? Por exemplo, considere o espao de
probabilidade ([0, 1], B, ) onde B a -gebra de Borel restrita a eventos contidos em [0, 1]
e uma medida de probabilidade na qual todo intervalo em [0, 1] possui probabilidade
igual ao seu comprimento. Seja B = {1/4, 3/4} e A = {1/4}. Como P (B) = 0, P (A|B)
no definida. Porm parece razovel assumir que neste caso P (A|B) = 1/2 j que
intuitivamente implica que todos os estados so equiprovveis, mas a definio formal de
probabilidade condicional no permite obter esta concluso. Para ver uma alternativa
teoria descrita neste captulo ver Halpern (2003).

3.2

Independncia

Intuitivamente, dois eventos so independentes se eles nada tm a ver um com o outro,


so no relacionados; a ocorrncia de um no tem qualquer influncia sobre a ocorrncia
do outro. A intuio por trs da frase o evento A independente do evento B que
o conhecimento sobre a tendncia para A ocorrer dado que sabe-se que B ocorreu no
alterada quando sabe-se que B ocorreu. Ento, usando probabilidades condicionais pode-se
formalizar esta intuio da seguinte forma: A independente de B se P (A|B) = P (A). Mas
usando a definio de probabilidade condicional,
P (A|B) =

P (A B)
P (A B) = P (A|B)P (B) = P (A)P (B).
P (B)

Como esta ltima expresso definida inclusive para o caso de P (B) = 0, ela a expresso
adotada como a definio de independncia entre dois eventos.
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

63

Definio 3.2.1: O evento A independente do evento B se P (A B) = P (A)P (B).


Esta definio de independncia implica que independncia um conceito simtrico em
teoria da probabilidade, isto , A independente de B se e somente se B independente
de A. Note que esta definio tambm implica que eventos A e B so independentes se
P (A) = 0 ou P (B) = 0, o que pode gerar concluses no intuitivas se de fato P (A) = 0
ou P (B) = 0. Por exemplo, se P (A) = 0, ento A independente dele mesmo, porm
A certamente no no relacionado consigo mesmo. Similarmente, fcil provar que se
P (A) = 1, A independente dele mesmo. O seguinte teorema prova que estes so os nicos
casos em que um evento independente dele mesmo.
Teorema 3.2.2: A independente dele mesmo se e somente se P (A) = 0 ou P (A) = 1.
Prova:
P (A A) = P (A) = P (A)P (A) P (A) = 0 ou P (A) = 1.

Intuitivamente, se A independente de B o fato que B no ocorreu, ou seja que B c


ocorreu, no deve alterar a probabilidade de A. Portanto, de se esperar que se A e B so
independentes, ento A e B c tambm so. O seguinte teorema prova que esta intuio
verdadeira.
Teorema 3.2.3: Se A e B so eventos independentes, A e B c , respectivamente Ac e B e
Ac e B c tambm o so.
Prova:
A = A = A (B B c ) = (A B) (A B c ).
Ento, como A B e A B c so mutuamente exclusivos, o axioma K3 implica que
P (A) = P (A B) + P (A B c ).
Como A e B so independentes,
P (A) = P (A)P (B) + P (A B c ).
Rearrajando os termos e utilizando o fato que P (B c ) = 1P (B), tem-se que P (AB c ) =
P (A)P (B c ).
O conceito de independncia tambm se aplica a uma coleo arbitrria de eventos
{Ai }iI , onde I um conjunto de ndices. Neste caso, tm-se duas definies.
Definio 3.2.4: Uma coleo de eventos {Ai }iI independente par a par se para todo
i 6= j I, Ai e Aj so eventos independentes.
Campos, Rgo & Mendona

3.2. INDEPENDNCIA

64

Definio 3.2.5: Uma sequncia finita de eventos A1 , A2 , . . . , An , n 1, mutuamente


independente se para todo I {1, . . . , n},
Y
P (iI Ai ) =
P (Ai ).
iI

Definio 3.2.6: Uma coleo de eventos {Ai }iI mutuamente independente se para
todo J I finito, {Ai }iJ so mutuamente independentes.
O seguinte exemplo, extrado de James (1996), ilustra que independncia par a par no
implica independncia mtua.
Exemplo 3.2.7: Se = {1, 2, 3, 4} e P ({w}) = 1/4, ento A = {1, 2}, B = {1, 3}, e
C = {2, 3} so eventos independentes par a par.
Soluo: Pode-se verificar isto pelo fato que
P (A B) = P ({1}) =

1
11
=
= P (A)P (B).
4
22

Similarmente, pode-se provar o mesmo resultado para os outros pares. Contudo,


1
P (A B C) = P () = 0 6= P (A)P (B)P (C) = .
8
Ento, A, B, e C no so mutuamente independentes.
Exemplo 3.2.8: Um sistema automtico de alarme contra incndio utiliza trs clulas
sensveis ao calor, que agem, independentemente, uma da outra. Cada clula entra em
funcionamente com probabilidade 0.8 quando a temperatura atinge 60o C. Se pelo menos
uma das clulas entrar em funcionamente, o alarme soa. Calcule a probabilidade do alarme
soar.
Soluo: Sejam
Ci = {clula i entra em funcionamento, i = 1, , 3.}
Logo,
P (C1 C2 C3 ) = 1 P (C1 C2 C3 ) = 1 P (C1 )P (C2 )P (C3 ) = 1 0.23 = 0.992.

Exemplo 3.2.9: Se = {1, 2, 3, 4, 5, 6}, A = {1, 2, 4}, e B = {2, 3, 5}, ento construa uma
medida de probabilidade em tal que A e B sejam independentes.
Soluo: Seja pi a probabilidade do elemento i . Ento, para que A e B sejam independentes,
P (A B) = p2 = P (A)P (B) = (p1 + p2 + p4 )(p2 + p3 + p5 ).
Por exemplo, pode-se escolher p1 = p2 = p3 = p6 =
P (A B) = 14 e P (A) = P (B) = 12 .

1
4

e p4 = p5 = 0. Deste modo,

Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

65

Exemplo 3.2.10: O evento F de que um determinado sistema falhe ocorre se os eventos A1


ou A2 ocorrerem, mas o evento A3 no ocorrer. Se A1 , A2 , A3 so mutumente independentes
e P (A1 ) = 0.4, P (A2 ) = 0.35, e P (A3 ) = 0.1, ento calcule P (F ).
Soluo: O evento F igual ao evento (A1 A2 ) Ac3 . Logo sua probabilidade igual a:
P (F ) = P ((A1 A2 ) Ac3 ) = P (A1 A2 )P (Ac3 )
= (P (A1 ) + P (A2 ) P (A1 )P (A2 ))(1 P (A3 )) = (0.4 + 0.35 0, 4 0.35)(0.9) = 0.549.

Exemplo 3.2.11: Assuma que A1 , . . . , An so eventos mutuamente independentes e que


P (Ai ) = pi . Calcular as probabilidades dos seguintes eventos:
(a) O evento A o evento onde todos estes eventos ocorrem:
P (A) = P (ni=1 Ai ) =

n
Y

P (Ai ) =

i=1

n
Y

pi .

i=1

(b) O evento B o evento que nenhum desses eventos ocorre:


P (B) = P (ni=1 Aci ) =

n
Y

P (Aci ) =

i=1

n
Y
(1 pi ).
i=1

(c) O evento C o evento onde pelo menos um desses eventos ocorre:


P (C) = P (B c ) = 1 P (B) = 1

n
Y
(1 pi ).
i=1

Exemplo 3.2.12 : Joo e Jos disputam um jogo com uma moeda equilibrada. Cada
jogador lana a moeda duas vezes e vence o jogo aquele que primeiro obtiver dois resultados
iguais. Joo comea jogando e se no vencer passa a moeda para Jos e continuam alternando
jogadas. Qual a probabilidade de Joo vencer o Jogo?
Soluo: Seja Ak o evento dois resultados iguais so obtidos na k-sima tentativa. Note
que P (Ak ) = 12 . Seja Bk o evento Joo ganha na sua k-sima jogada. Ento,
B1 = A1 ; B2 = Ac1 Ac2 A3 ; B3 = Ac1 Ac2 Ac3 Ac4 A5 ,
em geral,
Bk = Ac1 Ac2 Ac2k2 A2k1 .
Portanto,
1
P (Bk ) = P (Ac1 Ac2 Ac2k2 A2k1 ) = P (Ac1 )P (Ac2 ) P (Ac2k2 )P (A2k1 ) = ( )2k1 ,
2
Campos, Rgo & Mendona

3.2. INDEPENDNCIA

66

onde a penltima igualdade se deve ao fato dos lanamentos serem independentes. Logo,
P (Joo vencer) =

P (
k=1 Bk )

X
2
1
=
P (Bk ) =
( )2k1 = .
2
3
k=1
k=1

Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

3.3

67

Exerccios

3.1 Sabe-se que os eventos B1 , B2 e B3 so disjuntos par a par e que sua unio igual
ao espao amostral. Estes eventos tm as probabilidades P (B1 ) = 0.2 e P (B2 ) = 0.3.
Existe um outro evento A tal que P (A|B1 ) = 0.3, P (A|B2 ) = 0.4 e P (A|B3 ) = 0.1.
Calcule:
(a) P (A).
(b) P (B2 |A).
3.2 Considere os eventos A, B e C. Sendo A e B independentes, A e C independentes e
B e C mutuamente excludentes, mostre que A e B C so independentes.
3.3 Sejam A1 , A2 , . . . An eventos independentes com pk = P (Ak ), k = 1, . . . , n. Obtenha a
probabilidade de ocorrncia dos seguintes eventos, em termos das probabilidades pk :
(a) A ocorrncia de nenhum dos Ak .
(b) A ocorrncia de pelo menos um dos Ak .
(c) A ocorrncia de exatamente um dos Ak .
(d) A ocorrncia de exatamente dois dos Ak .
(e) A ocorrncia de, no mximo, n 1 dos Ak .
3.4 Numa certa cidade, 75% de seus habitantes tm menos de 30 anos, enquanto os outros
25% tm mais de 30 anos. Sabendo-se que a taxa de alfabetizao entre os jovens,
idade < 30 anos de 40% e entre os no jovens, idade 30 anos, de 30%, calcule:
(a) a probabilidade de que um habitante escolhido ao acaso seja alfabetizado;
(b) a probabilidade de que um habitante alfabetizado ter menos de 30 anos.
3.5 Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defeituoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote comprado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 defeituoso? (este item ser facilmente resolvido usando uma Binomial, a qual ser
vista posteriormente)
3.6 Um porta-nqueis contm moedas de prata e de cobre em igual nmero. Extraem-se
ao acaso e sem reposio duas moedas. Calcule a probabilidade de que:
Campos, Rgo & Mendona

3.3. EXERCCIOS

68

(a) saia uma moeda de prata na segunda tiragem;


(b) uma e uma s das moedas seja de prata;
(c) a segunda moeda extrada seja de prata, sabendo-se que a primeira era de cobre;
(d) pelo menos uma das moedas seja de cobre.
3.7 Seja o espao amostral = {a, b, c, d, e} onde P ({a, b, c}) =

1
2

e P ({a}) = 41 .

(a) Determine as probabilidades de todos os eventos cujas probabilidades podem ser


computadas dos dados.
(b) Compute P ({b, c, d} | {a, b, c}).
(c) Compute P ({a} | {a, b, c}).
3.8 Sabe-se que em um centro de processamento de dados, 80% dos programas so escritos
em C, 20% em Haskell, e que 20% dos programas em C e 40% dos em Haskell compilam
da primeira vez.
(a) Qual a probabilidade de que um programa selecionado aleatoriamente compile
da primeira vez?
(b) Se um programa selecionado aleatoriamente compilar da primeira vez, qual a
probabilidade de que tenha sido escrito em Haskell?
3.9 Suponha que a ocorrncia ou no de chuva dependa das condies do tempo no dia
imediatamente anterior. Admita que se chove hoje, chover amanh com probabilidade
0.7 e que se no chove hoje chover amanh com probabilidade 0.4. Sabendo-se que
choveu hoje, calcule a probabilidade que chover depois de amanh.
3.10 Em um teste de mltipla escolha, a probabilidade do aluno saber a resposta p.
Havendo m escolhas se ele sabe a resposta, responde corretamente com probabilidade
1; se no sabe, responde corretamente com probabilidade 1/m.
(a) Qual a probabilidade de que a pergunta tenha sido respondida corretamente?
(b) Qual a probabilidade que o aluno sabia a resposta dado que a pergunta foi respondida corretamente?
3.11 Sejam A1 , A2 , . . . An eventos independentes com pk = P (Ak ), k = 1, . . . , n. Obtenha a
probabilidade de ocorrncia dos seguintes eventos, em termos das probabilidades pk :
(a) A ocorrncia de nenhum dos Ak .
(b) A ocorrncia de pelo menos um dos Ak .
3.12 Considere as seis permutaes das letras a, b, c como tambm os triplets (a, a, a),
(b, b, b), (c, c, c). Seja consistindo dos nove triplets, cada um com probabilidade
1/9. Definindo os eventos
Ak = { o k-simo lugar ocupado pela letra a },
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

69

para k = 1, , 3 mostre que eles so independentes dois a dois mas no so independentes trs a trs (a questo tambm poderia ter sido: verifique se os eventos so
mutuamente independentes).
3.13 Suponha que trs rapazes possuem bons idnticos. Cada um atira seu bon no centro
de uma mesa. Os bons so misturados e ento cada um seleciona aleatoriamente um
bon.
(a) Qual a probabilidade que nenhum dos trs tenha escolhido seu prprio bon?
(b) Resolva o mesmo problema para n.
3.14 Durante um dado perodo de tempo, um radar detecta um alvo com probabilidade p.
Sabe-se que as deteces de alvos por perodos de tempo idnticos, so independentes
umas das outras. Encontre a probabilidade que o mssel seja detectado em ao menos
um dos n perodos de tempo idnticos.
3.15 Um computador consiste de n unidades. A confiabilidade (tempo livre de falha) da
1a. unidade durante o tempo T p1 , da 2a. unidade para o tempo T p2 , e assim por
diante. As unidades falham independentemente umas das outras. Quando qualquer
unidade falha, o computador falha. Encontre a probabilidade de que o computador
falhe durante o tempo T .
3.16 Trs mensagens so enviadas atravs de trs canais de comunicao, cada uma das
quais pode ser transmitida com diferente exatido. A transmisso de uma mensagem
pode levar a um dos seguintes eventos:
A1 = { a mensagem transmitida da forma correta};
A2 = { a mensagem parcialmente distorcida};
A3 = { a mensagem completamente distorcida}.
As probabilidades dos eventos A1 , A2 e A3 so conhecidas e iguais a p1 , p2 e p3
(p1 + p2 + p3 = 1). Considerando que mensagens podem ser distorcidas ou transmitidas corretamente independentemente umas das outras, encontre a probabilidade
dos seguintes eventos:
A = {todas as trs mensagens so transmitidas da forma correta}.
B = {pelo menos uma das mensagens completamente distorcida}.
3.17 Durante um dado perodo de tempo, um software pode apresentar erros com probabilidade p0 . Assumindo independncia entre os eventos considerados, quantos perodos de
tempo so necessrios para que erros sejam detectados com probabilidade no menor
que p?
3.18 Uma mensagem que est sendo transmitida atravs de um canal de comunicao consiste de n smbolos. Durante a transmissso, a probabilidade de cada um dos smbolos
serem distorcidos independentemente uns dos outros, p. Por questes de segurana,
cada mensagem ento enviada k vezes.
Campos, Rgo & Mendona

3.3. EXERCCIOS

70

(a) Encontre a probabilidade de que pelo menos uma das mensagens que est sendo
transmitida, no seja distorcida em qualquer um dos seus smbolos.
(b) Quantas vezes uma mensagem precisa ser repetida para que a probabilidade de
que pelo menos uma das mensagens no seja distorcida no seja menor que p?
3.19 Coloque V ou F nas sentenas abaixo:
(a) A e B independentes P (A B) = P (A) + P (B).

( )

(b) A e B independentes P (A B) = P (A) + P (B) P (A)P (B).

( )

(c) A e B independentes P (A B) = P (A)P (B).

( )

(d) A e B independentes P (A | B) = P (B).

( )

(e) A e B independentes P (A | B) = P (A).

( )

(f ) A e B so excludentes A e B so independentes.
( )
Nos itens a seguir B = {bebo}, D = {dirijo}. Voc vai responder estes itens
tendo em vista que voc um cidado brasileiro responsvel, consciente
de que o futuro do seu pas depende de voc, alis, voc o futuro do
Brasil!
(g) B D.

( )

(h) B D.

( )

(i) P (D | B) = 1.

( )

(j) P (B | D) = 0.

( )

(k) B e D so eventos independentes.

( )

(l) B e D so eventos excludentes.

( )

3.20 Uma mensagem consistindo de n smbolos binrios 0 e 1 enviada. Cada smbolo


distorcido com uma probabilidade p. Por questes de segurana a mensagem repetida
duas vezes. A informao considerada correta se ambas as mensagens coincidem.
Encontre a probabilidade de que ambas as mensagens estejam distorcidas, a despeito
de coincidirem.
3.21 A causa de um acidente est sendo investigada e existem quatro hiptesis possveis: H1 ,
H2 , H3 e H4 . Estatisticamente sabe-se que P (H1 ) = 0.2, P (H2 ) = 0.4, P (H3 ) = 0.3
e P (H4 ) = 0.1. J sabido que ocorreu o evento A = {falha no nvel do leo}. Pelas
mesmas estatsticas a probabilidade condicional do evento A dadas as hiptesis H1 , H2 ,
H3 e H4 so, respectivamente, 0.9, 0, 0.2 e 0.3. Encontre as probabilidades a posteriori
para as hiptesis.
3.22 Um colgio composto de 70% de homens e 30% de mulheres. Sabe-se que 40%
dos homens e 60% das mulheres so fumantes. Qual a probabilidade de que um
estudante que foi visto fumando seja homem? (estes dados, atualmente, pelo menos
entre os alunos do CCEN e do CIn, ambos da UFPE so irreais, pois as probabilidades
de fumantes so quase zero!)
Campos, Rgo & Mendona

CAPTULO 3. PROBABILIDADE CONDICIONAL. INDEPENDNCIA

71

3.23 Suponha que os automveis tm igual probabilidade de serem produzidos na segunda,


tera, quarta, quinta e sexta-feira. As percentagens de automveis amarelos produzidos
nos diferentes dias da semana so: segunda, 4%; tera, quarta e quinta, 1%; sexta, 2%.
Se voc compra um automvel amarelo, qual a probabilidade de que o mesmo foi
produzido numa segunda-feira?
3.24 Um homem dispara 12 tiros independentemente num alvo. Qual a probabilidade de
que atinja o alvo pelo menos uma vez, se tem probabilidade 9/10 de atingir o alvo em
qualquer tiro?
3.25 Certo experimento consiste em lanar um dado equilibrado duas vezes, independentemente. Dado que os dois nmeros sejam diferentes, qual a probabilidade (condicional)
de:
(a) pelo menos um dos nmeros ser 6;
(b) a soma dos nmeros ser 8.
3.26 Trs prisioneiros2 so informados por seu carcereiro que um deles foi escolhido aleatoriamente para ser executado, e os outros dois sero libertados. O prisioneiro A pede
ao carcereiro para lhe dizer confidencialmente qual, de seus dois companheiros de cela,
ser libertado, afirmando que no h qualquer problema, pois ele ja sabe que pelo
menos um deles estar em liberdade. O carcereiro recusa-se a responder a pergunta,
argumentando que, se A soubesse qual de seus companheiros seria libertado, ento sua
prpria probabilidade de ser executado cresceria de 1/3 para 1/2. Que voc pensa do
julgamento de carcereiro?
3.27 Num stand de automveis os registros indicam que 50% dos clientes pretendem ar
condicionado no carro, 49% preferem carro com direo hidrulica e 25% interessam-se
pelas duas coisas simultaneamente. Um registro selecionado aleatoriamente.
(a) Qual a probabilidade de que o ar condicionado tenha sido pretendido mas no a
preferncia do carro com direo hidrulica?
(b) Qual a probabilidade de que nenhuma das referidas preferncias tenha sido
selecionada?
(c) Qual a probabilidade de exatamente uma das referidas preferncias ter sido
selecionada?
3.28 Trs jornais A, B e C so publicados em uma cidade e uma recente pesquisa entre os
eleitores indica o seguinte: 20% lem A; 26% lem B; 14% lem C; 8% lem A e B; 5%
lem A e C; 2% lem A, B e C; 4% lem B e C. Para um adulto escolhido ao acaso,
calcule a probabilidade de que:
2

Este problema aparece em vrios livros dentre os quais: S. M. Ross, Introduction to Probability Models.
Fifth Edition, Academic Press, 1972; R. Isaac, The Pleasures of Probability. Springer-Verlag, 1995; F.
Mosteller, Fifty Challenging Problems in Probability. Dover Publications, Inc., New York, 1965; S. Russel
and P. Norvig, Artifitial Intelligence A Modern Approach. Prentice Hall, New Jersey, 1995. Voc v alguma
semelhana entre o citado problema e o Paradoxo de Monty Hall?

Campos, Rgo & Mendona

3.3. EXERCCIOS

72

(a) ele no leia qualquer dos jornais;


(b) ele leia exatamente um dos jornais;
(c) ele leia ao menos A e B se se souber que ele l ao menos um dos jornais publicados.
3.29 Uma mquina impressora pode imprimir n letras, digamos 1 , 2 , n . Ela acionada
por impulsos eltricos, cada letra sendo produzida por um impulso diferente. Suponha
que exista uma probabilidade constante p de imprimir a letra correta e tambm suponha
independncia. Um dos n impulsos, escolhido ao acaso, foi alimentado na mquina duas
vezes e, em ambas, a letra 1 foi impressa. Calcule a probabilidade de que o impulso
escolhido tenha sido para imprimir 1 .
3.30 Estima-se que a probabilidade de que Mrio seja culpado 0.2. So chamadas duas
testemunhas, Alberto e Carlos. Se Mrio for realmente culpado, Alberto dir que ele
culpado com certeza e Carlos dir que Mrio culpado com probabilidade 0.6. Se
Mrio for inocente, Alberto dir com probabilidade de 0.3 que ele inocente e Carlos
dir certamente que ele inocente.
(a) Qual a probabilidade de Alberto dizer que Mrio inocente?
(b) Qual a probabilidade de Mrio ser inocente se Carlos disser que inocente?
3.31 Em um centro de computao cientfica os software NET_1.0, NET_2.0 e NET_3.0
so igualmente responsveis por todas as simulaes realizadas. Um pesquisador tem
observado que, das simulaes provenientes de cada software, 8, 6 e 4 porcento, respectivamente, apresentam erros. Ele escolhe ao acaso uma simulao.
(a) Qual a probabilidade de que contenha erros?
(b) Qual a probabilidade de que no seja de NET_1.0, sabendo-se que tem erro?

Campos, Rgo & Mendona

Captulo 4
Variveis Aleatrias Unidimensionais e
Funes
4.1

Introduo

Analisando o trfego de redes Ethernet, o interesse pode ser, por exemplo, nas variveis
nmero total de bytes, ou nmero total de pacotes, ou ainda, percentual de utilizao da
rede em determinados perodos de tempo. A Tabela 4.1 exibe variveis de interesse em uma
rede de computadores.
Tabela 4.1: Variveis aleatrias observadas na camada de aplicao de redes de computadores.
Aplicao
Vdeoconferncia

WWW

Correio eletrnico

Varivel observada
Nmero de frames por segundo
Nmero de pixels por frame
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo
Intervalo de tempo entre sesses WWW
Tamanho do documento (arquivo) WWW
Nmero de imagens embutidas em um documento
Intervalo de tempo entre chegadas de pedidos WWW
Localidade temporal do site
Popularidade do site
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo
Intervalo de tempo entre sesses de correio eletrnico
Tamanho da mensagem de e-mail
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo

73

4.2. DEFININDO UMA PROBABILIDADE SOBRE B

74

Suponha que um experimento aleatrio consista em selecionar ao acaso um perfil em uma


rede social. Quantos amigos na rede social possui o dono deste perfil? Quantidades desse
tipo o que tradicionalmente tm sido chamadas de variveis aleatrias. Intuitivamente, so
variveis aleatrias porque seus valores variam dependendo do perfil escolhido. O adjetivo
aleatria usado para enfatizar que o seu valor de certo modo incerto.
Formalmente, como ser visto a seguir, uma varivel aleatria no nem varivel, nem
aleatria. Na verdade, variveis aleatrias so funes, reais. Uma varivel aleatria uma
funo real. Sequncias de variveis aleatrias so sequncias de funes reais. Convergncia de variveis aleatrias convergncia de funes reais e teoremas limite sobre variveis
aleatrias so teoremas limite sobre funes reais.
Definio 4.1.1: Seja (, A, P ) um espao de probabilidade. Uma funo real X : R,
chamada de varivel aleatria se para todo Boreliano B, X 1 (B) A, onde X 1 (B) =
{ : X() B} o conjunto de elementos do espao amostral cuja imagem segundo X
est em B.

Figura 4.1: Esquema funcional de uma varivel aleatria.


Notaes comumente encontradas, com os respectivos significados:
[X = x] = { | X() = x}, B = {x},
[X x] = { | X() x}, B = (, x],
[x X y] = { | x X() y}, B = [x, y].

4.2

Definindo uma probabilidade sobre B

Dada uma varivel aleatria X, pode-se definir uma probabilidade, PX , no espao mensurvel
(IR, B) da seguinte maneira: para todo B B, seja PX (B) = P (X 1 (B)). Por definio
de varivel aleatria, tem-se que X 1 (B) A, ento PX est bem definida. PX satisfaz os
axiomas K2, K3, e K50 de probabilidade, pois:
(K2) PX (B) = P (X 1 (B)) = P (A) 0.
(K3) PX (IR) = P (X 1 (IR)) = P () = 1.
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

75

(K50 ) Suponha que B1 , B2 , . . . so eventos Borelianos disjuntos dois a dois. Ento,


PX (n Bn ) = P (X 1 (n Bn )) = P (n (X 1 (Bn ))) =

P (X 1 (Bn )) =

PX (Bn ).

A probabilidade PX dita como sendo a probabilidade induzida pela varivel aleatria X


e um outro espao de probabilidade (IR, B, PX ).

4.3

Funo de Distribuio Acumulada

Para uma dada varivel aleatria X, uma maneira de descrever a probabilidade induzida PX
utilizando sua funo de distribuio acumulada.
Definio 4.3.1: A funo de distribuio acumulada de uma varivel aleatria X, representada por FX , definida por
FX (x) = P (X x) = PX ((, x]), x IR.
A funo de distribuio acumulada FX satisfaz s seguintes propriedades:
(F1) Monotonicidade. Se x y, ento FX (x) FX (y).
x y (, x] (, y] PX ((, x]) PX ((, y]) FX (x) FX (y).
(F2) Continuidade direita. Se xn x, ento FX (xn ) FX (x).
Se xn x, ento os eventos (, xn ] so no-crescentes e n (, xn ] = (, x].
Logo, pela continuidade da probabilidade, tem-se que PX ((, xn ]) P ((, x]), ou
seja, FX (xn ) FX (x).
(F3) Se xn , ento FX (xn ) 0, e se xn , ento FX (xn ) 1.
Se xn , ento os eventos (, xn ] so no-crescentes e n (, xn ] = . Logo,
pela continuidade da probabilidade, tem-se que PX ((, xn ]) P (), ou seja, FX (xn )
0. Similarmente, se xn , ento os eventos (, xn ] so no-decrescentes e
n (, xn ] = IR. Logo, pela continuidade da probabilidade, tem-se que PX ((, xn ])
P (), ou seja, FX (xn ) 1.
Teorema 4.3.2: Uma funo real F satisfaz F1F3 se e somente se F uma funo de
distribuio acumulada.
Prova: A prova de que se F for uma funo de distribuio acumulada, ento F satisfaz
F1-F3 foi dada acima. A prova de que toda funo real que satisfaz F1-F3 uma funo
acumulada est fora do escopo deste livro (Burrill, 1982)(Shryayev, 1984).
Uma funo de distribuio acumulada pode corresponder a vrias variveis aleatrias
no mesmo espao de probabilidade (, A, P ). Por exemplo, seja X tal que P (X = 1) =
P (X = 1) = 21 . Logo, P (X = 1) = P (X = 1) = 12 . Portanto, X e X tm a mesma
distribuio. Consequentemente, FX = FX .
Campos, Rgo & Mendona

4.3. FUNO DE DISTRIBUIO ACUMULADA

76

Teorema 4.3.3: Seja D o conjunto de pontos de descontinuidade da funo de distribuio


FX . Ento, D enumervel.
Prova: Pela monotonicidade, tem-se que para todo x IR, FX (x ) FX (x) FX (x+ ).
Logo, x D se, e somente se, FX (x+ ) > FX (x ). Para n = 1, 2, 3, . . . seja
1
}.
n
Ento, D =
n=1 An . Ser visto que todo An contm menos que n pontos e, portanto,
finito, dessa forma, D ser enumervel.
Por absurdo, suponha que exista An contendo n pontos. Assim, An = {x1 , x2 , . . . , xn },
onde x1 < x2 < xn e
An = {x : FX (x+ ) FX (x ) >

+
0 FX (x
1 ) FX (x1 ) FX (x2 ) FX (x2 ) FX (xn ) FX (xn ) 1.
P

Ento, nk=1 (FX (x+


definio do conjunto An , tem-se que
k ) FX (xk )) 1. Mas por P

1
1
FX (xi ) FX (xi ) > n para todo xi An . Portanto, nk=1 (FX (x+
k ) FX (xk )) > n n > 1,
absurdo. Logo, An contm menos que n pontos.

Exemplo 4.3.4: Este exemplo mostra como usar a funo de distribuio acumulada para
calcular probabilidades. Lembrando que
FX (x) = P (X x) = PX ((, x]).
(a)
(, b] = (, a] (a, b], a b
P ((, b]) = P ((, a]) + P ((a, b])
P ((a, b]) = P ((, b]) P ((, a]) = FX (b) FX (a)
PX ((a, b]) = P (a < X b) = FX (b) FX (a).

(4.1)

(b) In = {x : a n1 < x a + n1 }. Isto significa que I1 I2 limn In =


n=1 In =
{a}. Pela continuidade monotnica da probabilidade1 tem-se que
P (X = a) = P (
n=1 In )
= P ( lim In )
n

lim P (In )

1
1
<X a+ )
n
n
n
1
1
= lim (FX (a + ) (FX (a ))
n
n
n
1
1
= lim FX (a + ) lim FX (a )
n
n
n
n
=

lim P (a

ou lembrando do Captulo 1 que P (lim In ) = lim P (In ),

Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

PX (a) = P (X = a) = FX (a+ ) FX (a ) = FX (a) FX (a ).

77

(4.2)

A expresso (4.2) o salto da funo de distribuio no ponto a. Se X uma varivel


aleatria discreta assumindo o valor a, FX (a) FX (a ) 0.
(c)
(a, b) {b} = (a, b]
P ((a, b)) + P ({b}) = P ((a, b])
P ((a, b)) = P ((a, b]) P (b) = FX (b) FX (a) P (X = b)
PX ((a, b)) = P (a < X < b) = FX (b) FX (a) P (X = b).

(4.3)

O resultado em (4.3) foi obtido usando (4.1) e (4.2).


(d)
(a, b] {a} = [a, b]
P ((a, b]) + P (a) = P ([a, b])
P ([a, b]) = P ((a, b]) + P (X = a) = FX (b) FX (a) + P (X = a)
PX ([a, b]) = P (a X b) = FX (b) FX (a) + P (X = a).

(4.4)

O resultado em (4.4) foi obtido usando (4.1) e (4.2).


(e)
[a, b) = (a, b) {a}
P ([a, b)) = P ((a, b)) + P (a) = FX (b) FX (a) P (X = b) + P (X = a)

PX ([a, b)) = P (a X < b) = FX (b) FX (a) (P (X = b) + P (X = a)).

(4.5)

(4.5) foi obtida a partir de ((4.3)).


(f )
(, b] = (, b) {b}
P ((, b]) = P ((, b)) + P (X = b)
P ((, b)) = P ((, b]) P (X = b)
PX (, b)) = P ( < X < b) = FX (b) P (X = b).

(4.6)

Campos, Rgo & Mendona

4.4. TIPOS DE VARIVEIS ALEATRIAS

4.4

78

Tipos de Variveis Aleatrias

Existem trs tipos de variveis aleatrias: discreta, contnua e singular.

4.4.1

Varivel Aleatria Discreta

Definio 4.4.1: Uma varivel aleatria X discreta se assume valores num conjunto
enumervel com probabilidade 1, ou seja, se existe um conjunto enumervel {x1 , x2 , . . .} IR
tal que P (X = xi ) 0, i 1 e P (X {x1 , x2 , . . .}) = 1.
A funo p() definida por
p(xi ) = PX ({xi }), i = 1, 2, . . .
e
p(x) = 0, x
/ {x1 , x2 , . . .},
chamada de funo probabilidade (de massa) de X. Toda funo probabilidade uma
funo real e assume
P valores entre 0 e 1, sendo positiva para uma quantidade enumervel de
pontos e tal que i p(xi ) = 1. De modo geral escreve-se
0 p(xi ) 1,
X
p(xi ) = 1.
i

O conjunto de pontos
(xi , p(xi )), i = 1, 2, . . . ,
usualmente denotado na literatura por distribuio de probabilidade da varivel aleatria
X.
Para esta varivel aleatria tem-se que
X
p(xi ),
FX (x) =
i:xi x

de modo que FX uma funo degrau. Seja p : IR [0, 1],


P sendo p positiva para uma
quantidade enumervel de pontos {x1 , x2 , . . .} e satisfazendo i p(xi ) = 1 e seja
X
P (B) =
p(xi ), B B.
xi B

Prova-se que P (B) uma probabilidade em (R, B) (P satisfaz os axiomas de Kolmogorov).


Logo, a distribuio de uma varivel aleatria discreta X pode ser determinada tanto pela
funo de distribuio acumulada FX quanto pela sua funo de probabilidade p.
Exemplo 4.4.2: Seja X uma varivel aleatria assumindo os valores 1, 2, . . . , com P (X =
k) = 21k , k = 1, 2, . . . ,. Portanto, a distribuio de probabilidade da varivel aleatria X
(k,

1
), k = 1, 2, ,
2k

Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

79

Exemplo 4.4.3 : Este exemplo mostra como calcular a funo de distribuio acumulada para uma varivel aleatria discreta. Seja X assumindo os valores 0, 1, 2 com igual
probabilidade. Portanto,
x < 0 FX (x) = 0,
1
0 x < 1 FX (x) = P (X = 0) = ,
3
1 1
2
1 x < 2 FX (x) = P (X = 0) + P (X = 1) = + = ,
3 3
3
x 2 FX (x) = P (X = 0) + P (X = 1) + P (X = 2) = 1.
Assim,

0,

1
,
3
FX (x) =
2
,

3
1,

x < 0,
0 x < 1,
1 x < 2,
x 2.

Figura 4.2: Grfico de funo de distribuio acumulada para uma varivel aleatria discreta

Exemplo 4.4.4: Este exemplo mostra como calcular a funo probabilidade de X a partir
do conhecimento da funo de distribuio acumulada. Seja

0, x < 1,

1
, 1 x < 1,
6
FX (x) =
2
, 1 x < 3,

3
1, x 3.
logo,
P (X = 1) = FX (1) FX (1 ) =

1
1
0= ,
6
6
Campos, Rgo & Mendona

4.4. TIPOS DE VARIVEIS ALEATRIAS

80

1
2 1
= ,
3 6
2
2
1
P (X = 3) = FX (3) FX (3 ) = 1 =
3
3

P (X = 1) = FX (1) FX (1 ) =

P (X = k) = 0, k 6= 1, 1, 3.

4.4.2

Varivel Aleatria Contnua

Definio 4.4.5: Uma varivel aleatria X contnua se existe uma funo real fX (x) 0
tal que
Z x
FX (x) =
fX (t)dt, x R.

A funo fX chamada de funo densidade de probabilidade de X. FX contnua e


fX (x) = FX0 (x).
se,
R Uma funo f (x) 0 densidade de alguma varivel aleatria se e somente
Rx
f
(x)dx
=
1,
sendo
neste
caso
fcil
provar
que
a
funo
F
definida
por
f
(t)dt
satisfaz

s condies F1, F2, e F3. Portanto, pelo Teorema 4.3.2, F uma funo de distribuio
acumulada. Ento, para varivel aleatria contnua, a distribuio de uma varivel aleatria
contnua X pode ser determinada tanto pela funo de distribuio acumulada FX quanto
pela sua funo densidade fX .
Uma varivel aleatria X tem densidade se FX a integral (de Lebesgue) de sua derivada;
sendo, neste caso, a derivada de FX uma funo densidade para X. Em quase todos os casos
encontrados na prtica, uma varivel aleatria X tem densidade se FX (i) contnua e (ii)
derivvel por partes, ou seja, se FX derivvel no interior de um nmero finito ou enumervel
de intervalos cuja unio IR.
Por exemplo, seja

0, se x < 0,
x2 , se 0 x < 1,
FX (x) =

1, se x 1.
Ento X tem densidade pois FX contnua e derivvel em todos os pontos da reta exceto
em {0, 1}.
Quando X uma varivel aleatria contnua,
P (X < b) =
=
=
=

FX (b) P (X = b)
FX (b) (FX (b) FX (b ))
FX (b)
P (X b).
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

81

Exemplo 4.4.6: Seja X uma varivel aleatria com densidade



2(m2 + 1)x + (k + 1)m + (k + 1)2 , 0 < x < 1,
fX (x) =
0,
x 6 (0, 1),
onde m e k so nmeros reais.
(a) Determine os valores de m e k especificando ento fX (x).
(b) Obtenha FX (x).
Soluo:
(a)
Z

(2(m2 + 1)x + (k + 1)m + (k + 1)2 )dx = 1

m2 + m(k + 1) + (k + 1)2 = 0
p
(k + 1) (k + 1)2 4(k + 1)2
.
m=
2
Como
k IR 3(k + 1)2 0 k = 1.
Logo, m = 0. Portanto,

fX (x) =

2x, 0 < x < 1,


0, x
6 (0, 1),

(b)
x < 0, FX (x) = 0,
Z x
0 x < 1, FX (x) =
2tdt = x2 ,

x > 1, FX (x) = 1.
Logo,

0, x < 0,
x2 , x [0, 1),
FX (x) =

1, x 1.

4.4.3

Varivel Aleatria Singular

Definio 4.4.7: Uma varivel aleatria X singular se FX uma funo contnua cujos
pontos de crescimento formam um conjunto de comprimento (medida de Lebesgue) nulo.
Na Seo 4.7 apresentado um exemplo de varivel aleatria singular.
Campos, Rgo & Mendona

4.4. TIPOS DE VARIVEIS ALEATRIAS

82

Figura 4.3: Grfico de funo de distribuio acumulada para uma varivel aleatria contnua

4.4.4

Varivel Aleatria Mista

Na prtica, a maioria das variveis aleatrias discreta ou contnua. Uma varivel aleatria
que possui apenas partes discreta e contnua conhecida como uma varivel aleatria mista.
Na prtica, pouco provvel que surja uma varivel aleatria singular. Portanto, quase todas
as variveis aleatrias so discretas, contnuas ou mistas.

Figura 4.4: Grfico de funo de distribuio acumulada para uma varivel aleatria mista

Exemplo 4.4.8: Exemplo de clculo de probabilidades com uma varivel aleatria mista.
Seja

0,
x < 1,

1
(x

1),
1
x < 2,
4
FX (x) =
1
,
2 x < 3,

2
1,
x 3.
(a) P (X = 0.5) = FX (0.5+ ) FX (0.5 ) = 0 0 = 0.
(b) P (X = 1.5) = FX (1.5+ ) FX (1.5 ) = 41 (1.5 1) 14 (1.5 1) = 0.
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES


(c) P (X = 2) = FX (2+ ) FX (2 ) =

1
2

1
4

= 14 .

(d) P (1 < X < 2) = FX (2) FX (1) P (X = 2) =

2
4

(e) P (1.5 X 2.5) = FX (2.5) FX (1.5) + P (X = 1.5) =


(f ) P (2 X 2.5) = FX (2.5) FX (2) + P (X = 2) =
(g) P (2 < X 3) = FX (3) FX (2) = 1

83

2
4

2
4

1
4
2
4

= 14 .
14 (0.5) + 0 = 0.35.

42 + ( 24 41 ) = 14 .

= 12 .

(h) P (2 X 3) = FX (3)FX (2)(P (X = 3)P (X = 2)) = 1 42 ((1 24 )( 24 14 )) = 41 .


(i) P (X < 3.7) = FX (3.7) P (X = 3.7) = 1 0 = 1.
(j) P (X < 2) = FX (2) P (X = 2) =

2
4

( 24 41 ) = 14 .

(k) P (X 1) = FX (1) = 41 (1 1) = 0.
(l) P (X 3) = FX (3) = 1.

4.5

Distribuies de caudas-pesadas

Definio 4.5.1: Uma varivel aleatria X segue uma distribuio de caudas-pesadas se


lim ex P (X > x) = , > 0.

Exemplo 4.5.2: Seja X tal que


fX (x) = k x(+1) , k IR+ , x k, > 0.
Ento X tem caudas-pesadas porque
k
k
FX (x) = 1 ( ) , x k P (X > x) = ( ) .
x
x
Esta a distribuio de Pareto, que ser vista no Captulo 8.
A Tabela 4.2 mostra resultados para a distribuio de Pareto, quando k = = 1 e outra
varivel aleatria2 de densidade fX (x) = ex , x > 0, a qual no tem caudas-pesadas.
Observa-se que as probabilidades da varivel que no tem caudas-pesadas rapidamente
tendem a zero. No so apenas variveis aleatrias contnuas que tm caudas-pesadas.
Segundo Fine (2006), a Zeta que discreta tambm tem caudas-pesadas. Variveis de caudaspesadas tm sido usadas na modelagem de trfego de redes de computadores porque, como
o trfego nas redes variado (som, imagem, pacotes, dados, etc) qualquer que seja a varivel
observada, esta apresentar grande variabilidade o que implica no aumento da varincia e
consequentemente probabilidades altas nas caudas da distribuio (Adler, Feldman, Taqqu,
(1998)).
2

a Exponencial que tambm ser vista no Captulo 8.

Campos, Rgo & Mendona

4.6. FUNES DE VARIVEIS ALEATRIAS

84

Tabela 4.2: Resultados: Pareto versus Exponencial.


x P (X > x) = ex
2
0.1353352...
5
0.0067397...
10
0.0000453...

P (X > x) = x1
0.5
0.2
0.1

Figura 4.5: Comparao entre distribuio Exponencial e distribuio de Pareto

4.6

Funes de Variveis Aleatrias

Muitas vezes dada a distribuio de probabilidade que descreve o comportamento de uma


varivel aleatria X definida no espao mensurvel (, A), mas o interesse na descrio de
uma funo Y = H(X). Por exemplo, X pode ser uma mensagem enviada em um canal de
telecomunicaes e Y ser a mensagem recebida.

Uma pergunta inicial : se X uma varivel aleatria X, log X, X 2 , 2X 3 so variveis


aleatrias? Se sim, (o que verdade), sendo conhecida a distribuio de probabilidade
de

X, como esse fato pode ser usado para encontrar a lei de probabilidade de X, log X, X 2
ou 2X 3?
O problema determinar P (Y C), onde C um evento Boreliano. Para determinar
essa probabilidade, a imagem inversa da funo H fundamental, ou seja, a probabilidade
do evento {Y C} ser por definio igual a probabilidade do evento {X H 1 (C)},
onde H 1 (C) = {x IR : H(x) C}. Para que esta probabilidade esteja bem definida,
preciso restringir H tal que H 1 (C) seja um evento Boreliano para todo C Boreliano,
caso contrrio no possvel determinar P ({X H 1 (C)}); uma funo que satisfaz esta
condio conhecida como mensurvel com respeito a B. Note que Y tambm pode ser
vista como uma funo do espao amostral , Y () = H(X()) para todo . Vista
dessa maneira Y uma varivel aleatria definida em (, A), pois para todo Boreliano
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

85

C, Y 1 (C) = X 1 (H 1 (C)) e como por suposio H 1 (C) Boreliano porque X uma


varivel aleatria, tem-se que X 1 (H 1 (C)) A e portanto satisfaz a definio de uma
varivel aleatria. A figura abaixo exibe os espaos mensurveis e as transformaes entre
eles.

Figura 4.6: Mapeamento realizado por funes de variveis aleatrias


Seja A = { : X() B}. Portanto, como j mencionado anteriormente, a
probabilidade induzida pela varivel aleatria X tal que
PX (B) = P (X 1 (B)) = P (A).
De forma similar, sendo
B = Y 1 (C) = {x IR : H(x) C}
ento,
PY (C) = PH(X) (C) = PX ({x IR : H(x) C}) = P ({ : H(X()) C}),
e assim,
PY (C) = PX (Y 1 (C)).
Logo,
PY (C) = PX (B) = P (A).
A funo H da varivel aleatria X define uma varivel aleatria no espao de probabilidade (IR, B, PY ), onde a medida de probabilidade PY induzida pela varivel aleatria
Y = H(X). PY est bem definida pois
Y 1 (C) = B B,
o que mostra que a imagem inversa do conjunto mensurvel C o conjunto mensurvel B.
Adicionalmente, PY satisfaz os axiomas K2, K3, e K50 porque:
(K2)
PY (C) = PX (Y 1 (C)) = PX (B) = P (X 1 (B)) = P (A) 0.
(K3)
PY (IR) = PX (Y 1 (IR)) = PX (IR) = P (X 1 (IR)) = P () = 1.
Campos, Rgo & Mendona

4.6. FUNES DE VARIVEIS ALEATRIAS

86

(K50 ) Sejam C1 , C2 , . . . , Borelianos tais que Ci Cj = , para todo i 6= j e Y 1 (Cn ) = Bn .


Ento,

PY (n Cn ) = PX (Y 1 (n Cn ))
= PX (n Bn )
X
=
PX (Bn )
n

PX (Y 1 (Cn )

PY (Cn ).

Vale ressaltar que se X for uma varivel aleatria discreta, Y = H(X) tambm o ser.
Os exemplos a seguir ilustram como calcular a distribuio de probabilidade de uma funo de varivel aleatria. Ressalta-se a importncia fundamental da funo de distribuio
acumulada, F , e de grficos para visualizar as regies C e B.
Exemplo 4.6.1: X, discreta; Y = H(X), discreta. Admita-se que X tenha os valores
possveis 1, 2, 3, . . . e que P (X = n) = (1/2)n . Seja Y = 1 se X for par e Y = 1 se X for
mpar. Determinar a distribuio de Y .
Soluo: Ento,

X
X
2n
(1/4)n =
(1/2) =
P (Y = 1) =
n=1

n=1

1/4
= 1/3.
1 1/4

Consequentemente,
P (Y = 1) = 1 P (Y = 1) = 2/3.

De modo geral, suponha que X assume os valores x1 , x2 , . . . e que H uma funo real
tal que Y = H(X) assume os valores y1 , y2 , . . .. Agrupando os valores que X assume de
acordo os valores de suas imagens quando se aplica a funo H, ou seja, denotando por
xi1 , xi2 , xi3 , . . . os valores de X tal que H(xij ) = yi para todo j, tem-se que
P (Y = yi ) = P (X {xi1 , xi2 , xi3 , . . .}) =

X
j=1

P (X = xij ) =

pX (xij ),

j=1

ou seja, para calcular a probabilidade do evento {Y = yi }, acha-se o evento equivalente


em termos de X, isto , todos os valores xij de X tal que H(xij ) = yi e somam-se as
probabilidades de X assumir cada um desses valores.
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

87

Exemplo 4.6.2: X, discreta; Y = H(X), discreta. Seja X como no exemplo anterior


e Y = H(X) = X 2 . Determinar a lei de Y .
Soluo: O contradomnio da varivel Y , RY , e as respectivas probabilidades so:
RY = {1, 4, . . . , n2 , . . .},
1
P (Y = 1) = P (X = 1) = ,
2
1
P (Y = 4) = P (X = 2) = ,
4
...
1
P (Y = n2 ) = P (X = n) = n .
2
...

Exemplo 4.6.3: X, contnua; Y = H(X), discreta. Seja fX (x) = 2x, 0 < x < 1 e
Y = H(X) definida por Y = 0 se X < 31 , Y = 1, se 13 X < 23 e Y = 2, se X 23 .
Determinar a distribuio de Y .
Soluo: Em termos de eventos equivalentes tem-se que:
1
C1 = {Y = 0} B1 = {X < },
3
1
2
C2 = {Y = 1} B2 = { X < },
3
3
2
C3 = {Y = 2} B3 = {X }.
3
Logo,
1
P (Y = 0) = P (X < ) =
3

Z
0

1
3

1
2xdx = ,
9

Z 2
3
3
1
2
2xdx = ,
P (Y = 1) = P ( < X ) =
1
3
3
9
3
Z 1
2
5
P (Y = 2) = P (X ) =
2xdx = .
2
3
9
3

Exemplo 4.6.4: X, contnua; Y = H(X), contnua. Seja a densidade de X como no


exemplo anterior e Y = H(X) = eX . Determinar a distribuio de Y .
Soluo: O evento onde a densidade de X no nula B = {0 < X < 1}.
Portanto, a densidade de Y est concentrada em C = {y = H(x) : x B} = {e1 < y <
1} e
Campos, Rgo & Mendona

4.6. FUNES DE VARIVEIS ALEATRIAS

88

P (Y y)
P (eX y)
P (X ln y)
P (X ln y)
Z 1
2xdx
=

FY (y) =
=
=
=

ln y

= 1 ( ln y)2 fY (y) =

2 ln y
.
y

Logo,

fY (y) =

2 ln y
,
y

0,

y (e1 , 1),
y 6 (e1 , 1).

Exemplo 4.6.5: Se fX (x) = 1, 0 < x < 1, e zero para quaisquer outros valores, qual a
distribuio de Y = log(X)?
Soluo: Como
0<Y <0<X<1
e P (0 < X < 1) = 1, tem-se FY (y) = 0, y 0. Se y > 0, ento
P (Y y) = P ( log(X) y) = P (X ey ) = 1 ey ,
ou seja, Y Exp(1), isto , uma Exponencial (que ser vista depois) de parmetro 1.
No exemplo a seguir X contnua e H(X) contnua. A nfase deste exemplo mostrar
o cuidado na busca dos eventos equivalentes.
Exemplo 4.6.6: Seja fX (x) = 31 x2 , 1 < x < 2 e zero para quaisquer outros valores de x.
Encontrar a funo densidade da varivel aleatria Y = X 2 .
Soluo: Portanto, como pode ser visto na figura abaixo,
1 < x < 1 0 < y < 1
e
1 x < 2 1 y < 4.
Ento,
P (Y y)
P (X 2 y)

P ( y X y)

FX ( y) FX ( y) + P (X = y)


FX ( y) FX ( y), 0 < y < 1,

=
FX ( y),
1 y < 4.

FY (y) =
=
=
=

Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

89

Figura 4.7: Mapeamento realizado por funes de variveis aleatrias


Portanto,

fY (y) =

y
,
3
y
,
6

0,

y (0, 1),
y [1, 4).
y 6 (0, 4).

No caso de X e Y serem contnuas, tem-se o teorema seguinte.


Teorema 4.6.7: Seja H uma funo diferencivel, crescente ou decrescente em um dado
intervalo I, H(I) o contradomnio de H, H 1 a funo inversa de H e X uma varivel
aleatria contnua com funo densidade fX (x) > 0, se x I e fX (x) = 0, se x 6 I. Ento,
Y = H(X) tem funo densidade de probabilidade dada por:
(
0,
y 6 H(I),
fY (y) =
dH 1 (y)
1
fX (H (y))| dy |, y H(I).
Prova:
(a) H crescente. Logo, H 1 tambm crescente em I. Portanto,

FY (y) =
=
=
=

P (Y y)
P (H(X) y)
P (X H 1 (y))
FX (H 1 (y)).
Campos, Rgo & Mendona

4.6. FUNES DE VARIVEIS ALEATRIAS

90

Logo,
d
d
dFX (H 1 (y)) dx
FY (y) = FX (H 1 (y)) =
,
dy
dy
dx
dy
onde x = H 1 (y).
Mas,
d
FY (y) = FY0 (y) = fY (y).
dy
Portanto,
dFX (H 1 (y)) dx
dH 1 (y)
= FX0 (H 1 (y))
.
dx
dy
dy
Logo,
fY (y) = fX (H 1 (y))

dH 1 (y)
, y H(I).
dy

(b) H decrescente em I. Ento H 1 tambm decrescente em I. Logo,

FY (y) =
=
=
=
=

P (Y y)
P (H(X) y)
P (X H 1 (y))
1 FX (H 1 (y)) + P (X = H 1 (y))
1 FX (H 1 (y)).

Porque P (X = H 1 (y)) = 0 e seguindo o procedimento visto em (a),


FY0 (y) = FX0 (H 1 (y))

dH 1 (y)
dy

e assim
fY (y) = fX (H

dH 1 (y)
(y))
, y H(I).
dy

Tambm pode-se utilizar o mtodo acima em outros casos em que a funo H no seja
nem crescente nem decrescente em I. Para tanto suponha que I possa ser dividido em uma
quantidade enumervel I1 , I2 , I3 , . . . de subintervalos tal que H seja crescente ou decrescente
em cada um deles, PX (Ij Ik ) = 0 e H(Ij ) = H(Ik ) para todo j 6= k. Neste caso, seja Hj1
a funo inversa de H restrita ao subintervalo Ij . Portanto,
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

91

FY (y) = P (Y y)
= P (H(X) y)
X
X
=
P (X Hj1 (y)) +
P (X Hj1 (y)).
j:Hj1 crescente
j:Hj1 decrescente
Logo, pelos resultados anteriores,
fY (y) =

fX (Hj1 (y))|

d 1
H (y)|, y H(I).
dy j

Exemplo 4.6.8: Seja X com densidade fX (x) e Y = X 2 . Ento


FY (y) =
=
=
=
=

P (Y y)
P (X 2 y)

P ( y X y)

FX ( y) FX ( y) + P (X = y)

FX ( y) FX ( y),

porque P (X = y) = 0. Logo,
d
d
d
d

FY (y) = (FX ( y) FX ( y)) = FX ( y) FX ( y).


dy
dy
dy
dy
Mas,
d
FY (y) = fY (y),
dy

dFX ( y) dx1
d

FX ( y) =
, x1 = y,
dy
dx1
dy

dFX ( y)

= fX ( y),
dx1
dx1
1
= ,
dy
2 y

dFX ( y) dx2
d

FX ( y) =
, x2 = y,
dy
dx2
dy

dFX ( y)

= fX ( y),
dx2
dx2
1
= .
dy
2 y
Campos, Rgo & Mendona

4.6. FUNES DE VARIVEIS ALEATRIAS

92

Logo,

(f ( y)
2 y X


fY (y) =

0,

+ fX ( y)), y 0,
y < 0,

Alternativamente, poderia ter sido usado o procedimento descrito anteriormente e particionar IR nos subintervalos I1 = (, 0] e I2 = [0, +). Note que PX (I1 I2 ) = 0,

H(I1 ) = H(I2 ) = [0, +), H11 (y) = y e H21 (y) = y. Portanto,


1
1

fY (y) = fX ( y) + fX ( y) , y 0.
2 y
2 y

Exemplo 4.6.9: Este exemplo mostra diversos mtodos de resolver um problema sobre
como calcular a densidade, ou distribuio acumulada, para uma dada varivel aleatria.
Seja
 1
, 1 < x < 1,
2
fX (x) =
0, x
/ (1, 1),
e Y = H(X) = X 2 . O objetivo calcular fY (y).
Como 1 < x < 1 e y = x2 , ento 0 < y < 1.
(a)
FY (y) =
=
=
=
=

P (Y y)
P (X 2 y)

P ( y X y)

FX ( y) FX ( y) + P (X = y)

FX ( y) FX ( y)

Mas,

dFY (y)
= fY (y)
dy

dFX ( y) d( y) dFX ( y) d( y)
dFY (y)
=

dy
d( y)
dy
d( y)
dy

Logo,
1
1

fX ( y) + fX ( y)
2 y
2 y
1 1
1 1
=
+
2 y2 2 y2
1
= , 0 < y < 1.
2 y

fY (y) =

Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

93

(b)
P (Y y)
P (X 2 y)

P ( y X y)

FX ( y) FX ( y) + P (X = y)

FX ( y) FX ( y)
Z y
=
fX (x)dx

FY (y) =
=
=
=
=

=
( y + y)
2

=
y.
Portanto, como fY (y) = FY0 (y), ento,
1
fY (y) = , 0 < y < 1.
2 y
(c) Usando o Teorema 4.6.7.
1 1 1
1
1

fY (y) = (fX ( y) + fX ( y)) = ( + ) = , 0 < y < 1.


2 y
2 y 2 2
2 y
(d) Calculando inicialmente FX (x).

FX (x) =

0,

x+1
,
2

1,

Mas,

FX ( y) =

x < 1,
1 x < 1,
x 1.

y+1
,
2

y+1

FX ( y) =
.
2
Logo,
FY (y) =

0,

y+1
2

1,

y+1
2

y < 0,

= y, 0 y < 1,
y 1.

Portanto, derivando,
1
fy (y) = , 0 < y < 1.
2 y

Campos, Rgo & Mendona

4.7. APRENDENDO UM POUCO MAIS

4.7

94

Aprendendo um pouco mais

O exemplo de uma varivel aleatria singular a funo de Cantor, cuja construo segue-se.
Exemplo 4.7.1: Seja

F0 (x) =

0, x < 0,
1, x > 1.

Dividindo-se o intervalo (0, 1) nos trs subintervalos (0, 13 ), ( 31 , 23 ) e ( 32 , 1) e considerando-se


como valor de F em ( 13 , 32 ) a mdia dos valores de F0 fora de (0, 1), isto , 0+1
= 12 , obtm-se
2
F1 (x):

0, x < 0,
1
, 1 < x < 23 ,
F1 (x) =
2 3
1, x > 1.
Cada tero do intervalo (0, 1) sendo dividido em trs partes equivale a dividir (0, 1) em
0+ 1
nove partes. Para o intervalo ( 91 , 29 ), o valor da F 2 2 = 14 ; para o intervalo ( 79 , 89 ), o valor
1

+1

da F 2 2 = 34 .
Este processo constri uma sequncia de funes Fn (x), n = 1, 2, , cuja funo limite,
F (x), satisfaz s propriedades F1, F2, F3. Alm disso, F uma funo contnua onde o
conjunto de pontos onde a funo cresce tem comprimento nulo. Portanto, F uma funo de
distribuio, entretanto no nem discreta, nem contnua, uma varivel aleatria singular.
Pode ser visto (James, 1981) que toda varivel aleatria uma combinao dos trs tipos:
discreta, contnua e singular; entretanto, as variveis aleatria que so comuns no mundo
real ou so discretas, ou contnuas, ou uma combinao entre esses dois tipos (mistas).
O exemplo a seguir mostra como decompor F em suas partes discreta, contnua e singular.
Exemplo 4.7.2: Suponha que X tenha densidade fX (x) = 1 para 0 < x < 1 e 0 para
quaisquer outros valores. Seja Y = min{X, 1/2}. Note que

0, x < 0,
x, 0 x < 1/2,
FY (x) =

1, x 1/2.
FY tem apenas um salto em x = 1/2 e p1 = 1/2. Logo, Fd (x) = 0 se x < 1/2 e
Fd (x) = 1/2 se x 1/2. Diferenciando FY , tem-se

0, x < 0 x > 1/2,
0
FY (x) =
1, 0 < x < 1/2.
Portanto,

x < 0,
0,
x,
0 x 1/2,
Fac (x) =
f (t)dt =

1/2, x > 1/2.


Z

Como Fd + Fac = FY , tem-se que Fs (x) = 0, x IR e no h parte singular.


Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

4.8

95

Exerccios

4.1 Seja a varivel aleatria X tal que



c(1 x2 ), 1 < x < 1,
fX (x) =
0,
x 6 (1, 1).
(a) Qual o valor de c?
(b) Qual a funo de distribuio acumulada de X?
4.2 Seja X tal que

fX (x) =

c(4x 2x2 ), 0 < x < 2,


0,
x
6 (0, 2).

(a) Qual o valor de c?


(b) Determine P ( 21 < X < 32 ) usando fX (x) e FX (x).
4.3 Resolva este exerccio usando um software adequado. Seja a funo de distribuio
acumulada da varivel aleatria X,

x < 0,
0,

(2/) sin1 ( x), 0 x < 1,


FX (x) =

1,
x 1.
Faa o grfico de FX (). Determine a funo densidade de probabilidade e faa seu
grfico.
4.4 Para cada uma das funes abaixo, faa seu grfico; verifique se uma funo densidade
de probabilidade para uma dada varivel aleatria X. Se for, encontre a funo de
distribuio acumulada e faa seu grfico.
(a) fX (x) = 6x(1 x), 0 x 1.
(b)

1 + x, 1 x 0,
1 x, 0 x 1,
fX (x) =

0,
quaisquer outros valores.
(c)

x/2,

1/2,
fX (x) =
x/2 + 3/2,

0,

0 x 1,
1 x 2,
2 x 3,
quaisquer outros valores.

4.5 Uma varivel aleatria contnua X tem funo densidade fX (x) = ex , x > 0 e
> 0.
(a) Determine a funo de distribuio acumulada de X.
Campos, Rgo & Mendona

4.8. EXERCCIOS

96

(b) Calcule as seguintes probabilidades usando a funo encontrada no item anterior:


(b1)
(b2)
(b3)
(b4)

P (X
P (X
P (X
P (X

3).
> 2).
< 1).
> 1).

4.6 Um ponto escolhido ao acaso sobre uma reta de comprimento L. Qual a probabilidade de que a razo do segmento mais curto para o mais longo seja menor que
1/2?
4.7 Uma varivel aleatria X tem densidade

x,
(1 x),
fX (x) =

0,

fX () dada por
0 x < 0.5,
0.5 x < 1,
quaisquer outros valores.

(a) Determine o valor da constante .


(b) Sejam os eventos A = {X < 0.5}, B = {X > 0.5} e C = {0.25 < X < 0.75}.
(b1) Calcule P (A | B).
(b2) Verifique se A, B e C so mutuamente independentes.
4.8 Um motorista tem que, obrigatoriamente, passar em 4 (e somente 4) semafros para
alcanar seu destino. Em cada um deles, independentemente, a probabilidade do carro
parar p. Seja uma varivel aleatria X, definida como sendo o nmero de semforos
que o carro passa antes de parar pela primeira vez. Estabelea a distribuio de
probabilidade de X. Prove que a expresso encontrada realmente uma distribuio
de probabilidade.
4.9 Em um jogo de dados, A paga R$20,00 a B e lana trs dados honestos. Se sair a face
1 em no mximo um dos dados, A ganha R$20,00 de B; se sair face 1 em dois dados
apenas, A ganha R$50,00; se sair face 1 nos trs dados, A ganha R$80,00. Determine
a distribuio de probabilidade do lucro lquido por jogada.
4.10 Seja uma varivel aleatria contnua X, com funo de densidade
fX (x) = e( | x |), com x IR e > 0.
(a) Determine a constante .
(b) Esboe o grfico de fX (x).
(c) Determine FX (x).
(d) Determine m tal que P (X m) = P (X > m).
4.11 Suponha que a funo de distribuio acumulada para uma varivel aleatria X, FX (),
fosse definida por FX (x) = P (X < x). Usando esta definio determine as seguintes
probabilidades:
Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

97

(a) P (X x).
(b) P (a X b).
(c) P (a X < b).
(d) P (a < X < b).
Sugestes: (, a] = (, a) {a}, (, a] (a, b) = (, b).
4.12 Seja fU (u) = eu , u 0. Mostre que f uma funo densidade. Encontre

R
0

ufU (u)du.

4.13 Suponhamos que dez cartas estejam numeradas de 1 at 10. Das dez cartas, retirase uma de cada vez, ao acaso e sem reposio, at retirar-se o primeiro nmero par.
Conta-se o nmero de retiradas necessrias. Exiba um bom modelo probabilstico para
este experimento.
4.14 Seja X uma varivel aleatria com densidade
 2
cx , 1 x 1,
fX (x) =
0,
caso contrrio.
(a) Determine o valor da constante c.
(b) Determine a funo de distribuio acumulada e esboe seu grfico.
(c) Ache o valor tal que FX () = 1/4. ( o primeiro quartil da distribuio de X.)
(d) Ache o valor tal que FX () = 1/2. ( a mediana da distribuio de X.)
4.15 Uma varivel aleatria X tem funo distribuio

1, x > 1,
x3 , 0 x 1,
FX (x) =

0, x < 0.
Qual a densidade de X?
4.16 Uma varivel X tem funo de distribuio

0,

x /2,
3/4,
FX (x) =

(1/4)(x + 1),

1,

x < 0,
0 x < 1,
1 x < 2,
2 x < 3,
x 3.

Determine o seguinte:
(a) P (X = 1/2);
(b) P (X = 1);
(c) P (X < 1);
Campos, Rgo & Mendona

4.8. EXERCCIOS

98

(d) P (X 1);
(e) P (X > 2);
(f ) P (1/2 < X < 5/2).
4.17 Calcule
(a) P (X > 2);
(b) P (X 0);
(c) P (X = 0);
(d) P (X < 0);
(e) P (X 0.5).
para uma varivel X que tem funo de distribuio

1 0.75ex , se x 0,
FX (x) =
0,
se x < 0.
R
4.18 Seja a probabilidade da varivel aleatria X definida por P (A) = A fX (x)dx, onde
fX (x) = cx/9, para 0 < x < 3. Sejam A1 = {x | 0 < x < 1} e A2 = {x | 2 < x < 3}.
Calcule
(a) o valor da constante c,
(b) P (A1 ),
(c) P (A2 ),
(d) P (A1 A2 ),
(e) P (A1 | A2 ).
4.19 Coloque V ou F nas sentenas abaixo:
(a) Uma varivel aleatria X s assume valores no intervalo [0, 1].

( )

(b) Se X uma varivel aleatria contnua, ento X tambm uma varivel aleatria
discreta.
( )
(c) Se X uma varivel aleatria discreta ento X no pode ser contnua.
A recproca que verdadeira.
Rx
(d) Se X uma varivel aleatria contnua, FX (x) = fX (s)ds.
(e) Se X uma varivel aleatria contnua, fX (x) =
(g) limx+ FX (x) = 0.
R
(h) P (X A) = A FX (x)dx.
R
(i) P (X A) = A fX (x)dx.

d
F (x).
dx X

( )
( )
( )
( )
( )
( )

Campos, Rgo & Mendona

CAPTULO 4. VARIVEIS ALEATRIAS UNIDIMENSIONAIS E FUNES

99

4.20 Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecionado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subsequentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quantidade de informao obtida, a qual pode ser expressa como um ganho financeiro de
c dlares. Seja T o custo lquido desse experimento. Estabelea a distribuio de
probabilidade de T .
4.21 Determine a densidade de Y = (b a)X + a, onde fX (x) = 1, se 0 < x < 1 e zero para
quaisquer outros valores.
4.22 Se X tem densidade fX (x) = e|x| /2, < x < +, qual a distribuio de
Y =| X |?
4.23 Uma varivel aleatria X tem uma densidade de probabilidade fX (x). Encontre a
funo densidade de probabilidade da varivel aleatria Y = aX + b, onde a e b so
constantes.
4.24 Uma varivel aleatria X tem uma densidade de probabilidade fX (x). Qual a funo
densidade de probabilidade da varivel aleatria Y =| 1 X |?
4.25 Uma varivel aleatria contnua X tem uma densidade de probabilidade fX (x). Considere a varivel Y = X. Encontre sua funo densidade fY (y).
4.26 Uma varivel aleatria contnua X tem uma densidade de probabilidade fX (x). Encontre a funo densidade fY (y) do seu mdulo, Y =| X |.
4.27 Uma varivel aleatria X tem uma funo distribuio FX (x), e uma varivel aleatria
Y relaciona-se com X por Y = 2 3X. Encontre a funo distribuio FY (y) da
varivel aleatria Y .
4.28 Dada uma varivel aleatria contnua X com funo densidade fX (x), encontre a distribuio da varivel aleatria

+1, X > 0,
0, X = 0,
Y = sinal de X =

1, X < 0.
4.29 Uma varivel aleatria X tem uma densidade de probabilidade correspondente a reta
que passa pelos pontos (1, 0) e (1, 1), para x (1, 1), e zero fora. Uma varivel
aleatria Y relacionada a X por Y = 1 X 2 . Encontre a funo densidade fY (y).
4.30 Uma varivel aleatria X tem densidade fX (x) = 1, no intervalo (0, 1) zero fora. Uma
varivel aleatria Y tem um relacionamento funcional monotonicamente crescente com
a varivel X tal que Y = (X). Encontre a funo distribuio FY (y) e a funo
densidade fY (y).
Campos, Rgo & Mendona

4.8. EXERCCIOS

100

4.31 Seja X uma varivel aleatria tal que P (| X 1 |= 2) = 0. Expresse P (| X 1 | 2)


em termos da funo de distribuio FX .
4.32 Seja fX (x) = 13 , 1 < x < 2 e zero para quaisquer outros valores de X. Encontre a
funo densidade da varivel aleatria Y = X 2 .
4.33 Seja X tendo funo probabilidade fX (x) = ( 12 )x , x = 1, 2, e zero para quaisquer
outros valores de X. Encontre a funo probabilidade de Y = X 3 .
4.34 Seja X tendo funo probabilidade fX (x) = x2 /9, 0 < x < 3, e zero para quaisquer
outros valores. Encontre a funo probabilidade de Y = X 3 .
2

4.35 Seja X tendo funo densidade fX (x) = 2xex , 0 < x < , e zero para quaisquer
outros valores. Determine a densidade de Y = X 2 .
4.36 Seja X uma varivel aleatria contnua com funo densidade fX (x).
(a) Encontre a funo densidade de Y = X 2 .
(b) Se fX (x) = fX (x), x, simplifique a resposta encontrada em (a).
(c) Se fX (x) = 0 quando x 0, simplifique a resposta encontrada em (a).
4.37 Uma varivel aleatria X tem funo densidade probabilidade definida por:

c + x, 1 x < 0,
c x, 0 x 1,
fX (x) =

0,
quaisquer outros casos.
(a) Calcule o valor da constante c.
(b) Seja o evento A = {x | 0.5 x 0.5}. Compute P (A).
(c) Encontre a funo de distribuio acumulada de X, FX , e usando a mesma calcule
P (X 0.5).
(d) Suponha que uma varivel Y assuma o valor 0 se X for negativa e 1, se X for
positiva ou nula. Encontre a distribuio de probabilidade dessa varivel.

Campos, Rgo & Mendona

Captulo 5
Vetores Aleatrios e Funes
5.1

Introduo

Muitas vezes na vida real, o interesse na descrio probabilstica de mais de um caracterstico numrico de um experimento aleatrio. Por exemplo, na distribuio de alturas e
pesos de indivduos de uma certa classe. Para tanto preciso estender a definio de varivel
aleatria para o caso multidimensional.
~ : IRn
Definio 5.1.1: Seja (, A, P ) um espao de probabilidade. Uma funo X
~ 1 (B) A.
chamada de um vetor aleatrio se para todo evento B, Boreliano,1 de IRn , X
~ pode-se definir uma probabilidade induzida P ~ no esDado um vetor aleatrio X,
X
n
n
pao mensurvel (IR , B ) da seguinte maneira: para todo B B n , define-se PX~ (B) =
~ 1 (B)). Por definio de vetor aleatrio, tem-se que X
~ 1 (B) = A A, ento P ~ est
P (X
X
bem definida.

5.2

Funo de Distribuio Acumulada Conjunta

~ uma maneira bsica de descrever a probabilidade induzida P ~


Para um vetor aleatrio X,
X
utilizando sua funo de distribuio acumulada conjunta.
~
Definio 5.2.1: A funo de distribuio acumulada conjunta de um vetor aleatrio X,
representada por FX~ ou simplesmente por F , definida por
FX~ (~x) = P (B~x ) = P (X1 x1 , X2 x2 , . . . , Xn xn ), ~x IRn .
A funo de distribuio acumulada FX~ satisfaz s seguintes propriedades:
Um evento Boreliano em IRn se pertence a menor -lgebra que contem todas regies da seguinte
forma: B~x = {(X1 , X2 , . . . , Xn ) : Xi xi , 1 i n}.
1

101

5.2. FUNO DE DISTRIBUIO ACUMULADA CONJUNTA

102

(F1) Se xi yi , i n, ento FX~ (~x) FX~ (~y ).


xi yi i n B~x B~y P (B~x ) P (B~y ) FX~ (~x) FX~ (~y ).
(F2) F (x1 , x2 , . . . , xn ) contnua a direita em cada uma das variveis. Por exemplo, se
ym x1 , ento
F (ym , x2 , . . . , xn ) F (x1 , x2 , . . . , xn ), quando m .
(F3a) Se para algum i n, xi , ento B~x decresce monotonicamente para o conjunto
vazio . Logo, pela continuidade monotnica de probabilidade,
lim FX~ (~x) = 0.

xi

(F3b) Se xi , ento B~x cresce monotonicamente para o conjunto {X1 x1 , . . . Xi1


xi1 , Xi+1 xi+1 , . . . , Xn xn }, ou seja a restrio em Xi removida. Ento, pode-se
escrever
lim FX~ (~x) = FX1 ,...,Xi1 ,Xi+1 ,...,Xn (x1 , . . . , xi1 , xi+1 , . . . , xn ).
xi

Portanto, a funo de distribuio acumulada conjunta de X1 , . . . , Xn1 pode ser facilmente determinada da funo de distribuio acumulada conjunta de X1 , . . . , Xn
fazendo xn . Observe que funes de distribuio acumuladas conjuntas de ordem
maiores determinam as de ordem menores, mas o contrrio no verdadeiro. Em
particular,
lim FX~ (~x) = 1.
~
x

A funo de distribuio acumulada de Xi que se obtm a partir da funo acumulada


conjunta de X1 , . . . , Xn fazendo xj para j 6= i denominada de funo de
distribuio marginal de Xi .
O prximo exemplo (James, 1996) mostra que para n 2 as propriedades F1, F2, e F3
no so suficientes para que F seja uma funo de distribuio.
Exemplo 5.2.2: Seja F0 : IR2 IR uma funo definida no plano tal que F0 (x, y) = 1
se x 0, y 0, e x + y 1, e F0 (x, y) = 0, caso contrrio. claro que F1, F2, e F3 so
satisfeitas, mas F0 no funo de distribuio de nenhum vetor aleatrio (X, Y ), porque
tem-se a seguinte contradio:
0 P (0 < X 1, 0 < Y 1)
= F0 (1, 1) F0 (1, 0) F0 (0, 1) + F0 (0, 0) = 1 1 1 + 0 = 1
O resultado acima vem de:
F0 (1, 1) = P (X 1, Y 1),
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

103

F0 (1, 0) = P (X 1, Y 0),
F0 (0, 1) = P (X 0, Y 1),
F0 (0, 0) = P (X 0, Y 0),
Logo,
F0 (1, 1) F0 (1, 0) =
=
=
=

P (X 1, Y 1) P (X 1, Y 0)
P ({X 1, Y 1}) P ({X 1, Y 0})
P ({X 1, Y 1} {X 1, Y 0})
P (X 1, 0 < Y 1).

(5.1)
(5.2)
(5.3)
(5.4)

A Frmula (5.4) decorre de P (B A) = P (B) P (A), quando A B.


De forma similar
F0 (0, 1) F0 (0, 0) = P (X 0, Y 1) P (X 0, Y 0) = P (X 0, 0 < Y 1). (5.5)
Por fim, de (5.4) e (5.5),
P (X 1, 0 < Y 1) P (X 0, 0 < Y 1) = P (0 < X 1, 0 < Y 1).

5.2.1

Vetor Aleatrio Discreto

~ um vetor aleatrio discreto se existir um conjunto enumervel {~x1 , ~x2 , . . . , } tal que
X
P (~x {~x1 , ~x2 , . . . , }) = 1. Neste caso, define-se uma funo probabilidade de massa conjunta,
ou sua distribuio de probabilidade conjunta p,
P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) = p(x1 , x2 , . . . , xn ) = p(~xi ).
Logo,
p(~xi ) 0,

p(~xi ) = 1.

i=1

5.2.2

Vetor Aleatrio Contnuo

~ = (X1 , . . . , Xn ) um vetor aleatrio e F sua funo de distribuio acumulada conSeja X


junta. Se existe uma funo f (x1 , . . . , xn ) 0 tal que
Z xn
Z x1
F (x1 , . . . , xn ) =

f (t1 , . . . , tn )dt1 . . . dtn , (x1 , . . . , xn ) IRn ,

ento f chamada de densidade conjunta das variveis aleatrias X1 , . . . , Xn , e neste caso,


~ contnuo.
X
Similar ao caso unidimensional,
n F (x1 , . . . , xn )
= f (x1 , . . . xn ).
x1 , . . . , xn
Campos, Rgo & Mendona

5.3. DISTRIBUIES MARGINAIS E CONDICIONAIS

5.3

104

Distribuies Marginais e Condicionais

Definio 5.3.1: A funo probabilidade de massa marginal ou a distribuio de probabilidade marginal de Xi


X
XX
X
pXi (xi ) =

p(x1 , . . . , xn ).
x1

xi1 xi+1

xn

Definio 5.3.2: A densidade marginal de Xi


Z
Z
fXi (xi ) =

f (x1 , . . . , xn )dx1 . . . dxi1 dxi+1 . . . dxn .

A seguir ser visto como calcular probabilidades condicionais envolvendo variveis aleatrias.
Definio 5.3.3 : Sejam X e Y variveis aleatrias com distribuio de probabilidade
conjunta P (X = xi , Y = yj ) = p(xi , yj ), (i, j) pertencente ao contradomnio de (X,Y).
Ento, a distribuio condicional de X dada Y = yj , P (X = x | Y = yj ),
P (X = xi | Y = yj ) =

P (X = xi , Y = yj )
p(xi , yj )
=
= pX|Y (xi |yj ), pY (yj ) > 0.
P (Y = yj )
pY (yj )

(5.6)

O leitor pode fazer uma analogia com a definio de probabilidade condicional vista
anteriormente. Facilmente observa-se que (5.6) uma probabilidade:
(i) P (X = xi | Y = yj ) 0, porque quociente de probabilidades.
(ii)
P (X IR, Y = yj )
P (Y = yj )
P (Y = yj )
=
= 1.
P (Y = yj )

P (X IR | Y = yj ) =

(iii)
P (
i=1 {X = xi } | Y = yj ) =
=
=
=
=

P ((
i=1 {X = xi }) {Y = yj })
P (Y = yj )

P (i=1 ({X = xi } {Y = yj }))


P (Y = yj )

P (i=1 {X = xi , Y = yj })
P (Y = yj )
P
i=1 P (X = xi , Y = yj )
P (Y = yj )

X
P (X = xi | Y = yj ).
i=1

Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

105

Analogamente,
P (Y = yj | X = xi ) =

P (X = xi , Y = yj )
.
P (X = xi )

Quando as variveis aleatrias X e Y so contnuas, o fato de P (Y = y) = 0, y em (5.6)


torna necessria a adio de um conceito novo na definio das probabilidades condicionais.
Para resolver este caso, ser utilizado um argumento de limites. Suponha que o objetivo
seja definir P (X x|Y = y), onde Y uma varivel contnua. Por exemplo, X poderia ser
alturas de indivduos e Y seus respectivos pesos; ento {Y = y} significa que o peso est
fixo e P (X x|Y = y) implica em mensurar todas as alturas menores ou iguais a x para o
peso fixo em y. Deste modo, suponha que exista um intervalo I de comprimento contendo
y em seu interior. P (X x|Y = y) pode ser aproximada por
P (X x|Y I) =

P (X x, Y I)
,
P (Y I)

esta probabilidade est bem definida desde que P (Y I) > 0. Caso P (Y I) = 0,


para algum intervalo contendo y, a definio da probabilidade P (X x|Y = y) pode ser
arbitrria, pois tal valor y nunca ocorrer. Esta aproximao ser to melhor quanto menor
for . Desta forma, pode-se definir P (X x|Y = y) como sendo o limite P (X x|Y I)
quando tende a zero. Assumindo que (X, Y ) possui densidade conjunta f (x, y), tem-se:
P (X x, Y I)
= lim
P (X x|Y = y) = lim
0
0
P (Y I)

Rx R

RyI
yI

f (x, y)dydx
f (y)dy

Supondo f (x, y) contnua na regio em que y I,


Rx
P (X x|Y = y) = lim

f (x, y)dx
=
f (y)

f (x, y)
dx.
f (y)

Desta forma, definindo P (X x|Y = y) como a funo de distribuio acumulada


condicional de X dado Y = y, FX|Y (x|y), como uma densidade a derivada da distribuio
acumulada, ento,
Definio 5.3.4: A densidade condicional de X dada Y = y :
(
f (x | y) =

f (x,y)
,
fY (y)

0,

(x, y) IR2 , y, fixo, e fY (y) > 0,


quaisquer outros valores,

A expresso acima uma densidade pois:


(i) f (x | y) 0, (x, y) porque quociente de densidades.
Campos, Rgo & Mendona

5.3. DISTRIBUIES MARGINAIS E CONDICIONAIS

106

(ii)
Z

f (x | y)dx =

f (x, y)dx
fY (y)
Z +
f (x, y)dx

1
fY (y)
fY (y)
= 1.
=
fY (y)

De forma similar,
(
f (y | x) =

f (x,y)
,
fX (x)

0,

(x, y) IR2 , x, fixo, e fX (x) > 0,


quaisquer outros valores,

Exemplo 5.3.5: A Tabela 5.1 contm a distribuio de probabilidade do sistema (X, Y ),


onde as variveis aleatrias X e Y representam, respectivamente, o nmero de itens em bom
estado e o nmero de itens em perfeito estado. Encontre as distribuies marginais e as
condicionais.
Tabela 5.1: P (X = j, Y = i).
j , i
0
1
2
3

0
0.202
0
0
0

1
0.174
0.099
0
0

2
0.113
0.064
0.031
0

3
0.062
0.040
0.025
0.001

4
0.049
0.031
0.018
0.002

5
0.023
0.020
0.013
0.004

6
0.004
0.006
0.008
0.011

Soluo: A Tabela 5.2 mostra as distribuies marginais, onde, usualmente, so exibidas.


Tabela 5.2: P (X = j, Y = i) com marginais.
j , i
0
1
2
3
P (X = j)

0
0.202
0
0
0
0.202

1
0.174
0.099
0
0
0.273

2
0.113
0.064
0.031
0
0.208

3
0.062
0.040
0.025
0.001
0.128

4
0.049
0.031
0.018
0.002
0.100

5
0.023
0.020
0.013
0.004
0.06

6
0.004
0.006
0.008
0.011
0.029

P (Y = i)
0.627
0.260
0.095
0.018
1

Algumas marginais:
P (X = 0 | Y = 0) =

0.202
= 1,
0.202
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

107

0.040
= 0.312,
0.128
0.008
P (Y = 6 | X = 2) =
= 0.038,
0.208
0.006
= 0.022.
P (Y = 6 | X = 1) =
0.273
P (X = 1 | Y = 3) =

Exemplo 5.3.6: Determine as densidades marginais fX (x) e fY (y) e as densidades condicionais: de X dada Y , f (x | y), e de Y dada X, f (y | x) quando

x + y, 0 x 1, 0 y 1,
f (x, y) =
0,
caso contrrio.
Soluo: Obtendo as densidades marginais,
Z 1
1
(x + y)dy = x + , se 0 x 1,
fX (x) =
2
0
Z 1
1
(x + y)dx = y + , se 0 y 1.
fY (y) =
2
0
Logo, as densidades condicionais so:
f (x|y) =

x+y
, se 0 x 1, 0 y 1,
y + 12

f (y|x) =

x+y
, se 0 x 1, 0 y 1.
x + 12

Exemplo 5.3.7: Determine as densidades marginais fX (x) e fY (y) e as densidades condicionais: de X dada Y , f (x | y), e de Y dada X, f (y | x) quando
 (x+y)
e
, x 0, y 0,
f (x, y) =
0,
caso contrrio.
Soluo: Obtendo as densidades marginais,
Z
fX (x) =
e(x+y) dy = ex , se x 0,
0

Z
fY (y) =

e(x+y) dx = ey , se y 0.

Logo, as densidades condicionais so:


f (x|y) = ex , se x 0, y 0,
f (y|x) = ey , se x 0, y 0.

Campos, Rgo & Mendona

5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS

5.4

108

Independncia entre Variveis Aleatrias

Sejam X1 , X2 , . . . , Xn variveis aleatrias definidas no mesmo espao de probabilidade (, A, P ).


Informalmente, as variveis aleatrias Xi s so independentes se, e somente se, quaisquer
eventos determinados por qualquer grupo de variveis aleatrias distintas so independentes; por exemplo, [X1 < 5], [X2 > 9], e [0 < X5 3] so independentes. Formalmente,
Definio 5.4.1: Um conjunto de variveis aleatrias {X1 , . . . , Xn } mutuamente independente se, e somente se, para quaisquer eventos Borelianos B1 , . . . , Bn ,
P (X1 B1 , . . . , Xn Bn ) =

n
Y

P (Xi Bi ).

i=1

O prximo teorema estabelece trs critrios para provar que um conjunto de variveis
aleatrias mutuamente independente.
Teorema 5.4.2 : As seguintes condies so necessrias e suficientes para testar se um
conjunto {X1 , . . . , Xn } de variveis aleatrias mutuamente independente:
(i) FX~ (~x) =

Qn

i=1

FXi (xi ).

~ for um vetor aleatrio discreto,


(ii) Se X
pX~ (~x) =

n
Y

pXi (xi ).

i=1

~ for um vetor aleatrio contnuo,


(iii) Se X
fX~ (~x) =

n
Y

fXi (xi ), (x1 , . . . , xn ) IRn .

i=1

Prova:
(i) Se {X1 , . . . , Xn } so variveis aleatrias mutuamente independentes, ento

FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = P (X1 x1 , . . . , Xn xn )


n
n
Y
Y
=
P (Xi xi ) =
FXi (xi ), (x1 , . . . , xn ).
i=1

i=1

A prova da suficincia foge ao escopo deste livro (Burrill, (1972); Shiryayev, (1984)).
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

109

(ii) Se {X1 , . . . , Xn } so variveis aleatrias mutuamente independentes, ento

pX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = P (X1 = x1 , . . . , Xn = xn )


n
n
Y
Y
=
P (Xi = xi ) =
pXi (xi ), (x1 , . . . , xn ).
i=1

i=1

Reciprocamente, se a funo de probabilidade de massa conjunta fatora e se {xi1 , xi2 ,


. . . , xin , . . .} so os possveis valores assumidos pela varivel aleatria Xi , ento

P (X1 B1 , X2 B2 , . . . , Xn Bn ) =

i:x1i B1

X
i:x1i B1
n
Y

P (X1 = x1i , . . . , Xn = xni )

i:xni Bn

i:x1i B1

X
X

pX1 ,...,Xn (x1i , . . . , xni )

i:xni Bn

n
X Y

pXj (xji )

i:xni Bn j=1

P (Xj Bj ).

j=1

(iii) Consequncia direta de (i) e da definio de funo densidade.

fcil observar utilizando a definio de probabilidade condicional que se X e Y so


independentes, ento para todo A e B boreliano tal que P (Y B) > 0,
P (X A|Y B) = P (X A),
ou seja, se X e Y so independentes o conhecimento do valor de Y no altera a descrio
probabilstica de X.
Sobre como obter densidades conjuntas
(i) Encontrar a densidade conjunta do vetor (X, Y ), por exemplo, pode ser no-trivial. A
dificuldade inicial reside no fato de qual funo f (x, y) propor para densidade e como
calcular seus parmetros. Neste caso, mtodos numricos tm de ser usados.
(ii) Se as variveis X1 , . . . , Xn forem independentes, ento, como visto anteriormente, fcil
encontrar a densidade conjunta pois esta o produto das marginais, isto ,
f (x1 , . . . , xn ) = fX1 (x1 ) . . . fXn (xn ).
Campos, Rgo & Mendona

5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS

110

(iii) Se for factvel supor que todos os pontos de uma dada regio R IRn estejam uniformemente dispostos em R, ento a densidade conjunta constante em R e sendo assim
pode ser definida por

f (x1 , . . . , xn ) =

vol R
0,

, (x1 , . . . , xn ) R,
caso contrrio.

Se n = 1, vol R o comprimento do intervalo, isto , neste caso R = [a, b], vol R = ba


1
que a uniforme no intervalo [a, b]. Se n = 2, vol R = rea de R.
e fX (x) = ba
Exemplo 5.4.3: Uma varivel aleatria contnua tem funo densidade conjunta f (x, y) =
15x2 y definida no tringulo (0,0), (1,0) e (0,2). Determine as densidades marginais e verifique
se X e Y so independentes.
Soluo: Obtendo as densidades marginais,
Z 22x
15x2 ydy = 30x2 (x 1)2 , se 0 x 1,
fX (x) =
0

Z
fY (y) =

2y
2

15x2 ydx =

5y(2 y)3
, se 0 y 2.
8

Como f (x, y) 6= fX (x)fY (y), as variveis aleatrias no so independentes.


Exemplo 5.4.4 : Suponha a seguinte distribuio de probabilidade conjunta do vetor
(X, Y ) onde somente as probabilidades abaixo so no-nulas,
P (X = 1, Y = 2) = P (X = 1, Y = 3) = P (X = 1, Y = 4) = 1/6,
P (X = 2, Y = 3) = P (X = 2, Y = 4) = 1/6,
P (X = 3, Y = 4) = 1/6.
(a) Estabelea a distribuio de probabilidade da varivel X.
Soluo: P (X = 1) = 36 , P (X = 2) = 26 , P (X = 3) = 61 , P (X = k) = 0, k 6= 1, 2, 3.
(b) Verifique se X e Y so independentes.
Soluo: P (X = 2) = 26 , P (Y = 2) = 61 , ento, (i, j) = (2, 2) pertencente ao
contradomnio de (X, Y ) tal que P (X = i, Y = j) 6= P (X = i)P (Y = j). Portanto X
e Y no so independentes.
Exemplo 5.4.5: Considere uma amostra aleatria de tamanho 2 tirada de um conjunto
de 10 aplicaes entre as quais tem-se 2 telnet, 1 ftp, 2 teleconferncia, 3 web e 2 correio
eletrnico. Definindo as variveis aleatrias X1 e X2 como se segue: para k = 1, 2, Xk =
1 ou Xk = 0, se, respectivamente, a k-sima aplicao web, ou no. Descrever a lei
de probabilidade conjunta do vetor (X1 , X2 ) e as distribuies marginais se a amostra foi
retirada
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

111

(a) sem reposio;


Soluo:

P (X1 = i, X2 = j)
i , j
0
1
P (X1 = i)

P (X2 = j)

42
90
21
90
63
90

21
90
6
90
27
90

63
90
27
90

7
10
7
P (X1 = 0, X2 = 1) =
10
3
P (X1 = 1, X2 = 0) =
10
3
P (X1 = 1, X2 = 1) =
10
P (X1 = 0, X2 = 0) =

6
9
3

9
7

9
2

42
.
90
21
= .
90
21
= .
90
6
= .
90
=

(b) com reposio.


Soluo:

P (X1 = i, X2 = j)
i , j
0
1
P (X1 = i)

P (X2 = j)

49
100
21
100
70
100

21
100
9
100
30
100

70
100
30
100

7
10
7
P (X1 = 0, X2 = 1) =
10
3
P (X1 = 1, X2 = 0) =
10
3
P (X1 = 1, X2 = 1) =
10
P (X1 = 0, X2 = 0) =

1
7
10
3

10
7

10
3

10

49
.
100
21
=
.
100
21
=
.
100
9
=
.
100
=

Campos, Rgo & Mendona

5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS

112

Exemplo 5.4.6: Um programa composto de dois mdulos cujos tempos de execuo X


e Y so variveis aleatrias independentes uniformemente distribudas sobre {1, 2, , n}.
(a) Encontre a distribuio conjunta do vetor (X, Y ).
Soluo:
P (X = i, Y = j) =

1
, i, j = 1, 2, . . . , n.
n2

(b) Calcule P (X = Y ), P (X Y ) e P (X + Y 3).


Soluo:
P (X = Y ) = P (X = 1, Y = 1) + + P (X = n, Y = n) = n
P (X Y ) =

1
1
= .
2
n
n

n
n1
1
n+1
+
+ + 2 =
.
2
2
n
n
n
2n

P (X + Y 3) = 1 P (X + Y < 3) = 1 P (X = 1, Y = 1) = 1

n2 1
1
=
.
n2
n2

Exemplo 5.4.7: Sejam X e Y variveis aleatrias discretas independentes tais que P (X =


k) = P (Y = K) = 2k , para k = 1, 2, ,. Calcule
(a) P (X = Y ).
Soluo:
1
P (X = Y ) = P (X = 1, Y = 1) + P (X = 2, Y = 2) + = 22 + 24 + = .
3
(b) P (X > Y ).
Soluo: P (X > Y ) + P (X < Y ) + P (X = Y ) = 1. Mas, P (X > Y ) = P (X < Y ).
Logo,
2P (X > Y ) + P (X = Y ) = 2P (X > Y ) +

1
1
= 1 P (X > Y ) = .
3
3

Exemplo 5.4.8: Sejam X e Y variveis aleatrias tendo distribuio de probabilidade


conjunta dada por
X , Y
-2
1
3

-1
0
2
6
1/9 1/27 1/27 1/9
2/9
0
1/9 1/9
0
0
1/9 4/27

Determine
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

113

(a) a probabilidade de XY = 2;
Soluo:
P (XY = 2) = P (X = 2, Y = 1) + P (X = 1, Y = 2) = 2/9.
(b) as distribuies marginais;
Soluo:
X , Y
-2
1
3
P (Y = j)

-1
0
2
6
1/9 1/27 1/27 1/9
2/9
0
1/9
1/9
0
0
1/9 4/27
3/9 1/27 7/27 10/27

P (X = i)
8/27
4/9
7/27
1

(c) X e Y so independentes?
Soluo: No porque P (X = 3, Y = 1) = 0 6= P (X = 3)(P (Y = 1).
Exemplo 5.4.9: Seja o vetor aleatrio (X, Y ) uniformemente distribudo na regio R(X,Y ) =
{(x, y) | x > 0, y > 0, x + y < 1}. Calcule
(a) a conjunta f (x, y);
Soluo:

f (x, y) =

2, 0 < x < 1, 0 < y < 1 x,


0, caso contrrio.

(b) a densidade da varivel aleatria X;


Soluo:
Z

x+1

2dy = 2(1 x), 0 < x < 1.

fX (x) =
0

(c) a densidade da varivel aleatria Y ;


Soluo:
Z

y+1

2dx = 2(1 y), 0 < y < 1.

fY (y) =
0

(d) Verifique se X e Y so independentes.


Soluo:
fX (x)fY (y) = 2(1 x)2(1 y) 6= 2 = f (x, y).
X e Y no so independentes.
Exemplo 5.4.10 :
Considere a varivel aleatria bidimensional (X, Y ) uniformemente
distribuda na regio poligonal T de vrtices (-2,0), (2,0), (1,1) e (-1,1).
Campos, Rgo & Mendona

5.4. INDEPENDNCIA ENTRE VARIVEIS ALEATRIAS

114

(a) Determine a funo de densidade de probabilidade conjunta f (x, y).


Soluo:

f (x, y) =

1
,
3

(x, y) T,
0, caso contrrio.

(b) Determine a funo de densidade de probabilidade marginal fX (x).


Soluo:
R1 1
R0 3 dy = 31 ,
2|x| 1
fX (x) =
dy =
3
0
0,

2|x|
,
3

0 | x | 1,
1 | x | 2,
caso contrrio.

(c) Determine a funo de densidade de probabilidade marginal fY (y).


Soluo:
( R
2y
fY (y) =

1
dx
(2y) 3

0,

= 23 (2 y), 0 < y < 1,


caso contrrio.

(d) Verifique se X e Y so variveis aleatrias independentes.


Soluo: f (x, y) =

1
3

6= fX (x)fY (y). Portanto, X e Y no so independentes.

Exemplo 5.4.11: Seja



f (x, y) =

2, 0 < x < y, 0 < y < 1,


0, quaisquer outros casos,

a funo densidade conjunta do vetor aleatrio (X, Y ).


(a) Calcule as densidades das variveis aleatrias X e Y .
Soluo:
Z

f (x, y)dy = 2(1 x), 0 < x < 1.

fX (x) =
x

f (x, y)dx = 2y, 0 < y < 1.

fY (y) =
0

(b) X e Y so independentes? Justifique sua resposta.


Soluo: fX (x)fY (y) = 2(1 x)2y 6= 2 = f (x, y). No so independentes.
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

5.5

115

Funes de Vetores Aleatrios

O objetivo nesta seo , considerando o vetor aleatrio (X, Y ) onde X e Y so variveis


aleatrias definidas no mesmo espao de probabilidade (, A, P ), encontrar a distribuio
de probabilidade de Z = H(X, Y ) sendo H uma funo real tal que seu domnio contm os
contradomnios de X e Y , respectivamente, RX e RY .
Quando necessrio, os resultados sero mostrados para vetores n-dimensionais, quando
no, para vetores bidimensionais. J um bom comeo entender o procedimento para n = 2.
~ um vetor aleatrio discreto. Se Y~ = H(X)
~ e sendo
Considere primeiro o caso em que X
~ tal que H(~xij ) = ~yi para todo j. Ento,
~xi1 , ~xi2 , ~xi3 , . . . os valores de X
~ {~xi1 , ~xi2 , ~xi3 , . . .}) =
P (Y~ = ~yi ) = P (X

~ = ~xij ) =
P (X

j=1

pX~ (~xij ),

j=1

ou seja, para calcular a probabilidade do evento {Y~ = ~yi }, acha-se o evento equivalente
~ isto , todos os valores ~xij de X
~ tal que H(~xij ) = ~yi e somam-se as
em termos de X,
~ assumir cada um desses valores.
probabilidades de X
Seja agora o caso em que (X, Y ) e Z = H(X, Y ) so contnuos. Fixado z, a soluo geral
do problema :

FZ (z) = P (Z z)
= P (H(X, Y ) z)
= P ((X, Y ) Bz )
Z Z
=
f (x, y)dxdy,
Bz

onde Bz IR2 , Bz B 2 , isto , Bz um elemento da -lgebra de Borel sobre IR2 ,


Bz = {(x, y) : H(x, y) z}.
Se for possvel obter uma funo g 0 tal que
Z Z

f (x, y)dxdy =

g(v)dv

Bz

ento,
g() = fZ (),
isto , g a densidade de Z, fZ ().
O que ser feito a seguir como usar este resultado para encontrar a distribuio da
soma, produto e quociente de X e Y .
Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

5.5.1

116

Distribuio de Z = X + Y

Seja Z = X + Y e z fixo. Ento,

Bz = {(x, y) : x + y z}
= {(x, y) : < x < +, < y z x}.

Figura 5.1: Regio Bz

Z Z
f (x, y)dxdy

FZ (z) =
Z

Bz
+ Z zx

f (x, y)dy)dx.

Fazendo uma mudana de varivel na integral interna:


y = v x dy = dv.
Como y z x ento v x z x v z. Logo, < v z < + e portanto v
varia de a z. Assim.
Z

Z z Z
=
(

f (x, v x)dv)dx

FZ (z) =

Logo, g(v) =

R +

f (x, v x)dx)dv.

f (x, v x)dx e
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

117

f (x, z x)dx, < z < +.

fZ (z) = fX+Y (z) =

(5.7)

Se X e Y forem independentes (5.7) torna-se


Z

fX (x)fY (z x)dx, < z < +.

fX+Y (z) =

(5.8)

De (5.8) tem-se que a densidade da soma de duas variveis aleatrias independentes a


convoluo das densidades marginais.
Se X e Y forem independentes e no-negativas (5.7) torna-se
Z z
fX (x)fY (z x)dx, z > 0.
fX+Y (z) =
0

Exemplo 5.5.1: Suponha que X e Y tm densidade valendo 1 no intervalo [0,1] e que so


independentes. Encontrar a densidade de S = X + Y .
Soluo: Do problema sabe-se que
fX (x) = 1, 0 x 1
e
fY (y) = 1, 0 y 1.
Seja S = X + Y . Logo,
Z
fS (s) =

fX (x)fY (s x)dx, 0 x 1, 0 y 1.

Como 0 x 1 e 0 y 1 ento
0 x 1 0 s x 1 0 x 1 s 1 x s.
A Figura 5.2 ilustra as situaes possveis para s.

Figura 5.2: Situaes possveis para s

(a) s 1 0 0 s 1 0 s 1.
(b) 0 s 1 1 s 1 0 < s 2 s 1 1 s 2.
Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

118

Se 0 s 1 ento 0 x s; se 1 s 2, ento s 1 x 1. Logo,


Z s
dx = s, 0 s 1,
fS (s) =
0

dx = 2 s, 1 s 2.

fS (s) =
s1

Concluindo,

0 s 1,
s,
2 s, 1 s 2,
fS (s) =

0,
quaisquer outros valores.

Figura 5.3: Convoluo de 2 uniformes

Exemplo 5.5.2: Sejam X e Y com densidade conjunta dada por


f (x, y) = e(x+y) , x 0, y 0.
Encontre a densidade de V = X + Y .
Soluo:
Z

f (x, v x)dx.

fV (v) =

Mas, v x 0 x v e e(x+y) = ex e(vx) = ev . Logo


Z v
fV (v) =
ev dx = vev , v 0.
0

Exemplo 5.5.3: Se as variveis aleatrias X1 e X2 so independentes e identicamente


distribudas com a densidade
 t
te ,
t 0,
f (t) =
0, t < 0,
encontre a densidade de S = X1 + X2 .
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

119

Soluo:
fX1 (x1 ) = x1 ex1 , x1 0,
fX2 (x2 ) = x2 ex2 , x2 0.
Logo,
Z

fX1 (x1 )fX2 (s x1 )dx1 , s 0.

fS (s) =

Mas, x1 0 e s x1 0 s x1 . Logo, 0 x1 s. Portanto,


s

fX1 (x1 )fX2 (s x1 )dx1

fS (s) =
0
s

x1 ex1 (s x1 )e(sx1 ) dx1

0
s 3

e s
.
6

Como s x1 e x1 0 ento s 0. Assim,


fS (s) =

es s3
, s 0.
6

Exemplo 5.5.4: Sejam X e Y variveis aleatria independentes e identicamente distribudas com densidade f (t) = et , t 0. Encontre a densidade de S = X + Y .
Soluo:
fX (x) = ex , x 0,
fY (y) = ey , y 0,
logo,
+

fX (x)fY (s x)dx, s 0.

fS (s) =
0

Entretanto, de x 0 e s x 0 o que implica que s x tem-se que 0 x s. Portanto,


Z
fS (s) =

ex e(sx) dx = ses .

Logo,
fS (s) = ses , s 0.

Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

120

Figura 5.4: Grfico de fS (s)

5.5.2

Distribuio de Z = XY

Seja Z = XY , isto , H(X, Y ) = XY . Fixando z, ento


Bz = {(x, y) : xy z}.
Se

z
,
x
z
x < 0, xy z y .
x
x > 0, xy z y

Logo,
Bz = {(x, y) : < x < 0 y

z
z
} {(x, y) : 0 < x < + y } = B1 B2 .
x
x

Figura 5.5: Regies B1 e B2 para z = xy, onde z > 0


Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

121

Figura 5.6: Regies B1 e B2 para z = xy, onde z < 0


Ento
Z Z
FZ (z) =

f (x, y)dxdy
Bz

f (x, y)dy)dx +
z
x

Z
(

z
x

f (x, y)dy)dx.

Fazendo uma mudana de varivel na integral interna:


y=

1
v
dy = dv.
x
x

Substituindo o valor de y em B1 e B2 ,
v
z
v z z v < +,
x
x
v
z
v z < v z.
x
x
Logo,
Z
Z + Z z
v 1
v 1
(
f (x, ) dv)dx +
(
f (x, ) dv)dx
x x
x x
z
0

Z 0 Z z
Z 0 Z z
1
v
1
v
(
( )f (x, )dv)dx +
(
f (x, )dv)dx
x
x
x

x
Z + Z z
1
v
(
| | f (x, )dx)dv
x

x
Z z Z +
1
v
(
| | f (x, )dx)dv.
x
x

Z
FZ (z) =
=
=
=

Portanto,
Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS


+

fXY (z) =

122

1
z
| f (x, )dx, < z < +.
x
x

(5.9)

Se X e Y forem independentes, de (5.9) tem-se


Z +
1
z
fXY (z) =
| | fX (x)fY ( )dx, < z < +.
x
x

Se X e Y forem independentes e no-negativas,


Z +
1
z
fXY (z) =
fX (x)fY ( )dx, z > 0.
x
x
0
Exemplo 5.5.5: Seja f (x, y) = 1, 0 x 1, 0 y 1. Determinar a densidade de
Z = XY .
Soluo: Como z = xy ento y = xz ou x = yz . Adicionalmente,
0x10x=

z
1,
y

0y10y=

z
1
x

e portanto, z x 1. Logo,
1

Z
fZ (z) =
z

Distribuio de Z =

5.5.3
Seja Z =

Y
X

1
z
f (x, )dx = lnz, 0 < z < 1.
x
x

Y
X

e z fixo. Logo
Bz = {(x, y) :

y
z}.
x

Se,
y
z y xz,
x
y
x < 0, z y xz.
x

x > 0,

Portanto,
Bz = {(x, y) : < x < 0 y xz} {(x, y) : 0 < x < + y xz}
= B1 B2 .
Ento,
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

123

Figura 5.7: Regies B1 e B2 para z = xy , onde z > 0

Figura 5.8: Regies B1 e B2 para z = xy , onde z < 0

Z Z
Fz (z) =

f (x, y)dxdy
Bz

f (x, y)dy)dx +
xz

Z
(

xz

f (x, y)dy)dx.

Fazendo uma mudana de variveis na integral mais interna e substituindo no valor de y


em Bz tem-se:
y = xv dy = xdv
e
xv xz v z z v < +,
xv xz v z < v z.
Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

124

Assim,
Z + Z z
Z
xf (x, xv)dv)dx
(
xf (x, xv)dv)dx +
(

0
z
Z + Z z
Z 0 Z z
(
(x)f (x, xv)dv)dx +
(
xf (x, xv)dv)dx

0

Z + Z z
(
| x | f (x, xv)dv)dx

Z z Z +
(
| x | f (x, xv)dx)dv

Z
FZ (z) =
=
=
=

Logo,
Z

| x | f (x, xz)dx, < z < +.

f Y (z) =
X

Se X e Y forem independentes,
Z

| x | fX (x)fY (xz)dx, < z < +.

f Y (z) =
X

Se X e Y forem independentes e no-negativas,


Z
X

xfX (x)fY (xz)dx, z > 0.

f Y (z) =
0

Exemplo 5.5.6: Sejam X e Y com densidade conjunta dada por


f (x, y) = e(x+y) , x 0, y 0.
Encontre a densidade de U = X/Y .
Soluo: U = X/Y X = U Y. Logo, x = uy dx = ydu. Tambm, e(x+y) = ex ey =
euy ey = ey(1+u) . Portanto,
Z

Z
| y | f (uy, y)dy =

fX/Y (u) =

yey(1+u) dy =

1
, u 0.
(1 + u)2

Exemplo 5.5.7: Duas pessoas marcam um encontro em determinado lugar entre 12:00
e 13:00. Cada uma chega, na hora marcada, ao encontro independentemente e com uma
densidade constante. Ficou acertado entre ambas que nenhuma delas esperar mais do que
15 minutos pela outra. Determinar a probabilidade de se encontrarem.
Soluo: Este problema ser resolvido de trs formas distintas. A figura a seguir ilustra a
regio de encontro, E, de ambas.
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

125

Figura 5.9: Regio de encontro E


1. Usando probabilidade geomtrica.
O quadrado de vrtices (0,0), (0,1), (1,0) e (1,1) tem lado 1, consequentemente rea
7
. Logo, a probabilidade de que
S = 1. A regio do encontro tem rea 1 ( 34 )2 = 16
7
ambas se encontrem 16 .
2. Usando densidade conjunta.
Sejam X e Y , respectivamente, os tempos de chegadas das duas pessoas. De acordo
com os dados do problema, como entre 12:00 e 13:00 tem-se uma hora,
X U (0, 1)
e
Y U (0, 1).
Como X e Y so independentes,

f (x, y) = fX (x)fY (y) =

1, 0 < x < 1, 0 < y < 1,


0, quaisquer outros valores.

A probabilidade de se encontrarem em E dada por:

Z Z
P (E) =

f (x, y)dxdy
Z

ZE

Z Z

Z Z

f (x, y)dxdy +
R1

f (x, y)dxdy +
R2

f (x, y)dxdy.
R3

Portanto,
Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

126

Figura 5.10: Regies R1 , R2 e R3

Z Z

1
4

Z
f (x, y)dxdy =

R1

Z Z
f (x, y)dxdy =

dy)dx =

4
,
16

dy)dx =

3
.
32

x 41
1

Z
f (x, y)dxdy =

(
3
4

R1

3
,
32

x+ 14

Z
(

1
4

R2

dy)dx =

0
3
4

Z Z

x+ 14

Z
(

x 41

Logo,
P (E) =

3
4
3
7
+
+
= .
32 16 32
16

3. Usando funo de vetor aleatrio.


Como visto anteriormente no exemplo R(5.5.1), a densidade de S = X + Y , quando
+
X U (0, 1) e Y U (0, 1) fS (s) = fX (x)fY (s x)dx. O problema proposto
consiste em calcular
1
P (| X Y | ),
4
assim, a distribuio de interesse em
Z = X Y.
Por simetria, fcil supor que
Z
fZ (z) =

fX (x)fY (x z)dx
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

127

pois z = x y y = x z.
De acordo com os dados do problema, o integrando ser no nulo quando
0 x 1 0 x z 1.

(5.10)

0x1 z xz+1

(5.11)

De (5.10) tem-se que

A partir de (5.11) tem-se as seguintes situaes:

Figura 5.11: Situaes possveis para a variao de x


(a) z 0 0 z + 1 1 z 0 1 z 0 1 z 0.
(b) 0 z 1 z + 1 0 z 1 z 0 0 z 1.
Em (a) x toma valores entre 0 e z + 1; em (b) x varia de z a 1. Logo,
z+1

1dx = 1 + z, 1 z 0,

fZ (z) =
0

1dx = 1 z, 0 z 1.

fZ (z) =
z

Portanto,

1 + z, 1 z 0,
1 z, 0 < z 1,
fZ (z) =

0,
quaisquer outros valores.
fcil ver

R1
1

fZ (z)dz = 1. A probabilidade pedida :


1
1
1
P (| X Y | ) = P ( Z )
4
4
4
Z 0
Z 1
4
=
(1 + z)dz +
(1 z)dz
14

7
=
.
16

Campos, Rgo & Mendona

5.5. FUNES DE VETORES ALEATRIOS

5.5.4

128

Jacobiano de uma Funo

Os resultados vistos anteriormente sobre a distribuio da soma, produto e quociente de


variveis aleatrias tambm poderiam ter sido obtidos via Jacobiano de uma funo, como
a seguir.
Dado um conjunto de n equaes em n variveis x1 , . . . , xn ,
y1 = f1 (x1 , ..., xn ), . . . , yn = fn (x1 , ..., xn ),
a matriz Jacobiana definida por
y1
x1

..
.

J = ...

yn
x1

y1
xn

..
.

yn
xn

O determinante de J chamado de Jacobiano. Pode-se provar que o mdulo do Jacobiano d


a razo entre volumes n-dimensionais em ~y e ~x quando a maior dimenso xi tende a zero.
Deste modo, o mdulo do Jacobiano aparece nas mudanas de varives de integrao em
integrais mltiplas, ou seja, existe um teorema do clculo (vila, (1994); Guidorizzi, (1994))
que afirma que se f : G0 G for uma bijeo entre G0 e G, f e as derivadas parcias que
aparecem na matriz Jacobiana forem funes contnuas em G0 , e o Jacobiano for diferente
de zero para todo x G0 , ento
Z

Z
g(y1 , . . . , yn )dy1 dyn =

g(f1 (x1 , ..., xn ), . . . , fn (x1 , ..., xn ))|J|dx1 dxn ,

f 1 (A)

para qualquer funo g integrvel em A G.


O conceito de Jacobiano ser usado para resolver o seguinte exemplo da soma de duas
variveis aleatrias.
Exemplo 5.5.8: Suponha que (X, Y ) tenha densidade conjunta f (x, y) e seja Z = X + Y .
Neste caso,
FZ (z) = P (Z z) = P (X + Y z) = P ((X, Y ) Bz ),
onde Bz = {(x, y) : x + y z}. Portanto,
Z Z
FZ (z) =

zy

f (x, y)dxdy.

Fazendo a mudana de variveis s = x + y, t = y, que tem jacobiano igual a 1, tem-se


Z Z z
Z z Z
FZ (z) =
f (s t, t)dsdt =
f (s t, t)dtds.

Logo,

f (s t, t)dt a densidade da soma Z = X + Y , ou seja,


Z
Z
fZ (z) =
f (z t, t)dt =
f (s, z s)ds,

onde foi feita a troca de variveis s = z t para obter a ltima expresso.


Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

5.6

129

Aprendendo um pouco mais

O mtodo do Jacobiano descrito a seguir para funes mais gerais H.


Suponha que G0 IRn , G IRn sejam regies abertas, e que H : G0 G seja uma
~ = H 1 (Y~ ).
bijeo entre G0 e G. Logo, existe a funo inversa H 1 em G, de modo que X
~ e que P (X
~ G0 ) = 1. Se as derivadas
Suponha ainda que f a densidade conjunta de X
parciais de H 1 existirem e o Jacobiano J de H 1 for diferente de zero para todo ~y G,
utiliza-se o teorema da mudana de variveis e obter que para B G, B Boreliano, tem-se
~ H 1 (B)) =
P (Y~ B) = P (X

f (x1 , . . . , xn )dx1 dxn

H 1 (B)

Z
=

f (H11 (y1 , . . . , yn ), . . . , Hn1 (y1 , . . . , yn ))|J|dy1 dyn .

~ H 1 (G)) = P (X
~ G0 ) = 1, ento, para todo Boreliano B
Como P (Y~ G) = P (X
n
no IR ,
P (Y~ B) = P (Y~ B G) =

f (H11 (y1 , . . . , yn ), . . . , Hn1 (y1 , . . . , yn ))|J|dy1 dyn .

BG

Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
f (H11 (y1 , . . . , yn ), . . . , Hn1 (y1 , . . . , yn ))|J| para ~y G, e zero no caso contrrio. Portanto,
pela definio de densidade,

fY~ (y1 , . . . , yn ) =

f (H11 (y1 , . . . , yn ), . . . , Hn1 (y1 , . . . , yn ))|J|, se ~y G,


0,
caso contrrio.

Observaes
(i) Note que J o Jacobiano da funo inversa H 1 . Em alguns casos pode ser til obter
J a partir do Jacobiano J 0 da funo H atravs da relao J = J10 |~x=H 1 (~y) .
~ quando a dimenso de Y~ menor que a
(ii) Para obter a distribuio de Y~ = H(X)
~ muitas vezes possvel definir outras variveis aleatrias Y 0 , . . . , Y 0 ,
dimenso de X
1
m
utilizar o mtodo do Jacobiano para determinar a densidade conjunta de Y~ , Y10 , . . . , Ym0
e, finalmente, obter a densidade marginal conjunta de Y~ . Considere o seguinte exemplo:
Exemplo 5.6.1: Suponha que X1 , X2 tem densidade conjunta dada por f (x, y) e que
o objetivo seja a distribuio de Y1 = X12 + X2 . Como esta no uma transformao
1-1, ela no possui inversa. Definindo uma nova varivel Y2 = X1 de modo que a
funo (Y1 , Y2 ) = H(X1 , X2 ) = (X12 + X2 , X1 ) possua uma funo inversa diferencivel,
(X1 , X2 ) = H 1 (Y1 , Y2 ) = (Y2 , Y1 Y22 ). Deste modo,
Campos, Rgo & Mendona

5.6. APRENDENDO UM POUCO MAIS

x1
y2
x2
y2

x1
y1
x2
y1

J = det

130
!


=

0
1
1 2y2


= 1

Ento, fY1 ,Y2 (y1 , y2 ) = f (y2 , y1 y22 ). Finalmente, para encontrar fY1 integra-se sobre
todos os possveis valores da varivel Y2 introduzida:
Z

fY1 (y1 ) =

f (y2 , y1 y22 )dy2 .

(iii) Pode-se utilizar o mtodo do Jacobiano em outros casos em que a funo H no


1-1. Para tanto, suponha que G, G1 , . . . , Gk sejam subregies abertas do IRn tais que
~ ki=1 Gi ) = 1, tais que a funo H|G , a restrio
G1 , . . . , Gk sejam disjuntas e P (X
l
de H a Gl , seja um correspondncia 1-1 entre Gl e G, para l = 1, . . . , k. Suponha que
para todo l, a funo inversa de H|Gl satisfa as hipteses do caso anterior, e seja Jl o
Jacobiano da inversa de H|Gl . Pode-se provar que
 Pk
fY~ (y1 , . . . , yn ) =

l=1

0,

f (H|1
y G,
Gl (y1 , . . . , yn ))|Jl |, se ~
caso contrrio.

~ possua
Para a utilizao do mtodo do jacobiano, foi necessrio assumir que o vetor X
densidade conjunta. Na prxima seo ser visto como estender este mtodo para um caso
mais geral.

5.6.1

Extenso do Mtodo Jacobiano para o Clculo de Densidades


de Funes de Vetores Aleatrios Quaisquer

~ que absolutamente
A extenso supe apenas que existe pelo menos uma varivel no vetor X
~
contnua dado os valores das demais variveis em X.
m
~
z
Para um dado vetor ~z IR , sejam G0 e G regies abertas do IRn , e g : G0 {~z}
G~z {~z} uma funo bijetiva. Seja fX|
~ Z
~ a densidade condicional conjunta do vetor aleatrio
~
~ = (Z1 , . . . , Zm ), onde P ((X1 , . . . , Xn ) G0 |Z
~=
X = (X1 , . . . , Xn ) dado o vetor aleatrio Z
~ o qual pode ter partes
~z) = 1. No assume-se qualquer hiptese sobre o tipo do vetor Z,
discreta, contnua ou singular diferentes de zero.
~ e Z,
~ i.e., Yi =
Sejam Y1 , . . . , Yn variveis obtidas a partir de funes dos vetores X
gi (X1 , . . . , Xn , Z1 , . . . , Zm ), i = 1, 2, . . . , n. Portanto, existe funo inversa h = g 1 definida
em G~z {~z}, onde
X1 = h1 (Y1 , . . . , Yn , z1 , . . . , zm ), . . . , Xn = hn (Y1 , . . . , Yn , z1 , . . . , zm ),
e hi (Y1 , . . . , Yn , z1 , . . . , zm ) = zi , para i {n + 1, n + 2, . . . , n + m}.
Suponha que existam as derivadas parciais
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

131

Xi
hi (Y1 , . . . , Yn , z1 , . . . , zm )
=
,
Yj
Yj
para i, j {1, . . . , n} e que elas sejam contnuas em G~z {~z}. Define-se o jacobiano condi~ = ~z como J(X,
~ Y~ |Z
~ = ~z) pelo determinante:
cional dado Z
X

X1
1

Y1
Yn
..
..
~ Y~ |Z
~ = ~z) = det
J(X,
.
.
Xn
Y1

Xn
Yn

~ Y~ |Z
~ = ~z) seja diferente de zero para todo Y~ G~z . Ento para B
Suponha que J(X,
G , B boreliano, seja h(B{~z}) = {(x1 , . . . , xn ) : para algum ~y B, xi = hi (~y , ~z) para todo i =
1, . . . , n}. Utilizando o teorema de mudana de variveis, tem-se
~
z

~ = ~z) = P (X
~ h(B {~z})|Z
~ = ~z)
P (Y~ B|Z
Z
Z
= fX|
z )dx1 dxn
~ Z
~ (x1 , . . . , xn |~
h(B{~
z })

Z
=

~ = ~z)|dy1 dyn .
fX|
y , ~z), . . . , hn (~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~

~ = ~z) = P (X
~ h(G~z {~z})|Z
~ = ~z) = P (X
~ G0 |Z
~ = ~z) = 1, tem-se
Como P (Y~ G~z |Z
n
que para todo boreliano B no IR ,
~ = ~z) = P (Y~ B G~z |Z
~ = ~z)
P (Y~ B|Z
Z
Z
~ = ~z)|dy1 dyn .
= fX|
y , ~z), . . . , h(n ~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
BG~z

Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
~ = ~z)| para ~y G~z , e zero, caso contrrio. Portanto,
fX|
y , ~z), . . . , hn (~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
pela definio de densidade condicional:

fY~ |Z~ (y1 , . . . , yn |~z)



~ = ~z)|, se ~y G~z ,
fX|
y , ~z), . . . , hn (~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
=
0, caso contrrio.
A fim de se obter a densidade incondicional do vetor Y~ , calcula-se a esperana2 da
~ Portanto,
densidade condicional fY~ |Z~ com respeito a distribuio do vetor aleatrio Z.
2

este conceito ser dado no prximo captulo, mas nesta seo ...

Campos, Rgo & Mendona

5.6. APRENDENDO UM POUCO MAIS

132

Z
fY~ |Z~ (y1 , . . . , yn |~z)dFZ~ (~z).

fY~ (~y ) =

~ for um vetor aleatrio com densidade conjunta f ~ ,


No caso particular em que Z
Z
Z
Z
fY~ (~y ) = fY~ |Z~ (y1 , . . . , yn |~z)fZ~ (~z)dz1 dzm ,
~ for um vetor aleatrio discreto com funo probabilidade de
e, no caso particular em que Z
massa conjunta pZ~ ,
fY~ (~y ) =

fY~ |Z~ (y1 , . . . , yn |~z)pZ~ (~z).

~
z

Exemplo 5.6.2: Suponha que X1 uma varivel aleatria discreta que assume os valores
10, 15, 20 com probabilidades 1/4, 1/2, e 1/4, respectivamente. Sejam ainda X2 e X3 variveis
aleatrias que so condicionalmente independentes dado X1 e com distribuies condicionais
X2
).
X2 |X1 = k Exp(k) e X3 |X1 = k Exp(2k). Seja Y = X12 + X22 + X32 e Z = arctg( X
3
Determinar a densidade conjunta de (Y, Z).
Soluo: A densidade condicional conjunta de (X2 , X3 )|X1 = k dada por
2k 2 ekx2 2kx3 U (x2 )U (x3 ).
Tem-se que X1 = k,
P ((Y, Z) [k 2 , ) [0, /2]) = 1,
X2 = (

Y k2 1
) 2 sen Z,
2

Y k2 1
) 2 cos Z.
2
Portanto, o Jacobiano condicional dado que X1 = k dado por:
X3 = (


J((X2 , X3 ), (Y, Z)|X1 = k) = det

sen Z Y k2 12
( 2 )
4
cos Z Y k2 12
( 2 )
4

cos Z( Y k
)2
2
Y k2 12
sen Z( 2 )

1
= .
4

Assim, a densidade condicional de (Y, Z) dado que X1 = k dada por:


fY,Z|X1 (y, z|k)

2 1
2 1
fX2 ,X3 |X1 (sen z( yk
) 2 , cos z( yk
) 2 |k) 14 , (y, z) [k 2 , ) [0, /2),
2
2
=
0,
caso contrrio.
 k2
yk2 12
exp(k(sen z + 2 cos z)( 2 ) ), (y, z) [k 2 , ) [0, /2),
2
=
0,
caso contrrio.
Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

133

Calculando a esperana (que ser vista em captulo posterior) em termos da distribuio


de X1 , tem-se:
fY,Z (y, z) = P (X1 = 10)fY,Z|X1 (y, z|10)
+P (X1 = 15)fY,Z|X1 (y, z|15) + P (X1 = 20)fY,Z|X1 (y, z|20),
ou seja,
fY,Z (y, z)

y100 12
1

(50
exp(10(sen
z
+
2
cos
z)(
) )),

4
2

y100 12
1

(50 exp(10(sen z + 2 cos z)( 2 ) )) +

4
se (y, z) [225, 400) [0, /2);
=
1
1

(50 exp(10(sen z + 2 cos z)( y100


) 2 )) +

4
2

(200 exp(20(sen z + 2 cos z)( y400


) 2 )),

4
2

0, caso contrrio.

se (y, z) [100, 225) [0, /2);


1
exp(15(sen z + 2 cos z)( y225
) 2 )),
2

1 225
(
2 2

exp(15(sen z + 2 cos z)( y225


) 2 ))+
2
se (y, z) [400, ) [0, /2);

1 225
(
2 2

Observaes:
~ Z)
~ assumiu(i) No desenvolvimento na seo anterior, para obter a distribuio de Y~ = g(X,
~ Quando a dimenso de Y~
se que o vetor Y~ tem dimenso igual a dimenso do vetor X.
~
menor que a dimenso de X, o tratamento anlogo ao caso da utilizao do mtodo
do Jacobiano para vetores absolutamente contnuos, ou seja, muitas vezes possvel
definir outras variveis aleatrias auxiliares Y10 , . . . , Ym0 , utilizar a extenso do mtodo
do Jacobiano para determinar a densidade condicional conjunta de Y~ , Y10 , . . . , Ym0 dado
~ e, finalmente, obter a densidade marginal condicional conjunta de Y~ dado Z.
~
Z
(ii) Tambm pode-se utilizar o mtodo do Jacobiano em outros casos em que a funo g no
~ = ~z, suponha que G~z , G~z , . . . , G~z sejam subregies
bijetiva. Para tanto, dado que Z
1
k
~ Z)
~ (k G~z ) {~z}) = 1,
abertas do IRn tais que G~z1 , . . . , G~zk sejam disjuntas e P ((X,
i=1 i
tais que a funo g|G~lz , a restrio de g a G~zl seja bijetiva entre G~zl e G~z , para l = 1, . . . , k.
Suponha que para todo l, a funo inversa de g|G~lz satisfaa as hipteses do caso
~ = ~z da inversa de g|G~z . Pode-se
anterior, e seja Jl~z o Jacobiano condicional dado que Z
l
provar que
( P
k
fY~ |Z~ (y1 , . . . , yn |~z) =

1
fX|
z )|~z)|Jl~z |, se ~y G~z ,
~ Z
~ (g|G~z (y1 , . . . , yn , ~
l
0, caso contrrio.
l=1

Campos, Rgo & Mendona

5.7. EXERCCIOS

5.7

134

Exerccios

5.1 Nos itens a seguir, considere que cada varivel aleatria uniformemente distribuda
na regio dada. Em cada caso, (i) esboe um grfico enfatizando a regio de interesse,
(ii) encontre a conjunta (iii) as marginais e (iv) valide3 os resultados encontrados.
(a) rea no quarto quadrante limitada por f1 (x) = x2 + 2x 1 e f2 (x) = 2x + 2;
(b) rea no primeiro quadrante limitada por f1 (x) = x1 , x 6= 0 e f2 (x) = 0.75x2 +
1.75x;
(c) rea limitada por f1 (x) = 1.5x2 + 0.5x e f2 (x) = 0.5x + 1.5;
(d) rea entre (x 1)2 + y 2 = 2 e (x 1)2 + (y 1)2 = 1;
(e) rea no primeiro quadrante limitada por f1 (x) =
2

2
x2 +1

e f2 (x) =

1
,
x2

x 6= 0;

(f ) Maior rea limitada por (x 1) + (y + 2) = 1 e f( x) = x + 2x 2;


(g) rea limitada por f1 (x) = log10 (x + 1), f2 (x) = 0.5x 3.5 e o eixo dos y;
(h) rea no primeiro quadrante limitada por f1 (x) = log10 (x), f2 (x) = 0.2x 1 e
y = 0;
(i) Maior rea no primeiro quadrante limitada por x2 +(y3)2 = 9 e f( x) = 3 log10 (3x+
1);
(j) Maior rea limitada por (x + 1)2 + (y 2)2 = 1 e f (x) = x3 + 2.
5.2 Suponha que X seja uma varivel aleatria contnua com funo densidade de probabilidade
 x
e , x>0
f (x) =
0,
x 0.
Para b > 0 real, determine:
(a) F (x | 0 < X < b) = P (X x | 0 < X < b), para todo x real.
(b) f (x | 0 < X < b), a funo densidade condicional de X, dado que X (0, b).
5.3 Suponha que as variveis aleatrias X e Y tm densidade conjunta
(
2
2
x +y
2
xye
, x > 0, y > 0,
f (x, y) =
0,
quaisquer outros valores.
Encontre as densidades marginais.
5.4 Sejam = {1 , 2 , 3 } e P (1 ) = P (2 ) = P (3 ) = 1/3. Definindo X, Y e Z como se
segue:
X(1 ) = 1, X(2 ) = 2, X(3 ) = 3,
Y (1 ) = 2, Y (2 ) = 3, Y (3 ) = 1,
3

isto , mostre que

R +

f (x, y) = 1,

R +

fX (x) = 1 e

R +

fY (y) = 1.

Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

135

Z(1 ) = 3, Z(2 ) = 1, Z(3 ) = 2,


mostre que estas trs variveis aleatrias tm a mesma distribuio de probabilidade.
Encontre a distribuio de probabilidade de X + Y , Y + Z e X + Z.
5.5 Suponha que X uma varivel aleatria assumindo os valores 3, 1, 0, 1, 2, 3, 5, 8
com as respectivas probabilidades 0.1, 0.2, 0.15, 0.2, 0.1, 0.15, 0.05, 0.05. Determine
as probabilidades de:
(a) X ser negativa.
(b) P (X = 3 | X 0).
(c) P (X 3 | X > 0).
5.6 Considere a varivel aleatria bidimensional (X, Y ) uniformemente distribuda na regio poligonal T de vrtices (-2,0), (2,0), (1,1) e (-1,1).
(a) Determine a funo de densidade de probabilidade conjunta f (x, y).
(b) Determine a funo de densidade de probabilidade marginal fX (x).
(b) Determine a funo de densidade de probabilidade marginal fY (y).
(d) Verifique se X e Y so variveis aleatrias independentes.
5.7 Considere duas variveis aleatrias X e Y com distribuio de probabilidade conjunta
uniforme na regio triangular tendo vrtices nos pontos (0,0), (0,1) e (1,0).
(a) Escreva a expresso da densidade conjunta.
(b) Determine as densidades marginais.
(c) X e Y so independentes?
5.8 Duas mensagens que esto sendo transmitidas, independentemente uma da outra, podem ser distorcidas ou no. A probabilidade do evento A = {uma mensagem distorcida}
para a primeira mensagem p1 e para a segunda p2 . Seja um sistema de variveis aleatrias (X, Y ) definido como se segue:


1, se a primeira mensagem distorcida,


0, se a primeira mensagem no distorcida.

1, se a segunda mensagem distorcida,


0, se a segunda mensagem no distorcida.

X=

Y =

(X e Y so os indicadores do evento A).


(a) Encontre a distribuio de probabilidade conjunta do par de variveis aleatrias
(X, Y ).
(b) Encontre a funo distribuio de probabilidade acumulada F (x, y).
Campos, Rgo & Mendona

5.7. EXERCCIOS

136

5.9 Sejam duas variveis aleatrias independentes X e Y , cada uma das quais com distribuio exponencial4 com diferentes parmetros. Escreva expresses para
(a) a funo densidade conjunta f (x, y) e
(b) a funo distribuio conjunta F (x, y).
5.10 Um sistema de variveis aleatrias (X, Y ) tem funo densidade conjunta f (x, y). Expresse as seguintes probabilidades em termos de f (x, y):
(a) {X > Y };
(b) {X >| Y |};
(c) {| X |> Y };
(d) {X Y > 1}.
5.11 Um sistema de variveis aleatrias (X, Y, Z) tem uma densidade conjunta f (x, y, z).
Escreva expresses para:
(a) as densidades fX (x), fY (y)
(b) a densidade conjunta fY,Z (y, z) do vetor aleatrio (X, Z);
(c) a densidade condicional fY,Z (y, z | x);
(d) a densidade condicional fY (y | x, z);
(e) a funo de distribuio conjunta F (x, y, z);
(f ) a funo de distribuio FX (x) da varivel aleatria X;
(g) a funo de distribuio F (x, y) do vetor (X, Y ).
5.12 Um sistema de variveis aleatrias (X, Y, Z) se distribui com uma densidade constante
no interior de uma bola de raio r. Encontre a probabilidade de que o ponto aleatrio
(X, Y, Z) caia numa bola concntrica de raio r/2.
5.13 Seja o vetor aleatrio (X, Y ). Sabe-se que a varivel aleatria X segue uma distribuio
exponencial com parmetro . Para um dado X = x > 0, a varivel aleatria Y
tambm segue uma distribuio exponencial com parmetro x.
(a) Escreva a densidade conjunta f (x, y) de X e Y .
(b) Encontre a densidade de Y .
(c) Encontre a densidade condicional fX|Y (x | y).
5.14 Duas pessoas marcam um encontro em um determinado lugar, entre 12:00 e 13:00
horas. Cada uma chega ao local do encontro independentemente e com uma densidade
de probabilidade constante no intervalo de tempo assinalado. Encontre a probabilidade
de que a primeira pessoa espere no menos que meia hora.
4

fX (x) = ex , x > 0, > 0, sendo o parmetro.

Campos, Rgo & Mendona

CAPTULO 5. VETORES ALEATRIOS E FUNES

137

5.15 Dadas duas variveis aleatrias X e Y com uma densidade conjunta f (x, y), determine:
(a) a funo densidade do mximo das duas variveis, Z = max{X, Y };
(b) a funo densidade do mnimo das duas variveis, Z = min{X, Y };
(c) a funo densidade do mximo e a funo densidade do mnimo de n variveis
aleatrias independentes.
5.16 Sejam X e Y variveis aleatrias discretas e g e h funes tais que satisfaam a identidade P (X = x, Y = y) = g(x)h(y).
(a) Expresse P (X = x) em termos de g e h.
(b) Expresse P (Y = y) em termos de g e h.
P
P
(c) Mostre que ( x g(x))( y h(y)) = 1.
(d) Mostre que X e Y so independentes.
5.17 Sejam X1 e X2 duas determinaes independentes da varivel aleatria X. Encontre
a densidade da varivel aleatria Z = X1 /X2 , onde
 1000
, x > 1000,
x2
fX (x) =
0,
quaisquer outros casos.
5.18 Suponha que as dimenses X e Y de uma chapa retangular de metal possam ser consideradas variveis aleatrias contnuas independentes com densidades, respectivamente:

1 < x 2,
x 1,
x + 3, 2 < x < 3,
fX (x) =

0,
quaisquer outros casos.

1/2, 2 < y < 4,
fY (y) =
0,
quaisquer outros casos.
Encontre a densidade da rea da chapa, A = XY .
5.19 Ao mensurar-se T , a durao da vida de uma pea, pode-se cometer um erro, o qual
se pode admitir ser uniformemente distribudo sobre (-0.01,0.01). Por isso, o tempo
registrado (em horas) pode ser representado por T + X, onde T , tem uma distribuio exponencial com parmetro 0.2 e X tem a distribuio uniforme descrita acima.
Determine a densidade de T + X, quando T e X forem independentes.
5.20 Sejam T1 e T2 variveis aleatrias independentes com distribuio exponencial de parmetros 1 e 2 , respectivamente. Encontre a densidade de M = max{T1 , T2 } e de
K = min{T1 , T2 }.
5.21 As variveis aleatrias Xi , i = 1, 2 so mutuamente independentes e seguem uma lei
de Poisson5 com parmetros i . Mostre que sua soma tambm segue uma distribuio
de Poisson, onde o parmetro a soma dos parmetros.
5

P (X = k) =

e k
k! , k

{0, 1, . . .}.

Campos, Rgo & Mendona

5.7. EXERCCIOS

138

5.22 A intensidade luminosa em um dado ponto dada por I = DC2 , onde C o poder
luminoso da fonte e D a distncia dessa fonte at o ponto dado. Suponha que C
seja uniformemente distribuda sobre (1,2) e D tenha densidade fD (d) = ed , d > 0.
Encontre a densidade de I admitindo que C e D sejam independentes.
5.23 Dois dados so lanados e os nmeros mostrados nas faces voltadas para cima so
anotados como um par ordenado (i, j). Sejam as variveis aleatrias X((i, j)) = i + j
e Y ((i, j)) =| i j |, para i, j = 1, . . . , 6. Determine:
(a) P (X = 4, Y = 2).
(b) Verifique se X e Y so independentes.

Campos, Rgo & Mendona

Captulo 6
Esperana e outros Momentos
6.1

Esperana Matemtica de uma Varivel Aleatria

O conceito de esperana matemtica ou valor esperado de uma varivel aleatria X, ou


a mdia to antigo quanto o prprio conceito de probabilidade. Na verdade, at
possvel definir probabilidade em termos de esperana, mas esta no uma maneira comum
de se apresentar a teoria, segundo Fine (2012). As seguintes podem ser interpretaes da
esperana:
(a) Parmetro m de uma medida de probabilidade, funo de distribuio, ou funo probabilidade de massa, tambm conhecido como mdia.
(b) Operador linear em um conjunto de variveis aleatrias que retorna um valor tpico da
varivel aleatria interpretado como uma medida de localizao da varivel aleatria.
(c) Mdia do resultado de repetidos experimentos independentes no longo prazo.
(d) Preo justo de um jogo com pagamentos descritos por X.
A definio de esperana pode ser motivada considerando o clculo do resultado mdio
de 1000 lanamentos de um dado. Uma maneira de calcular este resultado mdio seria somar
todos os resultados e dividir por 1000. Uma maneira alternativa seria calcular a frao p(k),
k = 1, . . . , 6 de todos os lanamentos que tiveram resultado igual a k e calcular o resultado
mdio atravs da soma ponderada:
1p(1) + 2p(2) + 3p(3) + 4p(4) + 5p(5) + 6p(6).
Quando o nmero de lanamentos torna-se grande as fraes de ocorrncia dos resultados
tendem probabilidade de cada resultado.
Em geral, define-se a esperana de uma varivel discreta como uma soma ponderada onde
as probabilidades so os pesos de ponderao.
Definio 6.1.1: Se X uma varivel aleatria discreta com valores {x1 , x2 , x3 , . . .} e
probabilidades {p1 , p2 , p3 , . . .}, respectivamente, ento sua esperana ,
139

6.1. ESPERANA MATEMTICA DE UMA VARIVEL ALEATRIA

E(X) =

140

xi p i ,

desde que

| xi | pi < . Como pi = P (X = xi ), ento


X
E(X) =
xi P (X = xi ).
i

Exemplo 6.1.2: Considere uma varivel aleatria X tal que: P (X = 2) = 0.25, P (X =


0) = 0.5 e P (X = 2) = 0.25. Ento,
E(X) = 2(0.25) + 0(0.5) + 2(0.25) = 0.

Exemplo 6.1.3: Seja uma varivel aleatria X tal que: P (X = a) = P (X = a) = 1/3 e


P (X = b) = 1/3. Ento,
E(X) = a(1/3) + a(1/3) + b(1/3) = b/3.

Note ento que muitas variveis aleatrias diferentes podem ter o mesmo valor esperado
ou esperana. ( s variar o valor de a no exemplo anterior.)
Exemplo 6.1.4 : Se X {1, 2, . . . , n} for uma varivel aleatria com distribuio de
probabilidade aleatria com parmetro n,
1
P (X = k) = , k = 1, 2, . . . , n,
n
sua esperana dada por:
E(X) =

n
X
k=1

kp(k) =

n
n
X
1
1X
1 n(n + 1)
n+1
k =
k=
=
.
n
n
n
2
2
k
k

Definio 6.1.5: Se X uma varivel aleatria contnua com densidade fX (x) ento,
Z +
E(X) =
xfX (x)dx

se

R +

| x | fX (x)dx < .

Exemplo 6.1.6: Se fX (x) = 12 , 2 < x < 4, ento


Z 4
1
E(X) =
x dx = 3.
2
2
A esperana de uma varivel aleatria mista pode ser calculada pela soma da esperana
devido parcela discreta da distribuio e a esperana com respeito parcela contnua da
distribuio. Para uma definio geral de esperana ver James (1996).
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

6.2

141

Propriedades da Esperana

As seguintes propriedades so aplicaes imediatas da definio de esperana:


(i) P (X = c) = 1 E(X) = c.
(ii) P (X 0) = 1 E(X) 0.
(iii) E(aX) = aE(X), onde a um nmero real qualquer.
Esta propriedade segue facilmente da expresso da esperana de uma funo de varivel
aleatria.
(iv) E(X + Y ) = E(X) + E(Y ).
No caso discreto,
E(X + Y ) =
=

XX
i

xi p(xi ) +

(xi + yj )p(xi , yj ) =

xi

yj

p(xi , yj ) = E(X) +

p(xi , yj ) +

XX
i

yj p(xi , yj )

yj p(yj ) = E(X) + E(Y ).

No caso contnuo,
Z Z
E(X + Y ) = E((X, Y )) =

(x + y)fX,Y (x, y)dxdy,

e pela linearidade da integral,


Z Z
Z Z
E(X + Y ) =
xfX,Y (x, y)dxdy +
yfX,Y (x, y)dxdy = E(X) + E(Y ).
P
P
(v) E( ni ai Xi ) = ni ai E(Xi ).
Para provar esta propriedade basta usar as duas ltimas propriedades e induo matemtica.
(vi) P (X Y ) = 1 E(X) E(Y ).
Esta segue das Propriedades (ii) e (v), pois
P (X Y ) = P (X Y 0),
o que, pela Propriedade (ii), implica que E(X Y ) 0. Pela Propriedade (v),
E(X Y ) = E(X) E(Y ), ou seja pode-se concluir que E(X) E(Y ) 0.
(vii) Se {X1 , . . . , Xn } so variveis aleatrias mutuamente independentes, ento
n
n
Y
Y
E( Xi ) =
E(Xi ).
i=1

i=1

Campos, Rgo & Mendona

6.3. ESPERANA CONDICIONAL

142

No caso discreto,
E(

n
Y

Xi ) =

i=1

...

i1

xi1 . . . xin p(xi1 , . . . , xin )

in

...

i1

i1
n
Y

n
Y

xi1 . . . xin

in

p(xij )

j=1

xi1 p(xi1 ) . . .

xin p(xin )

in

E(Xi ).

i=1

No caso contnuo fX~ (~x) =

Qn

i=1

fXi (xi ), logo

Z
Z
n
Y
E( Xi ) = x1 xn fX~ (~x)dx1 dxn
i=1

Z
=

Z Y
n

xi fXi (xi )dx1 dxn =

i=1

n Z
Y

xi fXi (xi )dxi =

i=1

n
Y

E(Xi ).

i=1

De maneira anloga, pode-se provar a seguinte generalizao deste resultado:


Se {X1 , . . . , Xn } so variveis aleatrias mutuamente independentes, ento
n
n
Y
Y
E( G(Xi )) =
E(G(Xi )).
i=1

i=1

(viii) Se Y for uma varivel aleatria que assume valores inteiros no-negativos, ento
E(Y ) =

kP (Y = k) =

X
k
X

P (Y = k),

k=1 j=1

k=1

trocando a ordem dos somatrios:

E(Y ) =

P (Y = k) =

j=1 k=j

6.3

P (Y j).

j=1

Esperana Condicional

O conceito da esperana condicional de X dado Y = y, E(X | Y = y), deve ser entendido


como uma mdia da varivel X quando um valor de Y est fixado.
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

143

Definio 6.3.1: Se (X, Y ) for um vetor aleatrio discreto, ento a esperana condicional
de X dado Y = yj
X
E(X | Y = yj ) =
xi P (X = xi | Y = yj ),
i

desde que a srie seja absolutamente convergente e onde yj um valor fixo no contradomnio
de Y .
Exemplo 6.3.2: Considere que a distribuio de probabilidade conjunta do vetor aleatrio
(X, Y ) dada por
1
p(1, 1) = , p(2, 1) = 13 , p(3, 1) =
9
1
p(1, 2) = , p(2, 2) = 0, p(3, 2) =
9

1
,
9
1
,
18
1
p(1, 3) = 0, p(2, 3) = 16 , p(3, 3) = .
9

Calcular E(X | Y = j), para j = 1, 2, 3.


Soluo. Calcula-se a marginal de Y , em seguida as condicionais e por fim a esperana
pedida.
5
3
5
P (Y = 1) = , P (Y = 2) = , P (Y = 3) = .
9
18
18
1
P (X = 1 | Y = 1) = , P (X = 1 | Y = 2) = 32 , P (X = 1 | Y = 3) = 0,
5
3
3
P (X = 2 | Y = 1) = , P (X = 2 | Y = 2) = 0, P (X = 2 | Y = 3) = ,
5
5
1
2
P (X = 3 | Y = 1) = , P (X = 3 | Y = 2) = 31 , P (X = 3 | Y = 3) = .
5
5
Logo,
E(X | Y = 1) =

3
X

xi P (X = xi | Y = 1) = 1

i=1

1
3
1
+ 2 + 3 = 2.
5
5
5

De forma similar so calculadas E(X | Y = 2) e E(X | Y = 3).


Definio 6.3.3: Se (X, Y ) for um vetor aleatrio contnuo, ento a esperana condicional
de X dado Y = y
Z
+

E(X | Y = y)

xf (x | y)dx,

se a integral for absolutamente convergente.


Campos, Rgo & Mendona

6.4. ESPERANA MATEMTICA DE FUNES E VETORES DE


VARIVEIS ALEATRIAS

144

Exemplo 6.3.4: Seja a densidade conjunta do vetor (X, Y ) dada por



6xy(2 x y), 0 < x < 1, 0 < y < 1,
f (x, y) =
0,
caso contrrio,
Calcular o que acontece, em mdia, com a varivel X quando Y = y, onde y (0, 1), isto ,
calcular E(X | Y = y).
Soluo. Inicialmente preciso calcular fY (y), em seguida f (x | y) para, por fim, computar
a esperana desejada.
Z 1
6xy(2 x y)dx = y(4 3y).
fY (y) =
0

Logo,

fY (y) =

y(4 3y), 0 < y < 1,


0,
caso contrrio,

Portanto,
f (x | y) =

6xy(2 x y)
6x(2 x y)
=
, 0 < x < 1, 0 < y < 1.
y(4 3y)
4 3y

Por fim,
Z
E(X | Y = y) =

x
0

6.4

5 4y
6x(2 x y)
dx =
, 0 < y < 1.
4 3y
8 6y

Esperana Matemtica de Funes e Vetores de


Variveis Aleatrias

Se X for uma varivel aleatria e se Y = H(X), ento Y tambm ser uma varivel aleatria.
Consequentemente, pode-se calcular E(Y ). Existem duas maneiras equivalentes de calcular
E(Y ), quer a varivel seja discreta, quer seja contnua: (i) primeiro, encontrar a lei de
probabilidade da varivel Y = H(X) pelos mtodos j vistos anteriormente para, em seguida,
calcular a esperana da varivel Y ; (ii) calcular a esperana de Y diretamente usando a funo
H(X).
~ for um vetor aleatrio e Y = H(X)
~ os comentrios anteriores valem, isto , pode-se
Se X
~
calcular E(Y ) a partir do clculo inicial de fY (y) ou calcular E(Y ) usando H(X).

6.4.1

Caso Discreto

Definio 6.4.1: Seja X uma varivel aleatria discreta e seja Y = H(X). Se Y assumir
os seguintes valores y1 , y2 , . . . e se P (Y = yi ) = p(yi ), define-se:
E(Y ) =

yi p(yi ).

i=1

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

145


Exemplo 6.4.2 : Suponha X tal que P (X = k) = k2 ( 21 )k ( 12 )2k , para k = 0, 1, 2, e
Y = H(X) = X + 1. Calcular E(Y ).
Soluo. O contradomnio de Y RY = {1, 2, 3} porque X = 0 Y = 1, X = 1 Y = 2
e X = 2 Y = 3. Portanto, P (Y = 1) = P (X = 0) = 14 , P (Y = 2) = P (X = 1) = 24 e
P (Y = 3) = P (X = 2) = 14 . Assim,
E(Y ) = 1

2
1
1
+ 2 + 3 = 2.
4
4
4

Conforme visto no captulo anterior pode-se determinar as probabilidades p(yi ) dado que
sabe-se a distribuio de X. No entanto, possvel encontrar E(Y ) sem, preliminarmente,
encontrar a distribuio de probabilidade de Y , partindo-se apenas do conhecimento da
distribuio de probabilidade de X, conforme mostra o seguinte teorema.
Teorema 6.4.3: Seja X uma varivel aleatria discreta assumindo os valores x1 , x2 , . . . e
seja Y = H(X). Se p(xi ) = P (X = xi ), ento
E(Y ) = E(H(X)) =

H(xi )p(xi ).

i=1

P
Prova: Reordenando o somatrio
i=1 H(xi )p(xi ), e agrupando os termos onde xi tem a
mesma imagem de acordo com a funo H, ou seja, sejam xi1 , xi2 , . . ., todos os valores xi tal
que H(xij ) = yi para j 1, onde y1 , y2 , . . . so os possveis valores de Y , tem-se,

H(xi )p(xi ) =

i=1

X
i=1 j=1

H(xij )p(xij ) =

X
i=1

yi

X
j=1

p(xij ) =

yi p(yi ) = E(Y ).

i=1

Exemplo 6.4.4: Sejam X e Y como no Exemplo 11.4.3. Calculando E(Y ) sem encontrar
a distribuio de probabilidade de Y .
Soluo.
E(Y ) = E(X + 1) =

2
2
2
X
X
X
(k + 1)P (X = k) =
kP (X = k) +
P (X = k) = 1 + 1 = 2.
k=0

k=0

k=0

P
Lembrando que 2k=0 P (X = k) = 1.
O clculo de E(Y ) tambm poderia ter sido realizado usando propriedades da esperana,
da seguinte forma:
E(Y ) = E(X + 1) = E(X) + E(1) = E(X) + 1 = 1 + 1 = 2.

Campos, Rgo & Mendona

6.4. ESPERANA MATEMTICA DE FUNES E VETORES DE


VARIVEIS ALEATRIAS

146

~ um vetor aleatrio com distribuio de probabilidade p ~ e Y =


Definio 6.4.5: Se X
X
~ assume os valores y1 , y2 , . . . , de forma que P (Y = yi ) = p(yi ), ento,
H(X)
X
~ =
E(Y ) = E(H(X))
yi pY~ (yi ).
i

~ = (X1 , X2 ) com R ~ = {(1, 1), (1, 2), (2, 1), (2, 2)}, P (X1 = i, X2 =
Exemplo 6.4.6: Seja X
X
1
~
~
j) = 4 , para i, j = 1, 2 e Y = H(X) = X1 + X2 . Calcular E(Y ) = E(H(X)).
1
Soluo. RY = {2, 3, 4} e P (Y = 2) = P (X1 = 1, X2 = 1) = 4 , P (Y = 3) = P (X1 =
1, X2 = 2) + P (X1 = 2, X2 = 1) = 42 e P (Y = 4) = P (X1 = 2, X2 = 2) = 41 . Logo,
E(Y ) = 2

2
1
1
+ 3 + 4 = 3.
4
4
4

~ um vetor aleatrio com distribuio de probabilidade p ~ (~


Teorema 6.4.7 : Seja X
X xi ) =
~
P (X1 = x1i , X2 = x2j , . . . , Xn = xnk ) e Y = H(X). Ento,
X XX
~ =
...
H(~
xi )pX~ (~
xi ),
E(Y ) = E(H(X))
n

~
em que os x~i so os valores assumidos pelo vetor aleatrio X.
~ como no Exemplo 6.4.6.
Exemplo 6.4.8: Suponha X
Soluo. Ento, o clculo de E(Y ) dado por
XX
E(Y ) = E(X1 + X2 ) =
(i + j)P (X1 = i, X2 = j)
j

XX

XX

(iP (X1 = i, X2 = j) + jP (X1 = i, X2 = j))

(iP (X1 = i, X2 = j)) +

XX
(jP (X1 = i, X2 = j)
j

XX
XX
=
( (iP (X1 = i, X2 = j))) +
( (jP (X1 = i, X2 = j))
j

(P (X1 = 1, X2 = j) + 2P (X1 = 2, X2 = j))

(jP (X1 = 1, X2 = j) + jP (X1 = 2, X2 = j))

= P (X1 = 1, X2 = 1) + P (X1 = 1, X2 = 2) + 2(P (X1 = 2, X2 = 1)


+P (X1 = 2, X2 = 2)) + P (X1 = 1, X2 = 1) + P (X1 = 2, X2 = 1) +
2(P (X1 = 2, X2 = 2) + P (X1 = 2, X2 = 2)) = 3.

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

6.4.2

147

Caso Contnuo

Definio 6.4.9: Seja X uma varivel aleatria contnua e Y = H(X). Ento,


+

yfY (y)dy,

E(Y ) =

se

R +

| y | fY (y)dy < .

Exemplo 6.4.10: Supondo X com densidade



2(1 x), 0 < x < 1,
fX (x) =
0,
caso contrrio,
e Y = H(X) = 2X. Calcular E(Y ).
Soluo. Inicialmente ser calculada a densidade de Y , e, em seguida, a esperana de Y .
y
y
FY (y) = P (Y y) = P (X ) = FX ( )
2
2
y
1
y
fY (y) = fX ( ) ) = 1 .
2
2
2
Logo,

fX (x) =

1 y2 , 0 < y < 2,
0,
caso contrrio.

Portanto,
2

y
2
y(1 )dy = .
2
3

E(Y ) =
0

~ um vetor aleatrio e Y = H(X),


~ ento
Definio 6.4.11: Sendo X
Z

E(Y ) =

yfY (y)dy,

onde fY (y) foi calculada inicialmente.


Exemplo 6.4.12: Sejam


2x, 0 x 1,
0, caso contrrio,

y2
,
9

fX (x) =
e
fY (y) =

0,

0 y 3,
caso contrrio,
Campos, Rgo & Mendona

6.4. ESPERANA MATEMTICA DE FUNES E VETORES DE


VARIVEIS ALEATRIAS

148

variveis aleatrias independentes. O objetivo calcular E(Z) onde Z = H(X, Y ) = XY .


Similar ao Exemplo 6.4.10 primeiro calcula-se a densidade de Z para em seguida calcular
E(Z). A densidade de Z vai ser calculada usando o mtodo do Jacobiano.

z = xy y = xz = uz ,
u = x x = u.
Logo o Jacobiano :


J =
Logo J =

1
u

x x
z u
y y
z u

e ento,

z 1
2z 2
f (z, u) = fX (u)fY ( )| | = 2 .
u u
9u
Como 0 x 1 e 0 y 3 ento z3 u 1 e portanto,
Z 1 2
2z
2
fZ (z) =
du
=
z(3 z), 0 z 3.
z 9u2
9
3
Assim,
Z
E(Z) =
0

3
2
z z(3 z)dz = .
9
2

As provas dos teoremas a seguir so omitidas desde que fogem ao escopo do livro.
Teorema 6.4.13: Seja X uma varivel aleatria contnua, Y = H(X), ento
Z
Z
E(Y ) = yfY (y)dy = H(x)fX (x)dx,
desde que estas integrais existam.
Exemplo 6.4.14: Considerando a varivel aleatria do Exemplo 6.4.10, a esperana de
Y = 2X ser calculada sem usar a fY .
Soluo.
Z 1
2
E(Y ) =
2x2(1 x)dx = .
3
0
E(Y ) tambm poderia ser calculada usando propriedades da esperana, mas, neste caso seria
imprescindvel o clculo de E(X):
E(Y ) = E(2X) = 2E(X).

~ um vetor aleatrio e Y = H(X)


~ uma varivel aleatria. Ento,
Teorema 6.4.15: Seja X
Z
Z
~ ~ (~x)d~x.
E(Y ) = yfY (y)dy = H(X)f
X
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

149

Exemplo 6.4.16: Considerando as variveis do Exemplo 6.4.12:


Soluo. f (x, y) = 29 xy 2 , 0 x 1, 0 y 3. Logo,
Z

H(x, y)f (x, y)dxdy =

E(Z) =
0

2
3
xy xy 2 dxdy = .
9
2

Exemplo 6.4.17: A densidade conjunta do vetor (X, Y ) dada por


 1 xy
ye , 0 < x < +, 0 < y < 2,
2
f (x, y) =
0,
caso contrrio,
Calcular E(eX/2 | Y = 1).
Soluo.
Z
fY (y) =
0

1 xy
1
ye dx = , 0 < y < 2.
2
2

f (x, y)
= yexy , 0 < x < +, 0 < y < 2.
fY (y)
Z
x
X/2
E(e
| Y = 1) =
e 2 ex dx = 2.

f (x | y) =

6.5

Momentos

Informaes parciais sobre a lei de probabilidade de uma varivel aleatria X podem ser
obtidas atravs de esperanas matemticas de potncias de X, as quais so chamadas de
momentos de X.
Definio 6.5.1:
aleatria X

Para qualquer inteiro no-negativo n, o n-simo momento da varivel


E(X n ),

se esta esperana existe.


Este momento usualmente denominado de momento em torno do zero, uma vez que
poderia ser escrito como E((X 0)n ). Observe que quando n = 1 tem-se a esperana
matemtica de X.
Exemplo 6.5.2: Seja X tal que
 
n k
P (X = k) =
p (1 p)nk , k = 0, 1, . . . , n.
k
Campos, Rgo & Mendona

6.5. MOMENTOS

150

Ento, o segundo momento de X, E(X 2 ) :


 
n
X
2
2 n
E(X ) =
k
pk (1 p)nk
k
k=0
=
=

n
X
k=1
n
X

k2

n!
pk (1 p)nk
k!(n k)!

k(k 1)

k=1

= n(n 1)p

n
X
n!
n!
k
pk (1 p)nk +
pk (1 p)nk
k!(n k)!
k!(n

k)!
k=1

n
X
k=2

= n(n 1)p2

m
X
j=0

(n 2)!
pk2 (1 p)nk + np
(k 2)!(n k)!
(m)!
pj (1 p)mj + np = n(n 1)p2 + np.
(j)!(m j)!

Exemplo 6.5.3: Seja




2x, 0 < x < 1,


0, caso contrrio,
Z 1
2
E(X) =
x2xdx = .
3
0
Z 1
1
E(X 2 ) =
x2 2xdx = .
2
0

fX (x) =

Teorema 6.5.4: Se o k-simo momento de uma varivel aleatria existir, ento todos os
momentos de ordem menores do que k tambm existem.
Prova: Por hiptese, E(|X k |) < , logo E(1 + |X k |) < . Como para qualquer j tal que
0 < j < k, |X j | 1 + |X k |, e 1 + |X k | integrvel, tem-se que |X j | tambm integrvel,
isto E(|X j |) < .

6.5.1

Momentos Centrais. Varincia

Definio 6.5.5: Se X uma varivel aleatria seu n-simo momento central em torno de
E(X)
E(X E(X))n ,
se esta esperana existir.
O primeiro momento central em torno da mdia zero, pois
E(X E(X)) = E(X) E(E(X)) = E(X) E(X) = 0.
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

151

Definio 6.5.6: O segundo momento central a varincia, V (X), e dado por


V (X) = E(X E(X))2 .
A varincia tambm pode ser calculada por:
V (X) =
=
=
=
=
=

E(X E(X))2
E(X 2 2XE(X) + (E(X))2 )
E(X 2 ) 2E(XE(X)) + E((E(X))2 )
E(X 2 ) 2(E(X))2 + (E(X))2
E(X 2 ) (E(X))2
E(X 2 ) E(X)2 .

Exemplo 6.5.7: Considerando a varivel do Exemplo 6.5.3, tem-se que


V (X) = E(X 2 ) E(X)2 =

1
2
1
( )2 = .
2
3
6

Do Teorema Binomial tem-se:


n  
X
n
(X E(X)) =
X k (E(X))nk .
k
k=0
n

Logo, da linearidade da esperana,


n

E(X E(X)) =

n  
X
n
k=0

E(X k )(E(X))nk

porque E((E(X))nk ) = (E(X))nk , pois tem-se a esperana de uma constante e


n  
X
n
E(X ) = E(X E(X) + E(X)) =
(E(X))nk E(X E(X))k .
k
k=0
n

Portanto, o n-simo momento existe se e somente se o n-simo momento central existe.


Exemplo 6.5.8: Considere uma varivel aleatria X tal que
P (X = m a) = P (X = m + a) =

1
1
E(X k ) = [(m a)k + (m + a)k ].
2
2

E(X) = m,
1
E(X 2 ) = (2m2 + 2a2 ) = m2 + a2 ,
2
V (X) = a2 .

Campos, Rgo & Mendona

6.5. MOMENTOS

152

Definio 6.5.9: O desvio-padro de uma varivel aleatria X definido como a raiz


quadrada positiva da varincia,
p
(X) = V (X).
A varincia mede a distncia entre os valores que a varivel aleatria assume e sua
esperana matemtica. Entretanto, quando aplicada em problemas prticos surge uma dificuldade: a unidade de medida da esperana matemtica difere da unidade de medida da
varincia. Por exemplo, se os dados esto em milissegundos, ms, a unidade de medida da
mdia ms, mas a da varincia ms2 . Por esta razo comum adotar-se o desvio-padro.
Exemplo 6.5.10: Suponha que a varivel aleatria X assume os valores 0 e 10 com iguais
probabilidade. Portanto,
E(X) = 5, E(X 2 ) = 50, V (X) = 25, = 5.
Suponha agora uma outra varivel aleatria, Y , assumindo os valores 5 e 5 tambm com
iguais probabilidade. Logo,
E(Y ) = 5, E(X 2 ) = 25, V (X) = 0, = 0.
Este exemplo trivial enfatiza a importncia de se usar o desvio-padro. Observe que as
mdias so as mesmas mesmo para valores to distintos que as variveis assumem.

6.5.2

Propriedades da Varincia

(i) V (X) 0.
Prova: Pela definio de varincia.
(ii) Se X = c, V (X) = 0.
Prova: E(X) = c, logo V (X) = E(X c)2 = E(0) = 0.
(iii) V (X + a) = V (X), onde a uma constante real.
Prova:
V (X + a) = E(X + a)2 (E(X + a))2
= E(X 2 ) + 2aE(X) + a2 (E(X))2 2aE(X) a2
= E(X 2 ) (E(X))2 = V (X).

(iv) V (aX) = a2 V (X)


Prova:
V (aX) = E(aX)2 (E(aX))2 = a2 E(X)2 a2 (EX)2 = a2 V (X).

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

153

(v) Se X e Y forem variveis aleatrias mutuamente independentes, ento


V (X + Y ) = V (X) + V (Y ).
Prova:
V (X + Y ) =
=
=
=
=

E(X + Y )2 (E(X + Y ))2


E(X 2 + 2XY + Y 2 ) (E(X))2 2E(X)E(Y ) (EY )2
E(X 2 ) E(X)2 + E(Y 2 ) E(Y )2 + 2(E(XY ) E(X)E(Y ))
E(X 2 ) + E(Y 2 ) (E(X))2 (E(Y ))2 + 2E(XY ) 2E(X)E(Y )
V (X) + V (Y ).

porque E(XY ) = E(X)E(Y ).


(vi) Se X1 , . . . , Xn so variveis aleatrias independentes, ento
V (X1 + . . . Xn ) = V (X1 ) + . . . + V (Xn ).
Esta propriedade segue da propriedade anterior e da aplicao de induo matemtica.

6.6

A Desigualdade de Tchebychev

Corolrio 6.6.1: Desigualdade (Original) de Tchebychev. Seja X uma varivel aleatria, ento
V (X)
.
P (|X E(X)| )
2
2

Prova: Seja A = {x : |x| } e g(x) = x2 . Note que g(x) IA (x), ento, pelo Corolrio
2)
6.8.4, P (X A) = P (|X| ) E(X
. Substituindo X por X E(X), tem-se P (|X
2
V (X)
E(X)| ) 2 .
Esta desigualdade declara que a probabilidade da varivel aleatria diferir da sua mdia
2
por mais do que uma constante qualquer () menor ou igual do que 2 . Portanto, quanto
menor a varincia, mais agrupados em torno da mdia esto os dados e, consequentemente,
maior a probabilidade de se obter um valor (dos dados) prximo mdia.
A desigualdade de Tchebychev geral no sentido de que no h qualquer hiptese sobre
a lei de probabilidade de X. A nica restrio que 2 < .
Exemplo 6.6.2: Sabe-se que o nmero de itens produzidos por uma fbrica durante uma
semana uma varivel alearia com mdia 500 e varincia 100. O que pode ser dito sobre a
probabilidade de que a produo semanal esteja entre 400 e 600?
Soluo. Pela desegualdade de Tchebychev,
1
99
=
.
100
100
Portanto, a probabilidade pedida de pelo menos 0.99.
P (| X 500 |< 100) 1

Campos, Rgo & Mendona

6.7. MOMENTOS CONJUNTOS

6.7

154

Momentos Conjuntos

A noo de momentos conjuntos definida no contexto de vetores aleatrios.


~ = (X1 , X2 , . . . , Xk ) um vetor aleatrio k-dimensional. Ento, os
Definio 6.7.1: Seja X
~ so da forma E(Qk X ji ), onde ji s so inteiros positivos, se esta
momentos conjuntos de X
i
i=1
esperana existir.
De forma anloga ao caso unidimensional pode-se definir tambm momentos conjuntos
centrais.
No caso bidimensional a correlao e a covarincia so momentos conjuntos; estes medem
o grau de dependncia linear entre duas variveis.
Definio 6.7.2: A covarincia entre duas variveis aleatrias X e Y dada por
cov(X, Y ) = E((X E(X))(Y E(Y ))) = E(XY ) E(X)E(Y ).
Note que cov(X, X) = V (X). Na prova da Propriedade (v) da varincia aparece a
expresso E(XY ) E(X)E(Y ), o que implica que em geral tem-se que,
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ).
A seguir ser vista uma expresso para a varincia da soma de n variveis aleatrias.
Teorema 6.7.3: Sejam X1 , X2 , . . . , Xn variveis aleatrias tais que V (Xi ) < , ento
V (X1 + . . . + Xn ) =

n
X

V (Xi ) + 2

i=1

cov(Xi , Xj ).

i<j

Prova:
V (X1 + + Xn ) = E(X1 + + Xn E(X1 + + Xn ))2
n
X
= E( (Xi E(Xi ))2
i=1
n
X
X
= E( (Xi E(Xi ))2 + 2
(Xi E(Xi ))(Xj E(Xj )))
i=1

n
X
i=1

V (Xi ) + 2

i<j

cov(Xi , Xj ).

i<j

Corolrio 6.7.4: Sejam X1 , X2 , . . . , Xn variveis aleatrias tais que V (Xi ) < e


Cov(Xi , Xj ) = 0 para i 6= j, ento
V (X1 + . . . + Xn ) =

n
X

V (Xi ).

i=1

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

155

O prximo teorema trata de importante desigualdade em teoria da probabilidade:


Teorema 6.7.5: Desigualdade de Cauchy-Schwarz
(E(XY ))2 E(X 2 )E(Y 2 ).
Prova: (aX +Y )2 0 E(aX +Y )2 0 a2 E(X 2 )+2aE(XY )+E(Y 2 ) 0. Observa-se
que esta equao do segundo grau em a no pode ter duas razes reais diferentes, pois caso
contrrio essa expresso seria negativa para os valores entre as razes. Ento, utilizando a
regra do discriminante,
4(EXY )2 4EX 2 EY 2 0,
o teorema est provado.
Corolrio 6.7.6: (cov(X, Y ))2 V (X)V (Y ).
Prova: Segue do teorema anterior trocando X por X E(X) e Y por Y E(Y ).
Definio 6.7.7: O coeficiente de correlao entre duas variveis aleatrias X e Y dado
por
cov(X, Y )
.
(X, Y ) = p
V (X)V (Y )
Definio 6.7.8: Duas variveis so no-correlacionadas se cov(X, Y ) = 0.
Como j foi provado que se X e Y so independentes, ento E(XY ) = E(X)E(Y ), se
X e Y so independentes, elas necessariamente so no-correlacionadas. O contrrio nem
sempre verdadeiro como o prximo exemplo ilustra.
Exemplo 6.7.9: Se X uma varivel aleatria tal que P (X = a) = P (X = a) = 1/2 e
Y = X 2 , ento E(XY ) = a3 (1/2) + a3 (1/2) = 0 e E(X) = a(1/2) + a(1/2) = 0. Logo,
E(XY ) = E(X)E(Y ) = 0, ou seja, Cov(X, Y ) = 0. Porm, X e Y no so independentes,
pois Y uma funo de X.
Corolrio 6.7.10: |(X, Y )| 1.
Prova: Imediata a partir do (6.7.6).
O prximo teorema mostra que o mdulo do coeficiente de correlao entre duas variveis
igual a 1 se, e somente se, as variveis so linearmente dependentes.
Teorema 6.7.11 : Sejam X e Y variveis aleatrias com varincias finitas e positivas.
Ento,
(i) (X, Y ) = 1 se, e somente se, P (Y = aX + b) = 1 para algum a > 0 e b IR.
(ii) (X, Y ) = 1 se, e somente se, P (Y = aX + b) = 1 para algum a < 0 e b IR.
Campos, Rgo & Mendona

6.8. APRENDENDO UM POUCO MAIS

156

Prova:

(i) Como ( XE(X)


YE(Y ) )2 0, ento,
V (X)

V (Y )

X E(X) Y E(Y ) 2
p
)
0 E( p
V (X)
V (Y )
X E(X) 2
Y E(Y ) 2
2
= E( p
) + E( p
) p
E((X E(X))(Y E(Y )))
V (X)
V (Y )
V (X)V (Y )
2Cov(X, Y )
V (X) V (Y )
+
p
=
= 2 2(X, Y ).
V (X) V (Y )
V (X)V (Y )
Se (X, Y ) = 1, ento
X E(X) Y E(Y ) 2
p
) = 0,
E( p
V (X)
V (Y )
o que por sua vez implica que
X E(X)
Y E(Y )
P( p
= p
) = 1,
V (X)
V (Y )
em outras palavras,
p
P (Y = E(Y ) + p

V (Y )

V (X)

(X E(X))) = 1.

(ii) Anloga, substituindo o sinal + por - na expresso acima.

6.8

Aprendendo um pouco mais

Corolrio 6.8.1: Se X e Y so variveis aleatrias em (, A, P ) tais que E(|X t |) < e


E(|Y t |) < , ento E(|X + Y |t ) < .
Prova: |X + Y | |X| + |Y | 2 max(|X|, |Y |). Portanto, |X + Y |t 2t max(|X|t , |Y |t )
2t (|X|t + |Y |t ). Logo, E(|X + Y |t ) 2t (E(|X|t ) + E(|Y |t ) < .
Como E(|X|t ) < ento, E(|aX|t ) < , a IR, este corolrio mostra que a classe de
variveis aleatrias em (, A, P ) possuidoras do t-simo momento finito um espao vetorial
ou espao linear.
Corolrio 6.8.2: V (X) = E(X )2 = mincIR E(X c)2 .
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

157

Prova:
(X c)2 = (X + c)2 = (X )2 + 2( c)(X ) + ( c)2 ,
logo
E(X c)2 = E(X )2 + 2( c)(E(X) ) + ( c)2 = V (X) + ( c)2 .
Portanto, E(X c)2 E(X )2 , c IR.
Corolrio 6.8.3: Desigualdade de Tchebychev Generalizada. Dado um conjunto A
e uma funo g(x) tal que x, g(x) IA (x), tem-se que P (X A) min(1, E(g(X))).
Prova: Pela monotonicidade da esperana, E(g(X)) E(IA (X)) = P (X A). Mas, como
a cota superior pode exceder 1, tem-se que min(1, E(g(X))) P (X A).
Corolrio 6.8.4: Desigualdade de Markov. Seja X uma varivel aleatria, ento para
todo  > 0,
E|X|
.
P (|X| )

Prova: Escolha A = {x : |x| } e g(x) =
E(|X|)
.


|x|
.


Note que g(x) IA (x), ento P (|X| )

Corolrio 6.8.5: Se Z 0 e E(Z) = 0, ento P (Z = 0) = 1.


Prova: P (Z n1 ) nE(Z) = 0. Como [Z > 0] = n [Z n1 ],
P (Z > 0) = P (n [Z

X
1
1
])
P (Z ) = 0.
n
n
n

Portanto, P (Z = 0) = 1 P (Z > 0) = 1.
Este ltimo corolrio implica que, quando V (X) = 0, ou seja E(X E(X))2 = 0, ento,
P (X = E(X)) = 1, isto , X constante com probabilidade 1.
O prximo teorema apresenta uma nova relao entre momentos conjuntos de variveis
aleatrias, sendo conhecido como Desigualdade de Hlder.
Teorema 6.8.6: Suponha que p e q satisfazem: p > 1, q > 1, e
E(|X|p ) < e E(|X|q ) < , tem-se que

1
p

1
q

= 1. Ento, se

E(|XY |) (E|X|p )1/p (E|Y |q )1/q .


Campos, Rgo & Mendona

6.8. APRENDENDO UM POUCO MAIS

158

Prova: A prova da desigualdade de Hlder utiliza um argumento de convexidade. Como


|X|p 0 (resp., |X|q 0), j foi visto que se E(|X|p ) = 0, ento P (X = 0) = 1. Portanto,
em ambos os casos E(|XY |) = 0 e a desigualdade de Hlder vlida. Considere ento o
caso em que o lado direito da desigualdade de Hlder estritamente positivo.
Para a > 0 e b > 0, existe s, t IR tal que
s
t
a = exp( ) e b = exp( ).
p
q
Como a funo exponencial convexa e p1 + q 1 = 1, por convexidade,
s t
exp( + ) p1 exp(s) + q 1 exp(t),
p q
ou pela definio de s, t
ab p1 ap + q 1 bq .
Agora substituindo a por

|X|
(E(|X|p ))1/p

|XY |
(E(|X|p ))1/p (E(|Y |q ))1/q

e b por

p1 (

|Y |
,
(E(|Y |q ))1/q

tem-se

|X|
|Y |
)p + q 1 (
)q .
p
1/p
q
1/q
(E(|X| ))
(E(|Y | ))

Finalmente, tomando o valor esperado,


E(|XY |)
E(|X|p ) p
E|Y |q q
1
1

p
(
)
+
q
(
)
(E(|X|p ))1/p (E(|Y |q ))1/q
(E((|X|p )))
(E(|Y |q ))
= p1 + q 1 = 1.

6.8.1

Interpretao Geomtrica da Esperana

R
Por definio, E(X) = xdF (x), ou seja, E(X) a integral da diferencial xdF . Mas xdF
uma diferencial de rea. Para x > 0, xdF uma diferencial da rea da regio compreendida
entre
R as curvas x = 0, y = 1, e y = F (x) no plano Euclideano, cuja rea total dada por
(1 F (x))dx. Para x < 0, xdF uma diferencial da rea da regio compreendida
0
entre
e y = F (x) no plano
R 0 as curvas x = 0, y = 0,R
R 0 Euclideano, cuja rea total dada por
F (x)dx. Logo, E(X) = 0 (1 F (x))dx F (x)dx.

maneira. A
R Formalmente,
R prova-se isso da seguinte
R0
R 0prova dividida em duas etapas: (a)
xdF (x) = 0 (1F (x))dx e (b) xdF (x) = F (x)dx. Provando (b). Utilizando
0
integrao por partes, tem-se que a < 0,
Z 0
Z 0
Z 0
xdF (x) = aF (a)
F (x)dx =
(F (a) F (x))dx.
a

Como F (a) 0 e a < 0,


Z

Z
xdF (x)

F (x)dx.
a

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

159

Como a desigualdade vlida para todo a < 0, tomando o limite quando a


Z 0
Z 0
F (x)dx.
xdF (x)

Por outro lado, seja < 0. Se a < , ento


Z

Z
(F (a) F (x))dx

(F (a) F (x))dx = F (a)()

F (x)dx,

e portanto, tomando o limite quando a ,


Z 0
Z 0
F (x)dx.
xdF (x)

Como isto vlido para todo < 0, tomando o limite quando ,


Z 0
Z 0
xdF (x)
F (x)dx.

Para a parte (a), utilizando integrao por partes, tem-se que b > 0,
Z b
Z b
Z b
(F (b) F (x))dx.
F (x)dx =
xdF (x) = bF (b)
0

Como F (b) 1 e 1 F (x) 0,


Z b
Z b
Z
xdF (x) =
(F (b) F (x))dx
0

(1 F (x))dx.

Como a desigualdade vlida para todo b > 0, e tomando o limite quando b


Z
Z
(1 F (x))dx.
xdF (x)
0

Por outro lado, seja > 0. Se b > , ento


Z

(F (b) F (x))dx

(F (b) F (x))dx
Z
Z
=
(F (b) 1)dx +
(1 F (x))dx
0
0
Z
= (F (b) 1) +
(1 F (x))dx,

e portanto, tomando o limite quando b ,


Z
Z
xdF (x)
(1 F (x))dx.
0

Campos, Rgo & Mendona

6.8. APRENDENDO UM POUCO MAIS

160

Como isto vlido para todo > 0, tomando o limite quando ,


Z
Z
(1 F (x))dx.
xdF (x)
0

A desigualdade de Jensen uma das propriedades da esperana.


Corolrio 6.8.7: Desigualdade de Jensen. Seja uma funo mensurvel e convexa
definida na reta. Se X integrvel, ento E((X)) (E(X)).
Prova: Pela convexidade de , dado algum ponto (x0 , (x0 ) do grfico de , existe uma
reta que passa por esse ponto e fica sempre abaixo do grfico de , ou seja, existe algum
tal que
(x) (x0 ) + (x x0 ), x.
Logo, pela monotonicidade e linearidade da esperana,
E(X) (x0 ) + (E(X) x0 ).
Em particular, para x0 = EX, tem-se E(X) (E(X)).
O prximo lema estabelece um critrio para integrabilidade de variveis aleatrias.
Lema 6.8.8: Seja X uma varivel aleatria qualquer. Ento,

P (|X| n) E|X| 1 +

n=1

P (|X| n),

n=1

e, portanto, X integrvel se, e somente se,

n=1

P (|X| n) < .

Prova: Se x 0, seja bxc a parte inteira de x. Ento, a varivel aleatria b|X|c assume o
valor k quando k |X| < k + 1 e 0 b|X|c |X| b|X|c + 1, ento pela monotonicidade
e linearidade da esperana,
0 Eb|X|c E|X| 1 + Eb|X|c.
Como b|X|c uma varivel aleatria que s assume valores inteiros no-negativos,
Eb|X|c =

X
n=1

logo

X
n=1

P (b|X|c n) =

P (|X| n),

n=1

P (|X| n) E(|X|) 1 +

P (|X| n).

n=1

Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

161

Se X + = max(X, 0) e X = min(X, 0), ento X = X + X e |X| = X + + X . Por


definio, E(X) < se, e somente se, E(X + ) < e E(X ) < . Portanto, E(X) <
se, e somente se, E(|X|) < . De forma anloga, pode-se concluir que E((X)) < se, e
somente se, E(|(X)|) < para qualquer funo mensurvel .
O prximo teorema fornece um outro critrio para integrabilidade de uma varivel aleatria.
Teorema 6.8.9: Sejam X e Y variveis aleatrias tais que Y 0, Y integrvel e |X| < Y .
Ento, X integrvel.
Prova: Note que 0 |X| Y implica que 0 E(|X|) E(Y ). Portanto, se E(Y ) < ,
ento E(|X|) < , o que por sua vez implica que E(X) < .
Os dois importantes teoremas (Burrill, 1972) a seguir tratam da convergncia de esperanas de variveis aleatrias. O critrio de convergncia envolvido o pontual ou seja, Xn X
se, e somente se, Xn (w) X(w) para todo w .
Teorema 6.8.10: Teorema da Convergncia Montona. Sejam X, X1 , X2 , . . . variveis
aleatrias. Se 0 Xn X, ento, E(Xn ) E(X).
Teorema 6.8.11: Teorema da Convergncia Dominada. Sejam Y, X, X1 , X2 , . . . variveis aleatrias. Considere que Y seja integrvel, |Xn | Y e Xn X. Assim X e Xn
so integrveis e E(Xn ) E(X).
O prximo exemplo mostra que nem sempre Xn X E(Xn ) E(X).
Exemplo 6.8.12 : Seja Y U (0, 1). Considere a seguinte sequncia {X1 , X2 , . . .} de
variveis aleatrias: Xn () = n se Y () (0, 1/n) e Xn () = 0, caso contrrio. Ento,
Xn () 0, . Mas, E(Xn ) = 1 6= 0 = E(0), ou seja, E(Xn ) 9 0.

Campos, Rgo & Mendona

6.9. EXERCCIOS

6.9

162

Exerccios

6.1 Calcule E(X) e V (X) para as seguintes leis de probabilidades:


(a) P (X = 0) = 0.2, P (X = 1) = 0.5, P (X = 2) = 0.3.
(b) P (X = 1) = 0.2, P (X = 0) = 0.3, P (X = 3) = 0.5.
(c) P (X = k) = k6 , para k = 1, 2, 3.
(d)

fX (x) =

2(1 x), 0 < x < 1,


0,
caso contrrio.

(e)
x+2
,
18


fX (x) =

0,

2 < x < 4,
caso contrrio.

(f )

fX (x) =

1
(x
2

0,

+ 1), 1 < x < 1,


caso contrrio.

(g)

fX (x) =

6x(1 x), 0 < x < 1,


0,
6 (0, 1).

(h)

fX (x) =

2
,
x3

0,

1 < x < ,
6 (0, ).

(i)

0,

x,
8
FX (x) =
x2
,

16
1,

x < 0,
0 x < 2,
2 x < 4,
x 4.

6.2 Suponha que (X, Y ) seja uma varivel aleatria bidimensional tal que

4y(1 x), 0 < x < 1, 0 < y < 1,
f (x, y) =
0,
caso contrrio.
Determine
(a) E(XY ).
(b) V (X + Y ).
6.3 Seja X uma varivel aleatria tal que

x < 2,
0,
x2
, 2 x < 4,
FX (x) =
2
1,
x 4,
e Y = 3X 3. Determine a mdia e a varincia de Y ,
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

163

6.4 Usando a desigualdade de Tchebychev estime uma cota superior para a probabilidade
de que uma varivel aleatria tendo mdia e desvio padro se desvie de por
menos que 3.
6.5 Considere o cabeote de um disco movendo-se dentro de um cilindro de raio interior a
e exterior b. Suponha tambm que h um nmero muito grande de cilindros suficientemente prximos para supor continuidade. Sejam X e Y variveis aleatrias denotando,
respectivamente, a posio atual e a posio almejada do cabeote. Suponha independncia de X e Y e que ambas so uniformemente distribudas no intervalo (a,b). O
movimento do cabeote numa operao de busca modelado por uma distncia dada
por | X Y |. Calcule a distncia mdia percorrida pelo cabeote numa operao de
busca.
6.6 Uma impressora tem uma probabilidade constante de 0.5 de entrar em pane em qualquer um dos 5 dias teis da semana. Se a mquina no apresentar panes durante a
semana, um lucro S obtido. Se 1 ou 2 panes ocorrerem, obtido um lucro R (R < S).
Se 3 ou mais panes ocorrerem, um lucro L alcanado. Admita que quando a mquina entra em pane em qualquer um dos dias, ela permanece em pane o resto do
dia.
(a) Encontre a distribuio de probabilidade do lucro obtido por semana.
(b) Determine o lucro mdio obtido por semana.
6.7 A varincia da soma de duas variveis aleatrias X e Y dada por
V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ),
onde,
Cov(X, Y ) = E(XY ) E(X)E(Y ),
a covarincia entre X e Y .
(a) Calcule V (X + Y ) quando f (x, y) = 6(1 x y), 0 < y < 1 x < 1.
(b) Por que V (X + Y ) = V (X) + V (Y ) quando X e Y so independentes? Justifique
sua resposta.
6.8 Suponha que a varivel aleatria bidimensional contnua (X,Y) seja uniformemente
distribuda sobre a regio limitada pela reta y = 4 e pela parbola y = x2 .
(a) Estabelea a distribuio de probabilidade conjunta de (X,Y).
(b) Encontre fX (x) e fY (y).
(c) Mostre que E(X + Y ) = E(X) + E(Y ).
(d) Verifique se E(XY ) = E(X)E(Y ).
6.9 Suponha que a varivel aleatria bidimensional (X, Y ) seja uniformemente distribuda
sobre o tringulo de vrtices (1, 3), (0, 0) e (1, 3).
Campos, Rgo & Mendona

6.9. EXERCCIOS

164

(a) Especifique a distribuio conjunta de (X, Y ).


(c) Calcule V (Y ) sem calcular fY (y).
6.10 Seja

f (x, y) =

2, 0 < x < y, 0 < y < 1


0, quaisquer outros casos

a funo densidade conjunta do vetor aleatrio (X, Y ).


Sejam u(X, Y ) = X, v(X, Y ) = Y e w(X, Y ) = XY .
Mostre que E(u(X, Y )) E(v(X, Y )) 6= E(w(X, Y )).

(1.5)

6.11 Suponha que a demanda (procura) por semana de um certo produto seja uma varivel
aleatria D com distribuio de probabilidade pk = P (D = k), para k = 0, 1, 2, .
Para este produto sabe-se que o preo de custo C1 , enquanto o preo de venda
C2 . Se o produto no for vendido at o final da semana, deve ser refugado a um custo
adicional C3 . Se o fabricante decide fabricar N desses produtos no incio da semana,
pede-se:
(a) A distribuio de probabilidade da varivel aleatria lucro por semana.
(b) O lucro esperado por semana.
6.12 Sejam os inteiros de 1 a 10 e suponha que um deles seja escolhido aleatoriamente.
Considere a varivel aleatria X como sendo o nmero de divisores do nmero sorteado.
Calcule o nmero mdio de divisores do nmero sorteado.
6.13 n mensagens esto sendo enviadas atravs de um canal de comunicao. Os tempos
de durao das mensagens, Ti , i = 1 , n so aleatrios, e tm a mesma mdia , a
mesma varincia 2 e so independentes.
(a) Encontre a mdia e a varincia do tempo total T de transmisso das n mensagens.
(b) Encontre Tmax , que o tempo mximo praticamente possvel durante o qual as
mensagens podem ser transmitidas. Sugesto: X 3X , three sigma rule.
6.14 Resolva a letra (a) do problema anterior quando os comprimentos das mensagens so
dependentes e o coeficiente de correlao entre as variveis Ti e Tj rij .
6.15 A administrao de uma rede planeja o momento Y de comeo de uma operao
como sendo o tempo mximo em que duas operaes de suporte, X1 e X2 , tenham
terminado. As variveis aleatrias X1 e X2 so mutuamente independentes e tm
densidades, respectivamente, fX1 e fX2 . Encontre a mdia e a varincia da varivel Y .
6.16 Uma mensagem enviada atravs de um canal de comunicao, consiste de n dgitos 0 ou
1, sendo cada um igualmente provvel e independentes. Defina uma varivel aleatria
X como o nmero de mudanas nos dgitos.
(a) Encontre a mdia e a varincia de X.
Campos, Rgo & Mendona

CAPTULO 6. ESPERANA E OUTROS MOMENTOS

165

(b) Encontre o nmero mximo praticamente possvel de mudanas.


6.17 Se X e Y so variveis aleatrias independentes, discretas ou contnuas, mostre que,
y RY ,
E(X | Y = y) = E(X).
6.18 Se (X, Y ) tem uma densidade conjunta f (x, y) = 2, para 0 < x < y < 1. Compute:
(a) E(Y X);
(b) V (Y X).
6.19 Dada a densidade conjunta do vetor aleatrio (X, Y ),
f (x, y) = 6(1 x y), 0 < y < 1 x < 1,
calcule
(a) as densidades de X e Y ;
(b) E(XY ).
6.20 Um jogador lana duas moedas no-viciadas. Ganha 1 u.m. (unidade monetria) ou 2
u.m., conforme ocorra uma ou duas caras. Por outro lado, perde 5 u.m. se no ocorrer
cara. Ache o valor esperado do jogo e verifique se o mesmo favorvel ao jogador.

Campos, Rgo & Mendona

6.9. EXERCCIOS

166

Campos, Rgo & Mendona

Captulo 7
Principais Variveis Aleatrias Discretas
Este captulo descreve os principais modelos de variveis aleatrias discretas, isto , as
variveis aleatrias discretas mais comumente encontradas no mundo fsico. Dentre essas
destacam-se: Bernoulli, Binomial, Poisson, Geomtrica, Pascal, Hipergeomtrica, Zeta e,
como um modelo de uma distribuio discreta multivariada, a Multinomial. Para cada uma
delas ser dada a distribuio de probabilidade, P (X = k), ou lei de probabilidade1 esperana, E(X), e varincia, V (X).
Uma explicao: parmetro da distribuio de probabilidade a entidade sem a qual
impossvel calcular probabilidades envolvendo a varivel aleatria. O k, em P (X = k), um
dos valores que a varivel aleatria assume com probabilidade diferente de zero, isto , um
dos valores do seu contradomnio. Se o ou os parmetros da distribuio de probabilidade
no so conhecidos, o que acontece em problemas prticos, a Estatstica fornece mtodo para
estim-los.
Observao: Muitos clculos ficam indicados, ficando para o leitor a tarefa de realiz-los,
mas, quando for necessrio o uso de decimais nos exemplos resolvidos ser adotado o sistema
de ponto-flutuante F (10, 3, e1 , e2 ) e o arredondamento simtrico2 (Forsythe (1977), Goldberg
(1991), Santos e Silva (2010), Sterbenz (1974), Vandergraft (1983), Wilkson (1963)).

7.1

Bernoulli de parmetro p: B(p)

A modelagem de uma situao do mundo fsico por uma Bernoulli envolve definir um evento
de interesse, A por exemplo, e a ele associar uma probabilidade p = P (A). Portanto, nesta
modelagem, o mundo real dicotmico, isto , ou A acontece, ou no, neste ltimo caso,
acontece seu complementar. Assim, uma Bernoulli pode ser adequada para modelar: o
estado de uma impressora, se funcionando ou no; em uma palavra de mquina um dado
bit ser 1 ou 0. Alm de modelar o mundo real, a Bernoulli bsica em desenvolvimentos
tericos como, para conjuntamente com a desigualdade de Tchebychev, provar a Lei dos
Grandes Nmeros.
1

Portanto, 0 P (X = k) 1, k e
2
Vide Apndice A

P (X = k) = 1.

167

7.2. BINOMIAL DE PARMETROS N E P : B(N, P )

168

(i) Distribuio de probabilidade.



P (X = k) =
onde q = 1 p e portanto

P1

k=0

q, k = 0,
p, k = 1,

P (X = k) = 1.

(ii) Esperana.
E(X) = 0 q + 1 p = p.
(iii) Varincia.
E(X 2 ) = 02 p + 12 p = p,
logo
V (X) = E(X 2 ) E(X)2 = p p2 = pq.
Exemplo 7.1.1: Suponha uma nica posio de memria num computador digital. O
objetivo modelar a distribuio da varivel aleatria, X, que conta o nmero de uns (1s)
nesta posio de memria. Imagine que no haja razo para supor que o aparecimento de
0 ou 1 tenham probabilidades diferentes, portanto, assume-se que P (0) = P (1) = 21 . Ento,
P (X = 0) = P (X = 1) = 12 .

7.2

Binomial de parmetros n e p: B(n, p)

Uma varivel binomial conta o nmero de ocorrncias (ou o nmero de sucessos) de um


dado evento A em n realizaes de experimentos independentes de Bernoulli, onde P (A) = p
permanece constante em todo o desenvolvimento do experimento. Assim, uma binomial
adequada para modelar, entre outros, o nmero de zeros em uma palavra de mquina de
preciso simples ou dupla, o nmero de processadores em funcionamento em um sistema
multiprocessador ou o nmero de servidores ativos em um dado sistema de computao.
(i) Distribuio de probabilidade.
 
n k
P (X = k) =
p (1 p)nk , k = 0, . . . , n.
k
Note que, usando o teorema binomial3 tem-se que
n
X

n  
X
n k nk
P (X = k) =
p q
= (p + q)n = 1.
k
k=0
k=0

(a + b)n =

Pn

k=0

n
k

ak bnk .

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

169

(ii) Esperana.
 
n
n
X
n k nk X
n!
E(X) =
k
p q
=
pk q nk
k
k
k!(n

k)!
k=0
k=0
n
X
n!
(n 1)!
k nk
p q
=
pk q nk
=
n
(k

1)!(n

k)!
(k

1)!(n

k)!
k=1
k=1

n 
X
n 1 k1 nk
= np
p q
= np.
k1
k=1
n
X

(iii) Varincia.
Um clculo similar ao de E(X) mostra que
E(X 2 ) = npq + n2 p2
e portanto,
V (X) = npq + n2 p2 n2 p2 = npq.
Uma varivel aleatria relacionada com uma X B(n, p) Y = n X. Neste caso, Y
conta o nmero de falhas4 nas n repeties independentes do experimento, sendo ento uma
B(n, q).
Exemplo 7.2.1: Um sistema de computao on-line tem 20 linhas de comunicao que
operam independentemente. A probabilidade que qualquer linha esteja ocupada 0.6. Qual
a probabilidade que 10 ou mais linhas estejam em operao?
Soluo: A = {a linha est ocupada}. P (A) = p = 0.6 q = 1 p = 0.4. Seja X=
nmero de linhas ocupadas, ou em operao. Logo,
 
20
P (X = k) =
0.6k 0.420k , k = 0, . . . , 20.
k
Portanto,
20  
X
20
P (X 10) =
0.6k 0.420k .
k
k=10

7.3

Poisson de parmetro : P oisson()

A funo de probabilidade Poisson usualmente utilizada para modelar a contagem do


nmero de ocorrncias de eventos aleatrios em um certo tempo t, como por exemplo o
nmero de ftons emitidos por uma fonte de luz de intensidade I ftons/seg em t segundos
( = It), o nmero de clientes chegando em uma fila no tempo t ( = Ct), o nmero de
ocorrncias de eventos raros no tempo t ( = Ct), entre outros.
4

Na verdade a definio do que sucesso ou falha depende de como a modelagem est sendo realizada.

Campos, Rgo & Mendona

7.3. POISSON DE PARMETRO : P OISSON ()

170

(i) Distribuio de probabilidade.


P (X = k) =

e k
, k {0, 1, . . .}.
k!

Usando o resultado da expanso em srie de Taylor da funo exponencial, sabe-se que


para todo x real,

X
xk
.
ex =
k!
k=0
Portanto,

P (X = k) =

k=0

X
e k
k=0

k!

= e

X
k
k=0

k!

= e e = 1.

(ii) Esperana.

X
X
e s+1
e k X e k
=
=
E(X) =
k
k!
(k 1)!
s!
s=0
k=1
k=0

= e

X
e s
s=0

s!

= e e = .

No clculo anterior, k 1 = s k = s + 1.
(iii) Varincia.

E(X ) =

2e

k=0

X e k
X

e s+1
=
k
=
(s + 1)
k!
(k 1)!
s!
s=0
k=1

X
e s+1 X e s+1
=
s
+
s!
s!
s=0
s=0

X
X
e s
e s
s
+
s!
s!
s=0
s=0

= 2 + .
Portanto,
V (X) = 2 + 2 = .
Exemplo 7.3.1: Se a probabilidade de 0 ftons serem emitidos no tempo [0, t) igual a
0.1, ento qual a probabilidade de que pelo menos 2 ftons serem emitidos no mesmo tempo
t?
Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

171

Soluo: A = {emisso de ftons no tempo t}. Seja X= nmero de ftons serem emitidos
no tempo t. Neste problema no foi dado o parmetro , mas foi fornecida uma condio
para encontr-lo.
P (X = 0) = 0.1

e 0
= 0.1 e = 0.1 = 2.302.
0!

Portanto, P (X 2) = 1 P (X 1) = 1 e2.302 2.302e2.302 .


Exemplo 7.3.2: Um valor mais provvel de uma distribuio de Poisson k se
P (X = k ) P (X = k + 1)
e
P (X = k ) P (X = k 1).
Soluo: Realizando estes clculos, estas condies so equivalentes a,
k k + 1
ou
1 k .
Se k o maior inteiro menor ou igual a esta restrio satisfeita, e portanto este
um valor mais provvel desta distribuio. Em outras palavras, k o valor de k que torna
mxima a probabilidade na Poisson.

7.3.1

Poisson como um Limite de Eventos Raros de Binomial

A distribuio de Poisson pode ser encontrada pelo limite de uma B(n, p), quando n vai para
infinito (isto , o experimento realizado um nmero grande de vezes), p muito pequeno
mas np, que mdia da binomial, permanece constante. A explanao a seguir5 motiva
como essa aproximao pode ser realizada.
Suponha que chamadas telefnicas cheguem em uma grande central e que em um perodo
particular de trs horas (180 minutos) um total de 270 chamadas tenham sido recebidas, ou
seja, 1.5 chamadas por minuto. O objetivo calcular a probabilidade de serem recebidas k
chamadas durante os prximos trs minutos. natural pensar que a qualquer instante pode
ocorrer uma chamada, portanto a modelagem do problema exige que aproximaes sejam
feitas.
Para comear, pode-se dividir o intervalo de 3 minutos em nove intervalos de 20 segundos
cada um e tratar cada um desses nove intervalos como um ensaio de Bernoulli, durante o
qual observa-se uma chamada (sucesso) ou nenhuma chamada (falha), com probabilidade
20
= 0.5. Desse modo, a tentao grande para afirmar
de sucesso igual a p = 1.5 60
9
. Porm, este clculo ignora a
que a probabilidade de 2 chamadas igual a 92 (0.5)9 = 128
possibilidade de que mais de uma chamada possa ocorrer em um nico intervalo. Ento, por
5

de P. Meyer (1983) pg. 187

Campos, Rgo & Mendona

7.3. POISSON DE PARMETRO : P OISSON ()

172

que no aumentar o nmero n de subintervalos de tempo de modo que cada subintervalo


corresponda a 180
segundos e portanto a probabilidade de ocorrncia de uma chamada em um
n
180
? Desta maneira np = 4.5 permanece constante quando
subintervalo seja igual a p = 1.5 60n
o nmero de subintervalos cresce. Utilizando novamente o modelo binomial, a probabilidade
de ocorrerem k chamadas dada por: nk ( 4.5
)k (1 4.5
)nk . O que acontece com esta
n
n
probabilidade quando n ? A resposta, como ser visto a seguir, que esta distribuio
tende a uma distribuio de Poisson, sendo este resultado conhecido como limite de eventos
raros.
Seja a expresso geral da probabilidade binomial,
 
n(n 1) (n k + 1) k
n k
n!
pk (1p)nk =
p (1p)nk .
P (X = k) =
p (1p)nk =
k!(n k)!
k!
k
Como o objetivo estudar o caso em que np constante, seja np = , ou seja, p =
1 p = n
. Ento,
n

n(n 1) (n k + 1) k n nk
( ) (
)
k!
n
n
k
1
k1

=
((1)(1 ) (1
)(1 )nk .
k!
n
n
n
j
Fazendo n , os termos da forma (1 n ), para 1 j k 1, tendem para 1 e
como existe um nmero fixo k 1 deles, o seu produto tambm tende a 1. O mesmo ocorre
com (1 n )k . Finalmente, por definio do nmero e, tem-se que (1 n )n e quando
n . Portanto,
P (X = k) =

lim

n,p0,=np

P (X = k) =

e k
,
k!

ou seja, obteve-se a expresso de Poisson.


Exemplo 7.3.3: Ao formar nmeros binrios com n dgitos, a probabilidade de que um dgito incorreto possa aparecer 0.002. Se os erros forem independentes, qual a probabilidade
de encontrar k dgitos incorretos em um nmero binrio de 25 dgitos? Se um computador
forma 106 desses nmeros de 25 dgitos por segundo, qual a probabilidade de que pelo
menos um nmero incorreto seja formado durante qualquer perodo de 1 segundo?
Soluo: A probabilidade
de que k dgitos sejam incorretos em um nmero binrios de 25

k
dgitos igual a 25
(0.002)
(0.998)25k . Em particular, a probabilidade de que pelo menos
k
um dgito seja incorreto igual a 1 (0.998)25 0.049. Usando a aproximao pela Poisson
ento tem-se uma Poisson com parmetro 25 0.002 = 0.05, logo a probabilidade de pelos
menos um dgito incorreto neste nmero de 25 dgitos 1 e0.05 0.049.
A probabilidade de que pelo menos um nmero incorreto seja formado durante um perodo
6
de 1 segundo igual a 1 (0.049)10 1 e49000 1.
A distribuio de Poisson tambm pode ser deduzida de especficas hipteses relativas a
determinada classe de fenmenos estudados sendo, neste caso, o parmetro obtido proporcionalmente6 .
6

Ver o processo de Poisson, Captulo 10.

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

173

Exemplo 7.3.4: Suponha que o nmero de clientes que chegam em um banco segue uma
distribuio de Poisson. Se a probabilidade de chegarem 3 clientes for o triplo da de chegarem
4 clientes em um dado perodo de 10 minutos. Determine:
(a) Qual o nmero esperado de clientes que chegam em um perodo de 1 hora neste banco?
(b) Qual o nmero mais provvel de clientes que chegam em um perodo de 1 hora neste
banco?
Soluo: Seja X10 = nmero de clientes que chegam ao banco em 10 minutos.
P (X10 = 3) = 3P (X10 = 4)

e 3
e 4
=3
= 1.333.
3!
4!

(a) Seja X60 = nmero de clientes que chegam ao banco em 60 minutos. Para t = 10 minutos
tem-se que = 1.333, logo para t = 60 minutos, = 601.333
= 7.998 e portanto
10
E(X60 ) = 7.998 8.
(b) 6.998 7.998 = 7 ou = 8. O valor de depender da regra de deciso
associada ao problema.

7.4

Geomtrica de parmetro p: G(p)

A geomtrica pode ser utilizada para modelar o nmero de repeties independentes do


lanamento de uma moeda at a primeira ocorrncia de cara, tempo de espera medido em
unidades de tempo inteiras at a chegada do prximo consumidor em uma fila, ou at a
prxima emisso de um fton. Esta varivel, assim como as anteriores, tambm uma
varivel de contagem, s que ela est relacionada primeira ocorrncia de sucesso do evento
A de interesse na modelagem. Por exemplo, se o evento de interesse a ocorrncia do
primeiro 1 numa string de zeros e uns, se a varivel assumir o valor 10, a string observada
foi 0000000001.
(i) Distribuio de probabilidade.
P (X = k) = q k1 p, k {1, 2, 3, . . .},
porque {X = k} equivalente A
{z. . . A} A.
| A
k1

Utilizando o resultado de uma soma infinita de uma progresso geomtrica ilimitada


de razo | r |< 1,

X
k=1

P (X = k) =

X
k=1

q k1 p = p

q k1 = 1.

k=1

Logo, esta uma legtima funo probabilidade de massa.


Campos, Rgo & Mendona

7.4. GEOMTRICA DE PARMETRO P : G(P )

174

(ii) Esperana.

E(X) =

kP (X = k) =

k=1

= p

kq k1 = p

k=1

kq k1 p

k=1

X
k=1

d k
q
dq

q
1
d X k
d
)= .
= p
q =p (
dq k=1
dq 1 q
p

(iii) Varincia. Usando a funo geratriz de momentos (Meyer, 1983) tem-se que
E(X 2 ) =

1+q
.
p2

Logo,
V (X) =

1+q
1
q

=
.
p2
p2
p2

Exemplo 7.4.1: Suponha que joga-se uma moeda independentemente at que uma coroa
ocorra. Sabe-se que probabilidade de cara igual a 0 < p < 1. Seja X o nmero de repeties
necessrias at que coroa aparea pela primeira vez na sequncia. Qual a probabilidade
do evento {X = k} para k {1, 2, 3, . . .}? Note que para que X = k necessrio que
os primeiros k 1 lanamentos sejam caras e o k-simo lanamento seja coroa, logo, pela
independncia dos lanamentos, P (X = k) = pk1 q. Ou seja, X uma varivel geomtrica
de parmetro q.
Exemplo 7.4.2: Suponha que X tenha uma distribuio geomtrica com parmetro .
Mostre que para quaisquer dois inteiros positivos s e t,
P (X > s + t|X > s) = P (X > t).
Soluo:
P (X > s + t|X > s) =
Mas
P (X > s + t) =

P (X > s + t)
P (X > s + t, X > s)
=
.
P (X > s)
P (X > s)

(1 )k1 = (1 )s+t .

k=s+t+1

Similarmente, P (X > s) = (1 )s e P (X > t) = (1 )t . Portanto,


P (X > s + t|X > s) =

(1 )s+t
= (1 )t = (X > t).
(1 )s

Esta propriedade da distribuio geomtrica conhecida como falta de memria7 .


7

Como ser visto no captulo seguinte, a varivel Exponencial tambm tem essa propriedade.

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

7.5

175

Pascal de parmetros r e p: P ascal(p, r)

Esta distribuio pode ser considerada como uma generalizao da distribuio geomtrica.
Suponha que o interesse seja calcular a probabilidade de que um experimento tenha de ser
repetido k vezes para que um evento A ocorra r vezes. Seja X o nmero de repeties
necessrias a fim de que um evento A possa ocorrer exatamente r vezes. X = k se, e
somente se, A ocorrer na k-sima repetio e A tiver ocorrido r 1 vezes nas (k 1)
repeties anteriores. Uma possvel realizao do experimento
. A} .
. . A} A
B=A
| . .{z
| .{z
r

kr

Assumindo independncia entre os eventos, a probabilidade acima corresponde a


q . . . q p . . . p = q kr pr .
| {z } | {z }
r

kr

Mas, quantas realizaes distintas do evento B so possveis? A resposta

k1
r1


. Portanto,

(i) Distribuio de probabilidade.




k 1 r kr
P (X = k) =
p q , k r.
r1
Se r = 1, tem-se que X tem uma distribuio geomtrica com parmetro p.
(ii) Esperana e Varincia.
Para calcular E(X) e V (X) pode-se proceder da seguinte maneira. Seja Z1 , Z2 , . . . uma
sequncia de variveis aleatrias tal que Z1 o nmero de repeties do experimento
at a primeira ocorrncia de um evento A, Zi o nmero de repeties do experimento
entre a (i 1)-sima at e incluindo a i-sima ocorrncia de A, para i = 2, 3, . . . , r,
isto ,
. . A} A A
. . A} A . . . A
. . A} A.
|A .{z
| .{z
| .{z
Z1

Z2

Zr

Ento, as variveis Zi so independentes, cada uma delas tem uma distribuio geomtrica com parmetro p e X = Z1 + Z2 + + Zr . Logo, X pode ser considerada
como uma soma de r geomtricas independentes, portanto, usando propriedades da
esperana e da varincia,
r
E(X) =
p
e
r(1 p)
V (X) =
.
p2
Campos, Rgo & Mendona

7.6. HIPERGEOMTRICA DE PARMETROS N, D, E N : H(N, D, N )

176

Exemplo 7.5.1: Suponha que X tenha distribuio binomial com parmetros n e p e Y


tenha uma distribuio de Pascal com parmetros r e p. Portanto, P (X r) = P (Y n).
Estas duas distribuies tratam de ensaios de Bernoulli repetidos. A distribuio binomial
surge quando se tem um nmero fixo de ensaios e o interesse o nmero de sucessos que
venham a ocorrer. A distribuio de Pascal encontrada quando o nmero de sucessos
fixo, r, e o que registrado o nmero de ensaios necessrios para a obteno dos r sucessos.

Observao. Pascal ou binomial negativa? Jain (1991) (pgina 492) considera Pascal
e binomial negativa distintas. A binomial negativa definida como sendo o nmero de
falhas antes de ocorrerem r sucessos. Portanto, se k = 4 e r = 3, possveis realizaes do
experimento so:
A A A A A A A,
A A A A A A A.
3 4
Cada um dos eventos acima
 tem probabilidade p q . Mas, quantos so? Como a ltima
4+2
posio est fixa, tem-se 2 arrumaes. Portanto,


k + (r 1) r k
P (X = k) =
p q , k = 0, 1, . . .
r1

Quando k = 0 ento ocorreu |A A


{z. . . A} .
r

Grinstead e Snell (1997), pgina 186, chamam a Pascal de binomial negativa. Para Meyer
(1983), pgina 204, a distribuio de Pascal pode ser chamada de binomial negativa.

7.6

Hipergeomtrica de parmetros N, D, e n: H(n, D, n)

A distribuio hipergeomtrica descreve o nmero de sucessos em uma sequncia de n amostras retiradas sem reposio de uma populao finita.
Por exemplo, considere que tem-se uma carga com N objetos dos quais D so defeituosos.
A distribuio hipergeomtrica descreve a probabilidade de que em uma amostra de n objetos
distintos escolhidos da carga aleatoriamente exatamente k objetos sejam defeituosos.
(i) Distribuio de probabilidade.

P (X = k) =

D
k

N D
nk

N
n


.

Esta probabilidade positiva se: N D n k, ou seja k max(0, D + n N ) e


k min(n, D).

Esta frmula pode ser entendida assim: existem Nn possveis amostras sem reposio,


D
D
maneiras de escolher k objetos defeituosos e Nnk
maneiras de preencher o resto
k
da amostra com objetos sem defeito.
Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

177

Quando a populao grande quando comparada ao tamanho da amostra (ou seja, N


for muito maior que n) a distribuio hipergeomtrica aproximada por uma distribuio binomial com parmetros n (tamanho da amostra) e p = D/N (probabilidade
de sucesso em um nico ensaio) (Meyer, 1983).

(ii) Esperana.

E(X) =

n
X

D
k

k=0

=
=

n
nD X

k=1

n
nD X

k=1

N D
nk

N
n


=

n
X
k=1

D!(N D)!(N n)!n!


k!(D k)!(n k)!(N D n + k)!N !

(D 1)!(N D)!(N n)!(n 1)!


(k 1)!(D k)!(n k)!(N D n + k)!(N 1)!


D1 N D
k1
nk

N 1
n1

Substituindo no somatrio D = D 1, k = k 1, n = n 1 e N = N 1,

n
nD X
E(X) =
N k =0

Se p =

D
N

D
k

N D
n k

N


=

nD
.
N

ento, E(X) = np.

O somatrio acima igual a soma da funo probabilidade de massa de uma varivel aleatria hipergeomtrica para todos os valores que tem probabilidade positiva, e
portanto, igual a 1.

(iii) Varincia.
Campos, Rgo & Mendona

7.6. HIPERGEOMTRICA DE PARMETROS N, D, E N : H(N, D, N )

E(X 2 ) =

n
X

k=0
n
X

D
2 k

N D
nk

N
n

178



D1 N D
n
D
k1
nk


=
k2
N 1
k
N
n1
k=0


n
D1 N D
n X k1 nk

= D
k
N 1
N k=0
n1
 N D 
n
D1
n X
k
nk1

(k + 1)
= D
N 1
N k=0
n1
n
D1 n1
n X
k
= D (
N k=0
k N 1
n

N D
nk1

N 2
n2
 N D 
D2
k1
nk1

N 2
n2

= D

n (D 1)(n 1) X
(
N
N 1
k=0

= D

n (D 1)(n 1)
(
+ 1).
N
N 1

D2
k1


+

n
X

D1
k

k=0

N D
nk1

N 1
n1


)

+ 1)

Logo,
n (D 1)(n 1)
n2
2
V (X) = D (
+ 1) D 2
N
N 1
N
n (D 1)(n 1)
n
= D (
+1D )
N
N 1
N
D
D N n

(1 ).
= n
N
N 1
N
Fazendo a mesma substituio no caso de E(X) tem-se que:
V (X) = np(1 p)

N n
N n
= npq
.
N 1
N 1

Exemplo 7.6.1: Suponha que uma urna contm 20 bolas brancas e 10 bolas pretas. Se 4
bolas so retiradas da urna. Determine:
(a) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas com
reposio.
(b) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas sucessivamente e sem reposio.
(c) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas simultaneamente.
Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

179

Soluo: Seja Bi = {i-sima bola branca, i = 1, 2, 3, 4.}


(a)
P (B1 B4 ) = 1 P (B1 B4 )
= 1 P (B1 B4 )
= 1 P (B1 ) P (B4 )
10
= 1 ( )4 .
30
Este item tambm poderia ser resilvido usando o Teorema da Incluso-Excluso, mas
daria muito trabalho. Observe que foi usado o fato dos eventos serem independentes.
(b)
P (B1 B4 ) = 1 P (B1 B4 )
= 1 P (B1 B4 )
= 1 P (B1 )P (B2 |B1 ) P (B4 |B1 B4 )
10 9 8 7
.
= 1
30 29 28 27
(c) Seja X = {nmero de bolas brancas retiradas da urna.} Logo
 10 
20
k

P (X = k) =

Portanto, P (X 1) =

P4

k=1

4k

30
4

, k = 0, . . . , 4.

10
(20k )(4k
)
.
30
(4)

Exemplo 7.6.2: Por engano 3 peas defeituosas foram misturadas com boas formando um
lote com 12 peas no total. Escolhendo ao acaso 4 dessas peas, determine a probabilidade
de encontrar:
(a) Pelo menos 2 defeituosas.
(b) No mximo 1 defeituosa.
(c) No mnimo 1 boa.
Soluo: Seja X = {nmero de peas defeituosas no lote.} Logo
 9 
3
P (X = k) =

(a) P (X 2) = P (X = 2) + P (X = 3) =

4k

12
4

, k = 0, . . . , 4.

(32)(92) (33)(91)
+ 12 .
(124)
(4)
Campos, Rgo & Mendona

7.7. ZETA OU ZIPF DE PARMETRO > 1: Z()


(b) P (X 1) = P (X = 0) + P (X = 1) =

180

(30)(94) (31)(93)
+ 12 .
(124)
(4)

(c) Seja Y = {nmero de peas perfeitas na amostra.}. O contradomnio de Y RY =


{1, 2, 3, 4} e portanto P (Y 1) = 1.

7.7

Zeta ou Zipf de parmetro > 1: Z()

A funo probabilidade Zeta ou Zipf um exemplo de uma distribuio de caudas-pesadas8


cuja importncia cresceu desde meados dos anos 1990. As aplicaes desta funo de probabilidade incluem: nmero de consumidores afetados por um blackout, tamanhos de arquivos
solicitados em transferncia via Web e atraso de pacotes na internet.
(i) Distribuio de probabilidade.
P (X = k) =
onde () =
para > 1.

j=1

k
, k = 1, 2, . . . , > 1
()

j conhecida como a funo Zeta de Riemann, sendo convergente

(ii) Esperana.
E(X) =

X
k
1 X (1) ( 1)
k
=
k
=
, > 1.
()
()
()
k=1
k=1

(iii) Varincia.

k
1 X (2)
1
=
k
=
( 2), > 2.
E(X ) =
k
()
() k=1
()
k=1
2

Logo,
V (X) =

1
( 1) 2
( 2) (
).
()
()

Exemplo 7.7.1: Os tamanhos de arquivos armazenados em um grande sistema de arquivos


Unix seguem uma distribuio Zeta com parmetro quando estes tamanhos so medidos
em kilobytes9 .
(a) Se os tamanhos dos arquivos de 1KB so 10000 vezes mais provveis que tamanhos de
arquivos de 1MB, ento qual o valor do parmetro ?
8

Se uma varivel aleatria tem caudas-pesadas ento tem probabilidades grandes nas caudas.
1024bytes = 1kilobyte = 1KB; 1024kilobytes = 1megabyte = 1MB; 1024megabytes = 1gigabytes = 1GB;
1024gigabytes = 1terabyte = 1TB; 1024terabytes = 1petabyte = 1PB; 1024petabytes = 1exabyte = 1EB;
1024exabytes = 1zettabyte = 1ZB; 1024zettabytes = 1yottabyte = 1YB.
9

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

181

(b) Quanto mais provvel so tamanhos de arquivos de 1MB em comparao com tamanhos
de arquivos de 1GB?
Soluo:
(a) Seja X = {tamanho dos arquivos em KB}. Logo,
P (X = 1) = 10000P (X = 1024)

1
1024
=
= 1.329.
()
()
2

)
e P (X = 10242 ) = (1024
. Portanto, P (X = 10242 ) =
(b) P (X = 1024) = 1024
()
()
1024 P (X = 1024), sendo pouquissimo provvel pois 10241.329 9.984 105 .

7.8

Multinomial

A Multinomial uma distribuio conjunta de variveis aleatrias discretas, que pode ser
considerada como uma generalizao da distribuio binomial.
Considere um experimento aleatrio qualquer e suponha que o espao amostral deste experimento particionado em k eventos {A1 , A2 , . . . , Ak }, onde o evento Ai tem probabilidade
pi . Suponha que se repita este experimento n vezes de maneira independente e seja Xi o
nmero de vezes que o evento Ai ocorreu nestas n repeties. Ento,
P (X1 = n1 , X2 = n2 , . . . , Xk = nk ) =

n!
pn1 1 pn2 2 pnk k ,
n1 !n2 ! nk !

P
onde ki=1 ni = n.
Lembrando que o nmero de maneiras de arranjar n objetos, n1 dos quais de uma
espcie, n2 dos quais de uma segunda espcie, . . ., nk dos quais so de uma k-sima
espcie dado pelo coeficiente multinomial n1 !n2n!!nk ! , que corresponde a uma permutao
com repetio.
Exemplo 7.8.1: Uma impressora est apresentando uma mdia de 2 erros por pgina
impressa. Sabe-se que no h razo para supor que exista qualquer relao entre os erros
(ou acertos) de uma pgina para outra, e que o fenmeno obedece a uma lei de Poisson.
(a) Qual a probabilidade de que uma pgina no apresente erros?
(b) Uma amostra aleatria de 10 pginas selecionada de todas as pginas impressas pela
impressora. Qual a probabilidade de que essa amostra apresente 2 ou mais pginas
sem erro?
(c) Qual a probabilidade de que a primeira pgina sem erro aparea na dcima impresso?
(d) Suponha que pginas so impressas at que ocorram 3 sem erro. Qual a probabilidade
de que seja necessrio imprimir 5 pginas para que isto acontea?
Campos, Rgo & Mendona

7.8. MULTINOMIAL

182

(e) Cada pgina impressa classificada como excelente se no apresentar erros, boa, se
contiver de 1 a 2 erros e inaceitvel, se contiver 3 ou mais erros. Se 15 pginas so inspecionadas, qual a probabilidade de que 8, 5 e 2 pginas, respectivamente, pertencam
a cada uma das categorias acima?
Soluo:
(a) Seja Np = {nmero de erros por pgina.}. Logo,
Np P oisson( = 2)
e a probabilidade pedida
P (Np = 0) = e2 = 0.136.
(b) Seja N = {nmero de pginas sem erro.}. Logo,
N B(n = 10, p = P (Np = 0) = 0.136).
Portanto,
 
 
10 0 10
10 1 9
P (N 2) = 1 P (N 1) = 1
pq
pq .
0
1
(c) N1 = {nmero de pginas impressas at aparecer a primeira sem erro.}
N1 G(p = P (Np = 0))
e assim,
P (N1 = 10) = (1 e2 )9 e2 .
(d) N2 = {nmero de pginas que tem de ser impressas para aparecerem 3 sem erro.},
N2 P ascal(p = P (Np = 0)).
Logo,

P (N2 = 5) =


51
(e2 )3 (1 e2 )53 .
31

(e) A distribuio aqui uma Multinomial. Seja Xi , i = 1, 2, 3, nmero de pginas classificadas como excelente, boa e inaceitvel, respectivamente. Portanto,
P (X1 = 8, X2 = 5, X3 = 2) =

15! 8 5 2
ppp,
8!5!2! 1 2 3

onde
p1 = P (Np = 0), p2 = P (1 Np 2), p3 = P (Np 3).

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

183

Exemplo 7.8.2: Em determinado cruzamento da BR101 caminhes transitam exibindo


placas de vrios estados; estima-se que em um dado intervalo de tempo, t, as probabilidades
de transitarem neste cruzamento caminhes com placas do Cear (CE), Amazonas (AM) e
1
1
15
1
, 100
e 80
, sendo 16
a probabilidade de caminhes
Maranho (MA), so, respectivamente, 25
com placas que no sejam destes trs estados.
(a) Se no intervalo de tempo dado passarem neste cruzamento 9 caminhes, qual a probabilidade de que, dentre os 9, um igual nmero deles proceda somente de cada um dos
referidos estados?
(b) Sabe-se que o nmero de caminhes com placa do Cear, que transitam neste cruzamento e no dado intervalo de tempo, segue uma distribuio de Poisson com taxa (ou
1
mdia) 25
caminhes por dia. Qual a probabilidade de que em uma semana, pelo
menos um caminho apresente placa do Cear?
(c) Sabe-se que 2004 ter 53 semanas. Qual a probabilidade de que o nmero de semanas
onde trafega pelo menos um caminho com placa do Cear seja exatamente 2?
(d) Qual a probabilidade de que a dcima semana seja a primeira onde transita pelo menos
um caminho com placa do Cear?
(e) Qual a probabilidade de que seja necessrio transcorrerem 20 semanas a fim de que
em exatamente 3 delas pelos menos um caminho apresente placa do Cear?
Soluo: Sejam os eventos C = { a placa do Cear}, A = { a placa do Amazonas},
M = { a placa do Maranho} e N = { a placa no do CE, AM e MA}. Portanto, P (C) =
1
1
1
, P (A) = 100
, P (M ) = 80
e P (N ) = 15
.
25
16
(a) Distribuio: Multinomial. Seja Xi , i = 1, 2, 3, 4, respectivamente, nmero de caminhes
com placas do CE, AM, MA e com placas que no sejam destes trs estados.
P (X1 = 3, X2 = 3, X3 = 3, X4 = 0) =

1
1 3 1 3 15 0
9!
( )3 (
)( )( ).
3!3!3!0! 25 100 80 16

1
1
). Portanto, se em 1 dia, = 25
, em uma semana, isto , 7 dias,
(b) X1 P oisson( = 25
7
= 25
.. Seja Xs = {nmero de caminhes com placa do Cear trafegando em uma semana}.
Logo,
7
Xs P oisson( = ),
25
e
7
P (Xs 1) = 1 P (Xs < 1) = 1 e 25 .

(c) Seja XC = {nmero de semanas onde trafega pelo menos um caminho com placa do Cear}.
Ento
7
XC B(n = 53, p = 1 e 25 )
e

 
53 2
P (XC = 2) =
p (1 p)51 .
2
Campos, Rgo & Mendona

7.8. MULTINOMIAL

184

(d) Distribuio Geomtrica.


7

P (XC = 10) = (e 25 )9 (1 e 25 ).
(e) Distribuio de Pascal.
 
7
7
19
P (XC = 3) =
(1 e 25 )3 (e 25 )17 .
2

Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

7.9

185

Exerccios

7.1 Num canal de transmisso com rudo, so transmitidas independentemente 20 cpias


de um mesmo pacote. Seja 0.4 a probabilidade de transmisso com sucesso de qualquer
uma das cpias. Considere o nmero de cpias enviadas com sucesso como sendo a
varivel aleatria de interesse.
(a) Especifique a distribuio de probabilidade ou funo densidade dessa varivel
aleatria.
(b) Qual a probabilidade de que todas as cpias sejam enviadas com sucesso.
7.2 Uma mensagem, enviada em cdigo binrio, consiste de uma sequncia de smbolos 0
ou 1 todos com igual probabilidade e independentes uns dos outros. Uma sequncia
do mesmo smbolo do tipo 000 0 ou 11, etc. Seja uma dessas sequncias tomadas
aleatoriamente. A varivel X o nmero de smbolos iguais na sequncia. Encontre
P (X k).
7.3 Uma fbrica produz 10 recipientes de vidro por dia. Deve-se supor que exista uma
probabilidade constante p = 0.1 de produzir um recipiente defeituoso. Antes que esses recipientes sejam estocados, eles so inspecionados e os defeituosos so separados.
Admita que exista uma probabilidade constante r = 0.1 de que um recipiente defeituoso seja mal classificado. Faa X igual ao nmero de recipients classificados como
defeituosos ao fim de um dia de produo. (Admita que todos os recipientes fabricados
em um dia sejam inspecionados naquele dia e que os recipientes perfeitos sempre so
classificados corretamente).
(a) Obtenha a expresso de P (X = k).
(b) Calcule P (X 2).
7.4 Uma rodovia est dividida em 8 trechos de igual comprimento, cada qual sob jurisdio
de uma guarnio de polcia rodoviria e todos igualmente perigosos. Sabendo-se que
nessa rodovia h, em mdia, 6 desastres por dia, calcular a probabilidade de que, (a)
em determinado dia haja quatro trechos sem desastre, (b) 3 trechos com um desastre
cada e (c) um trecho com mais de um desastre.

7.5 Seja uma varivel aleatria Binomial de parmetros n e p, P (X = k) = nk pk (1
p)nk , k = 0, . . . , n. Qual o valor de p onde P (X = k) atinge um mximo, ou mnimo,
quando n par e k a metade de n?
7.6 Seja X o nmero obtido de 1s em um nmero binrio escrito na expanso b-dica,
preciso simples, normalizado (1 dgito para o sinal, 8 para o expoente e 23 para a
mantissa (ver Apndice 1)). Estabelea a distribuio de probabilidade de X.
7.7 Que mais provvel, quando voc compete com uma pessoa to hbil quanto voc:
(a) voc ganhar trs jogos de quatro ou cinco jogos de oito?
Campos, Rgo & Mendona

7.9. EXERCCIOS

186

(b) no menos que trs jogos de quatro ou pelo menos cinco jogos de oito?
7.8 Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defeituoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote comprado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 defeituoso?
7.9 Um nmero binrio de n dgitos escrito onde cada dgito 0 ou 1 independentemente uns dos outros. A varivel aleatria X o nmero de dgitos 1. Encontre a
probabilidade dos seguintes eventos: (a) {X = m}; (b) {X m}; (c) {X < m}.
7.10 Considere um nmero escrito na expanso b-dica
x = dn dn1 . . . d1 d0 .d1 d2 . . . =

d i bi ,

i=n

com = +, b = 10 e 3 dgitos na mantissa (ver Apndice 1). Suponha tambem que


di = 0, , 9 independentemente e com a mesma probabilidade. A varivel aleatria X
representa cada um dos possveis nmeros x. Construa a distribuio de probabilidade
de X e encontre seu valor mdio.
7.11 Um tcnico necessita 4 placas para montar um determinado circuito. Encontra 10 na
sua oficina, mas sabe que 4 esto defeituosas. Seleciona ento 5 dentre as 10 placas.
Encontre a probabilidade de que no menos que 4 dentre as 5 estejam perfeitas.
7.12 Uma varivel aleatria Y uma frao prpria com n casas decimais. Cada dgito,
independentemente uns dos outros, pode ser 0 ou 1 com probabilidade 1/2. Construa
a distribuio de probabilidade de Y e encontre seu valor mdio.
7.13 Uma varivel aleatria X tem uma distribuio de Poisson com mdia 3. Encontre a
probabilidade de que
(a) X assuma valores menores que sua mdia.
(b) X assuma valores positivos.
7.14 Revisadas as provas de um livro, verificou-se que h, em mdia, 2 erros em cada 5
pginas. Em um livro de 100 pginas, estimar quantas no precisam ser modificadas,
por no apresentarem erros.
Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

187

7.15 O nmero de mensagens que chegam em uma rede tem uma distribuio geomtrica
com parmetro p. Para p = 0.2, calcule a mdia, varincia, desvio padro, o coeficiente
de variao e plote a distribuio de probabilidade.
7.16 O nmero de pedidos de I/O recebidos por um disco durante um dado intervalo de
tempo segue uma distribuio de Poisson com parmetro . Para = 8 determine a
mdia, varincia, desvio padro e o coeficiente de variao e plote a distribuio de
probabilidade.
7.17 Dois processos (ou duas variveis aleatrias) independentes de Poisson emergem em
um disco10 . Cada um deles tem, respectivamente, parmetros x e y . Determine o
seguinte:
(a) Mdia de x + y.
(b) Varincia de x + y.
(c) Mdia de x y.
(d) Varincia de x y.
(e) Mdia de 3x 4y.
(f ) Coeficiente de variao de 3x 4y.
7.18 Um disco rgido recebe em mdia 2 pedidos de I/O a cada 17 msec, segundo uma
distribuio de Poisson.
(a) Qual a probabilidade de que o nmero de pedidos seja maior que 1, no mesmo
tempo considerado?
(b) Este disco observado durante 10 intervalos de mesmo tempo acima. Qual a
probabilidade de que em ao menos um dos 10 intervalos de tempo o nmero de
pedidos seja maior que 1?
(c) Qual ser a probabilidade de que em 34 msec o nmero de pedidos seja maior que
1?
7.19 Use a aproximao de Poisson para calcular a probabilidade de que no mximo 2 dentre
50 motoristas tenham perdido pontos na carteira de habilitao, se usualmente 5% os
perdem.
7.20 Uma companhia de erea nacional tem observado que 5% das pessoas que fazem reserva
para um determinado vo desistem. A companhia decide ento vender 20 bilhetes para
este vo quando s dispe de 18 lugares. Qual a probabilidade do avio acomodar todos
os passageiros?
10

O leitor, principalmente se aluno de graduao precisa ver uma notao diferente da que usada em
livros de probabilidade inclusive com respeito nomenclatura para variveis aleatrias.

Campos, Rgo & Mendona

7.9. EXERCCIOS

188

7.21 Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecionado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subseqentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quantidade de informao obtida, a qual pode ser expressa como um ganho financeiro de
c dlares. Seja T o custo lquido desse experimento.
(a) Estabelea a distribuio de probabilidade de T .
(b) Determine o custo lquido esperado.
7.22 O computador de uma fbrica, que trabalha ininterruptamente, eventualmente falha.
O nmero de falhas pode ser considerado como tendo uma distribuio de Poisson,
com nmero mdio de falhas por dia de 1.5; encontre as probabilidades dos seguintes
eventos:
(a) A = {o computador falha pelo menos uma vez durante o dia},
(a) B = {o computador falha no menos que trs vezes durante uma semana}.
7.23 Num processo de fabricao 10% das peas so consideradas defeituosas. As peas so
acondicionadas em caixas com 5 unidades cada uma.
(a) Qual a probabilidade de haver exatamente 3 peas defeituosas numa caixa?
(b) Qual a probabilidade de haver duas ou mais peas defeituosas numa caixa?
7.24 Um cubo formado com chapas de plstico de 10 10cm. Em mdia aparecem 50
defeitos a cada metro quadrado de plstico, segundo uma distribuio de Poisson.
(a) Qual a probabilidade de uma determinada face apresentar exatamente 2 defeitos?
(b) Qual a probabilidade de que pelos menos 5 faces sejam perfeitas?
(c) Qual a probabilidade de que o cubo apresente no mnimo 2 defeitos?
7.25 Um laboratrio tem 15 pcs dos quais 5 esto desligados. Um grupo de 6 estudantes
entra na sala e, aleatoriamente, cada um escolhe um pc. Qual a probabilidade de que,
entre os escolhidos
(a) exatamente dois estejam desligados?
(b) pelo menos um esteja ligado?
(c) pelo menos dois estejam desligados?
7.26 Um carro s tem 4 semforos em seu percurso. Em cada um deles, independentemente,
a probabilidade do carro parar p. Seja uma varivel aleatria X, definida como sendo
o nmero de semforos que o carro passa antes de parar pela primeira vez.
Campos, Rgo & Mendona

CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS

189

(a) Estabelea a distribuio de probabilidade de X. Prove que a expresso encontrada


realmente uma distribuio de probabilidade.
(b) Calcule o nmero mdio de semforos nos quais o carro passa antes de parar pela
primeira vez, para p = 1/4.
7.27 Pacientes chegam a um laboratrio mdico de acordo com uma distribuio de Poisson,
com uma mdia de 2 pacientes a cada 15 minutos.
(a) Sabendo-se que o laboratrio abre s 6:00, determine a probabilidade de que cheguem exatamente 4 pacientes at 6:30.
(b) O laboratrio funciona das 6:00 s 20:00, sem interrupo. Seja X o nmero
de horas nesse perodo em que chegam exatamente 8 pacientes. Estabelea a
distribuio de probabilidade de X.
7.28 Admita que o nmero de navios que chegam a um porto segue uma distribuio de
Poisson de mdia igual a dois navios por dia.
(a) Qual a probabilidade de que, em um dia qualquer, cheguem, no mximo, 3
navios?
(b) A chegada de navios a esse porto observada durante 200 dias. Nesse perodo,
qual o nmero esperado de dias em que chega apenas um navio?
7.29 Uma fonte mineral contm um nmero mdio de 4 bactrias por centmetro cbico. Dez
tubos de ensaio so enchidos com esse lquido. Supondo que a distribuio de Poisson
aplicvel, encontre a probabilidade de que todos os 10 tubos de ensaio apresentem
bactrias.
7.30 Na produo de certo tipo de tecidos, os defeitos de produo ocorrem de acordo com
uma distribuio de Poisson com taxa de um defeito por cada 2 m2 .
(a) Qual a probabilidade de que um corte de 2.5 m2 tenha um ou mais defeitos?
(b) Qual a probabilidade de que em trs cortes de 2.5 m2 , dois sejam perfeitos e um
tenha um nico defeito?
7.31 Numa estrada pouco movimentada passam, em mdia, 2 carros por minuto. Supondo
a mdia estvel, calcule a probabilidade de que em 2 minutos passem (a) mais de 1
carro, (b) exatamente 4 carros.
7.32 Um celular recebe em mdia 2 chamadas por hora. Qual a probabilidade de que em 4
horas receba (a) no mximo 2 chamadas? (b) exatamente 3 chamadas.
7.33 Um sistema de computador tem 10 linhas de comunicao cada uma operando independentemente uma da outra. Sabe-se que a probabilidade de que uma linha esteja
em uso 0.6.
(a) Qual a probabilidade de que 9 ou mais linhas estejam ocupadas?
Campos, Rgo & Mendona

7.9. EXERCCIOS

190

(b) O administrador do sistema resolve aumentar o nmero de linhas para 30. Neste
caso, qual a probabilidade de que 9 ou mais delas estejam ocupadas?

Campos, Rgo & Mendona

Captulo 8
Principais Variveis Aleatrias
Contnuas
Neste captulo sero exploradas as principais variveis aleatrias contnuas. A distribuio
Normal tanto aplicada em problemas prticos quanto tericos, sendo bsica para o desenvolvimento de outras variveis aleatrias. As distribuies Exponencial, Log-normal e
Weibull so fundamentais em modelagem de desempenho de sistemas e confiabilidade. Distribuies como a t-Student, 2 e F so teis no clculo de intervalos de confiana e em
teste de hipteses. A distribuio de Pareto aplica-se em fenmenos que apresentam grande
variabilidade nas observaes, o que implica no aumento da varincia.

8.1

Uniforme de parmetros a e b: U (a, b)

(i) Densidade.

fX (x) =

1
,
ba

0,

x (a, b), a, b IR
x 6 (a, b).

Figura 8.1: Densidade de probabilidade de uma uniforme


(ii) Esperana.
b

Z
E(X) =
a

x
a+b
dx =
.
ba
2

191

8.1. UNIFORME DE PARMETROS A E B: U (A, B)

192

(iii) Varincia.
V (X) = E(X 2 ) E(X)2 =
onde E(X)2 =

(b a)2
,
12

Rb

x2
dx.
a ba

(iv) Funo de distribuio acumulada.

0,
Rx
FX (x) =

1,

1
dt
ba

xa
,
ba

x < a,
a x < b,
b x < +.

Figura 8.2: Funo densidade de probabilidade acumulada de uma uniforme


Exemplo 8.1.1: Um ponto escolhido ao acaso sobre uma reta de comprimento L. Qual
a probabilidade de que o quociente do segmento mais curto para o mais longo seja menor
que 41 ?
Soluo. Seja X a posio do ponto na reta de comprimento L. Dependendo de onde o
ponto escolhido tem-se duas situaes:
(a) segmento mais curto X e mais longo L X,
(b) segmento mais curto L X e mais longo X.
Se (a),
1
L
L
X
< X < P (X < ) =
LX
4
5
5

L
5

Z
0

1
1
dx = .
L
5

Se (b),
LX
1
4L
4L
< X>
P (X >
)=
X
4
5
5

L
4L
5

1
1
dx = .
L
5

Portanto, a probabilidade pedida


P (X <

L
4L
1 1
2
) + P (X >
)= + = .
5
5
5 5
5

Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

8.2

193

Exponencial de parmetro : Exp()

A densidade exponencial pode ser utilizada para modelar (i) o tempo de vida de componentes
que falham sem efeito de idade, (ii) o tempo de espera entre sucessivas chegadas de ftons,
(iii) emisses de eltrons de um ctodo, (iv) chegadas de consumidores, e (v) durao de
chamadas telefnicas, entre outros.
(i) Densidade.

fX (x) =

fX (x) = ex , x > 0, IR+


0,
x 0.

Figura 8.3: Densidade de probabilidade de uma exponencial


(ii) Esperana.
Z

E(X) =

xe

dx =

xex |
0

ex dx =

ex 1
| = .
0

(iii) Varincia.
Para o clculo da varincia, inicialmente ser calculado o segundo momento.
2

E(X ) =

x e

dx =

x2 ex |
0

Z
+2

xex dx =

2
.
2

Portanto,
V (X) = E(X)2 (E(X))2 =

2
1
1
2 = 2.
2

Campos, Rgo & Mendona

8.2. EXPONENCIAL DE PARMETRO : EXP ()

194

Figura 8.4: Funo de distribuio acumulada de uma exponencial


(iv) Funo de distribuio acumulada.

FX (x) =

0,
Rx

dt = 1 e

x < 0,
, x 0.

(v) Falta de memria. A distribuio exponencial possui a propriedade de falta de memria,


ou seja, para quaisquer s 0 e t 0, tem-se que
P (X > s + t|X > s) = P (X > t).
Para verificar este fato, note que
P (X > s + t|X > s) =
Mas

P (X > s + t, X > s)
P (X > s + t)
=
.
P (X > s)
P (X > s)

(s+t)
ex dx = [ex ]
.
s+t = e

P (X > s + t) =
s+t

Similarmente,
P (X > s) = es .
Portanto,
P (X > s + t|X > s) = et = P (X > t).
Exemplo 8.2.1: Observa-se que um tipo particular de chip, que tem durao de vida
exponencial, igualmente provvel durar menos que 5000 horas ou mais que 5000 horas.
(a) Determine o tempo de durao mdio de um chip deste tipo.
(b) Qual a probabilidade que o chip dure menos de 1000 horas ou mais de 10000 horas?
Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

195

Soluo: Seja X o tempo de durao deste chip. Para resolver o problema preciso determinar seu parmetro. Sabe-se que P (X < 5000) = P (X > 5000), e como P (X <
5000) + P (X > 5000) = 1, tem-se que P (X < 5000) = 0.5. Portanto, 1 e(5000) = 0.5, ou
log 2
. Ento, o tempo de durao mdio deste tipo de chip 5000
horas.
seja, = 5000
log 2
Para calcular a probabilidade pedida,
P ((X < 1000) (X > 10000)) = P (X < 1000) + P (X > 10000) = 1 e

log 2
5

+ e2 log 2

= 1 (2) 5 + (2)2 = 1 0,8706 + 0,25 = 0,3794.

8.3

Normal de parmetros e 2: N (, 2)

(i) Densidade.
(x)2
1
fX (x) = e 22 , x IR IR, IR+ .
2

Figura 8.5: Densidade de probabilidade de uma normal


Para verificar que esta realmente uma funo densidade de probabilidade, realiza-se
a seguinte substituio de variveis t = x
, obtendo-se:

(x)2
1
e 22 dx =
2

1 t2
e 2 dt = I.
2

Para calcular I 2 utiliza-se o seguinte artifcio.


1
I =
2
2

t2
2

dt

s2
2

1
ds =
2

(t2 +s2 )
2

dtds.

Campos, Rgo & Mendona

8.3. NORMAL DE PARMETROS E 2 : N (, 2 )

196

Fazendo a mudana de varivel t = r cos e s = rsen , tem-se:


Z 2 Z
r 2
1
I =
re 2 drd
2 0
0
Z 2
r 2
1
e 2 |
=
0 d
2 0
Z 2
1
=
1d = 1.
2 0
2

Portanto, I = 1.
Segundo Fine (2006), historicamente esta distribuio foi chamada de normal porque
era amplamente aplicada em fenmenos biolgicos e sociais. Aplicaes da distribuio
normal incluem rudo trmico em resistores e em outros sistemas fsicos que possuem
um componente dissipativo; rudos de baixa-frequncia como os encontrados em amplificadores de baixa frequncia; variabilidade em parmetros de componentes manufaturados; comportamento de variveis em organismos biolgicos como, por exemplo,
altura e peso.1
A densidade simtrica em torno do parmetro , e quanto menor o parmetro
mais concentrada a densidade em torno de . Pode-se provar que os pontos e
+ so os pontos de inflexo do grfico de fX . Ser visto adiante que e 2 so a
esperana e a varincia da distribuio, respectivamente.
Se = 0 e 2 = 1 esta densidade chamada na literatura de normal padro ou normal
reduzida.
(ii) Esperana
Z
E(X) =
Fazendo a mudana de varivel y =
Z

E(X) =

y + y2

e 2 dy =
2

(x)2
1
x e 22 dx.
2

x
,

tem-se

y y2
e 2 dy +
2

y2
e 2 dy = 0 + = .
2

(iii) Varincia.
Para o clculo do segundo momento tambm realizada a mudana de varivel y =
logo

x
,

Pode parecer estranho modelar quantidades que s assumem valores positivos por uma distribuio
normal onde valores negativos aparecem. Nestes casos o que ocorre que os parmetros e 2 devem ser
escolhidos de modo que a probabilidade da varivel assumir um valor negativo seja aproximadamente nula
o que torna a representao vlida.

Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

197

Z
z 2
1
E(X ) =
(y + )2 e 2 dz
2
Z
Z
2
z 2
2
1
2 z
2
z e dz + 2
ze 2
=
2
2
Z
2
z
1
e 2 dz.
= +2
2
2

A segunda parcela, pela resultado da esperana da normal padro igual a zero. A


ltima parcela pelo resultado da integral da densidade da normal igual a 2 . Para
z 2
calcular a primeira parcela usa-se integral por partes onde u = z e dv = ze 2 , obtendose

z 2
2
E(X ) = (ze 2 |
+
2
= 2 + 2 .

z 2
2

dz) + 2

O seguinte teorema afirma que transformaes lineares de variveis aleatrias com distribuio normal tambm so normalmente distribudas.
Teorema 8.3.1: Se X N (, 2 ) e se Y = aX + b, onde a > 0 e b IR, ento Y ter
distribuio N (a + b, a2 2 ).
Prova: Note que
FY (y) = P (Y y) = P (X

yb
yb
) = FX (
).
a
a

Derivando a expresso acima em relao a y,


yb
( a )2
(y(b+a))2
1
yb
1
1
fY (y) = fX (
)=
e 22
=
e 2a2 2 ,
a
a
2a
2a

ou seja, Y N (a + b, a2 2 ).
Corolrio 8.3.2: Se X N (, 2 ), ento Y =

tem distribuio normal padro.

2
Pode-se provar
Pn que se Xi N (i , i ) so independentes, e ai IR, para i = 1,
P2, 3, . . .,
ento Y = c + i=1 P
ai Xi tambm tem distribuio normal com mdia E(Y ) = c + ni=1 ai i
e varincia V (Y ) = ni=1 (ai i )2 .

Campos, Rgo & Mendona

8.3. NORMAL DE PARMETROS E 2 : N (, 2 )

8.3.1

198

Tabulao da Distribuio Normal

Se X N (0, 1), ento


Z

1 x2
e 2 dx.
2
a
Esta integral no pode ser resolvida analiticamente, contudo mtodos numricos de integrao podem ser empregados para calcular integrais da forma acima e de fato valores de
P (X z) existem em vrias tabelas. A funo de distribuio acumulada de uma normal
padro usualmente denotada por . Portanto,
Z z
1 x2
e 2 dx.
(z) =
2

P (a < X b) =

Ento, consultando valores de em uma tabela, pode-se determinar que P (a < X b) =


(b) (a).
Utilizando o resultado do Corolrio 8.3.2 e valores de , pode-se obter para qualquer
X N (, 2 ), o valor de P (a < X b):
X
b
a
<

b
a
= (
) (
).

P (a < X b) = P (

Em especial o interesse pode ser calcular P ( k X + k), usando o resultado


acima tem-se que esta probabilidade igual a (k) (k).
Da simetria em torno de zero da normal padro, segue-se que
(z) = P (X z) = P (X z) = 1 (z)
para qualquer valor de z. Esta relao pode ser til, pois frequentemente tabelas da distribuio normal padro s possuem os valores positivos de s.
Exemplo 8.3.3: Suponha que X tenha uma distribuio N (2, 0.16). Empregando uma
tabela de distribuio normal calcule as seguintes probabilidades:
(a) P (X 2.3).

P (X 2.3) = 1 P ( 2.3) = 1 (

2.3 2
) = 1 (0.75) = 1 0.7734 = 0.2266.
0.4

(b) P (1.8 X 2.1).


2.1 2
1.8 2
) (
) = (0.25) (0.5)
0.4
0.4
= 0.5987 0.3085 = 0.2902.

P (1.8 X 2.1) = (

Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

199

Exemplo 8.3.4: Um equipamento com dois terminais com uma resistncia equivalente
de 1 Megohm opera em uma sala com temperatura de 300K. A voltagem trmica, V , que
ele gera observada na banda de 1.5GHz at 2.5GHz. Qual a probabilidade de que a
magnitude da voltagem exceda 8 milivolts? Assuma que V N (0, 2 ), onde 2 = 4T RB,
a constante de Boltzman que igual a 1.38 1023 , V medido em volts, T medido
em graus Kelvin, R medido em ohms, e B medido em Hertz.
Soluo: Das informaes calcula-se que 2 = 4(1.38 1023 )(300)(106 )(109 ) = 16.5 106 .
Logo, 0.004. Portanto,
0.008 0
0.008 0
)) + (
)
0.004
0.004
= 1 (2) + (2) = 2(1 (2)) = 2(1 0.9772) = 0.456.

P (|V | > 0.008) = P (V > 0.008) + P (V < 0.008) = (1 (

8.4

Pareto de parmetros e k: Pareto(, k)

(i) Densidade.
fX (x) = k x(+1) , k IR+ , x k k IR+ .

Figura 8.6: Densidade de probabilidade de uma distribuio de pareto


(ii) Esperana.

E(X) =

k( 1)1 , se > 1,

se 1.
Campos, Rgo & Mendona

8.5. WEIBULL DE PARMETROS E : W (, )

200

(iii) Varincia.

V (X) =

k 2 ( 1)2 ( 2)1 , > 1,


,
1.

(iv) Funo de distribuio acumulada.



FX (x) =

0,
x < k,
k
1 ( x ) , x k.

Exemplo 8.4.1: Suponha que X tem uma distribuio de Pareto. Ento,


(a) Se k = 1 e = 0.25, P (1 < X < 2) = 0.16.
(b) Se k = 1 e = 1.3, P (1 < X < 2) = 0.88.

A distribuio de Pareto pode ser utilizada para modelar distribuio de riquezas, atrasos
em transmisso de pacotes e durao de sesses de internet, entre outros.

8.5

Weibull de parmetros e : W (, )

(i) Densidade.

fX (x) = x(1) ex , x IR+ , , IR+ .

Figura 8.7: Densidade de probabilidade de uma weibull

Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

201

(ii) Esperana.
1
E(X) = 1/ ( + 1).

(iii) Varincia.
1
2
V (X) = 2/ (( + 1) (( + 1))2 ).

8.6

Log-normal de parmetros e 2: LN (, 2)

(i) Densidade.



1 (ln x )2
fX (x) = (x 2) exp
, x IR+ , , IR+ .
2
2
1

Figura 8.8: Densidade de probabilidade de uma log-normal


(ii) Esperana.
1
E(X) = exp( + 2 ).
2
(iii) Varincia.
2

V (X) = exp(2 + 2 (e 1).

8.7

Gama de parmetros r e : G(r, )

(i) Densidade.
r xr1 ex
, x IR+ , r, IR+ ,
fX (x) =
(r)
Campos, Rgo & Mendona

8.8. QUI-QUADRADO DE PARMETRO N :, 2N


onde
Z
(r) =

202

xr1 ex dx, r IR+ .

(ii) Esperana.
E(X) =

r
.

Figura 8.9: Densidade de probabilidade de uma distribuio gama


(iii) Varincia.
V (X) =

r
.
2

Com respeito funo pode-se mostrar a seguinte relao de recorrncia:


(r) = (r 1)(r 1).
Se r = n, onde n um inteiro positivo,
(n) = (n 1)!
Propriedades
(i) r = 1 G(1, ) := Exp().
(ii) Se r =

n
2

e = 21 , tem-se uma distribuio 2 com n graus de liberdade.


Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

203

Figura 8.10: Densidade de probabilidade de uma distribuio qui-quadrado

8.8

Qui-quadrado de parmetro n:, 2n

(i) Densidade.
n

x 2 1 e 2
fX (x) = n n , x IR+ , n Z + .
2 2 ( 2 )
(ii) Esperana.
E(X) = n.
(iii) Varincia.
V (X) = 2n.
A distribuio 2n tem tabeladas algumas probabilidades para determinados graus de
liberdade.
Exemplos sobre o uso da tabela
(a) P (29 16.9) = 5%.
(b) P (26 1.24) = 97.5%.
(c) P (210 x) = 98% x = 3.059.
(d) P (230 x) = 20% x = 36.250.
(e) P (220 x) = 0.05. P (220 x) = 1 P (220 x) = 0.05 P (220 x) = 0.95
x = 10.851.
(f ) P (215 x) = 10%. P (215 x) = 90% x = 8.547.
Campos, Rgo & Mendona

8.9. T -STUDENT DE PARMETRO N : T (N )

8.9

204

t-Student de parmetro n: t(n)

(i) Densidade.
2

)(1 + xn )(n+1)/2
( n+1
2

, x IR, n Z + .
fX (x) =
n
2( 2 )

Figura 8.11: Densidade de probabilidade de uma distribuio t-student


(ii) Esperana.
E(X) = 0, n > 1.
6 E(X), n 1,
(iii) Varincia.
V (X) =

n
, n > 2.
n2

Propriedades
(i)

N (0,1)
q

2 (n)
n

t(n).

(ii) limn fX (t) = N (0, 1).


(iii) Se n = 1, tem-se que a distribuio t-Student igual a uma distribuio Cauchy(0,1).
A distribuio t-Student utilizada em inferncia estatstica. Por exemplo, pode-se
utiliz-la para calcular um intervalo de confiana para a mdia de uma populao quando a
varincia da populao desconhecida.
Exemplos de uso da tabela
(a) P (x < X10 < x) = 90% x = 1.812.
Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

205

(b) P (x < X29 < x) = 99% x = 2.756.


(c) P (X18 > x) = 2.5% x = 2.101.
(d) P (X25 < x) = 0.2% x = 2.166.

8.10

F-Snedecor de parmetros n e m: F (n, m)

(i) Densidade,
m

( m+n
( mx
)
) 2 1 m
2
n
fX (x) = m
, x IR+ , n, m Z + ,
( 2 )( n2 ) (1 + mx ) m+n
n
2
n
+

onde n e m so os parmetros, n, m Z .

Figura 8.12: Densidade de probabilidade de uma distribuio f-snedecor


(ii) Esperana.
E(X) =

n
, n > 2.
n2

(iii) Varincia.
V (X) =

2n2 (n + m 2)
, m > 4.
n(m 2)2 (m 4)

Propriedades
(i)
F (n, m) =

2 (n)/n
.
2 (m)/m

(ii)
F (m, n) =

2 (m)/m
1
=
.
2
(n)/n
F (n, m)
Campos, Rgo & Mendona

8.11. APRENDENDO UM POUCO MAIS

206

(iii)
F (n, m, /2) =

1
.
F (m, n, 1 /2)

Prova:
P (F (n, m) a) = /2
1
P(
a) = /2
F (m, n)
1
P ( F (m, n)) = /2
a
1
P (F (m, n) ) = /2
a
1
1 P (F (m, n) ) = /2
a
1
P (F (m, n) ) = 1 /2.
a
Logo,
1
P (F (n, m) a) = /2 P (F (m, n) ) = 1 /2.
a
Exemplos de uso da tabela
(a) P (F (5, 15) > x) = 5% x = 2.90.
(b) P (F (20, 20) > x) = 5% x = 1.66.
(c) P (F (120, 120) > x) = 5% x = 1.35.

8.11
8.11.1

Aprendendo um pouco mais


Beta de parmetros a e b: Beta(a, b)

(i) Densidade.
xa1 (1 x)b1
, x [0, 1], a, b IR+ ,
(a, b)
R1
onde a e b so parmetros, a, b IR+ e (a, b) = 0 xa1 (1 x)b1 dx.
fX (x) =

(ii) Esperana.
E(X) =

a
.
a+b

(iii) Varincia.
V (X) =

ab
(a +

b)2 (a

+ b + 1)

Distribuies Beta so usadas exaustivamente em Estatstica Bayesiana, pois so uma


famlia de distribuies a priori conjugadas para distribuies binomiais e geomtricas. A
distribuio Beta pode ser utilizada para modelar eventos que tm restrio de estarem em
um intervalo finito.
Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

207

Figura 8.13: Densidade de probabilidade de uma distribuio beta

8.11.2

Cauchy de parmetros x0 e : Cauchy(x0 , )

(i) Densidade.
fX (x) =

1
2
, x IR, x0 IR, IR+ .
+ (x x0 )2

Figura 8.14: Densidade de probabilidade de uma distribuio cauchy


(iii) Esperana.
Se X Cauchy(x0 , ), ento X no integrvel, ou seja E(X) no est definida, pois:
0

Z
0

2
dx = ,
+ (x x0 )2

2
dx = .
+ (x x0 )2

Prova-se (Meyer, 1983) que a razo entre duas variveis aleatrias com distribuio normal independentes tem uma distribuio Cauchy com parmetros x0 = 0 e = 1.
Campos, Rgo & Mendona

8.11. APRENDENDO UM POUCO MAIS

8.11.3

208

A Distribuio Normal Bivariada

O vetor aleatrio (X, Y ) possui distribuio normal bivariada quando tem densidade dada
por

f (x, y) =

1
x 1 2
x 1 y 2
y 2 2
1
p
[(
)

2(
)(
)
+
(
) ]},
exp{
2(1 2 )
1
1
2
2
21 2 1 2

onde 1 > 0, 2 > 0, 1 < < 1, 1 IR, 2 IR.

Figura 8.15: Densidade de probabilidade de uma distribuio normal bivariada


Se = 0, esta densidade fatora e tem-se que X e Y so independentes. Se 6= 0, esta
densidade no fatora e X e Y no so independentes. Alm disso, a distribuio normal
bivariada satisfaz s seguintes propriedades:
(i) As distribuies marginais de X e de Y so N (1 , 12 ) e N (2 , 22 ), respectivamente.
(ii) O parmetro igual ao coeficiente de correlao entre X e Y .
(iii) As distribuies condicionais de X dado Y = y e de Y dado X = x so, respectivamente,
1
N (1 + (y 2 ), 12 (1 2 ))
2
e
2
N (2 + (y 1 ), 22 (1 2 )).
1

Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

8.12

209

Exerccios

8.1 Como ser a expresso da desigualdade de Tchebychev,


P (| X | )

2
2

quando
(a) X B(n, p)?
(b) X P ()?
(c) X Exp()?
(d) X N (, 2 )?
p
8.2 Compare o limite superior da probabilidade P (| X E(X) | 2 V (X)), obtido pela
desigualdade de Tchebychev, com a probabilidade exata, em cada um dos seguintes
casos:
(a) X uniformemente distribuda sobre (-1,3).
(b) X tem distribuio N (, 2 ).
(c) X tem distribuio de Poisson com parmetro 4.
(d) X tem distribuio exponencial com parmetro .
8.3 Uma varivel aleatria contnua X uniformemente distribuda no intervalo (, ).
Encontre a distribuio da varivel Y = X.
8.4 Se o nmero de sinais que, independentemente, chegam em um detector D no perodo
de 10 segundos segue uma distribuio de Poisson com mdia 20, qual a probabilidade
de que chegue pelo menos um sinal em um perodo de 5 segundos?
8.5 Dois satlites idnticos so lanados simultaneamente ao espao. A vida til dos seus
painis solares pode ser modelada por uma distribuio exponencial de parmetro 1
ano, isto , as densidades so dadas por et . O satlite A monitorado durante os
primeiros 2 anos e funciona perfeitamente; ele s tornar a ser verificado em algum
momento aps 5 anos de seu lanamento. (a) Qual a probabilidade de que ainda esteja
funcionando nesse dia? O satlite B s verificado em algum momento depois de
completar 3 anos em rbita. (b) Qual a probabilidade de que ainda esteja funcionando
nessa data? Compare essas probabilidades. (proposto por Thanius George R. Pinho)
8.6 Suponha que a durao de vida, T , de um dispositivo eletrnico, medida em horas,
seja uma varivel aleatria contnua com funo densidade de probabilidade
f (t) = 0.01e0.01t , t > 0.
10 desses dispositivos so instalados independentemente em um sistema.
Campos, Rgo & Mendona

8.12. EXERCCIOS

210

(a) Qual a probabilidade de que um deles escolhido aleatoriamente dure menos de


50 horas?
(b) Qual a probabilidade de que ao menos um dos 10 dispositivos dure menos de 50
horas?
8.7 A distribuio do tempo de acesso, T , a uma base de dados normalmente distribuda
com uma mdia de 5 msec e desvio padro de 1 msec.
(a) Qual a probabilidade de que este tempo ultrapasse 8 msec?
(b) Qual a probabilidade de que este tempo seja inferior a 6 msec?
(c) Qual o tempo t tal que com uma probabilidade de 0.95, o tempo de acesso seja
menor que t?
8.8 O pessoal de uma firma de engenharia usa um terminal on-line para fazer seus clculos.
Sabe-se que o tempo de uso de um dado engenheiro segue uma distribuio exponencial
com mdia 20 minutos. Qual a probabilidade de que um engenheiro escolhido ao acaso
(a) passe menos de 30 minutos no terminal?
(b) ultrapasse a mdia da distribuio?
8.9 O tempo mdio de CPU por sesso em sistemas time-sharing tem uma distribuio
N (4.4, 11.56). As sesses so classificadas como trivial session se tomam menos que 1
segundo de CPU, editing session se tomam entre 1 e 5 segundos de CPU, e numbercrunching session em quaisquer outros casos.
(a) Calcule a probabilidade de cada tipo de sesso.
(b) Se 6 dessas sesses forem consideradas, qual a probabilidade de que um igual
nmero delas caia em cada uma das classificaes acima?
8.10 Uma certa companhia telefnica taxa as chamadas da seguinte forma: $0.20 para os
primeiros 3 minutos; $0.08 por minuto para qualquer tempo adicional. Suponha que
o tempo de durao de uma chamada seja uma varivel aleatria com distribuio
exponencial de parmetro 1. Defina a varivel aleatria Y como sendo o custo por
chamada.
(a) Estabelea a distribuio de probabilidade de Y .
(b) Calcule o custo esperado.
8.11 Suponha que o nmero de mensagens no buffer em um sistema on-line tenha uma
distribuio normal com mdia 100 e desvio padro 10. Calcule a probabilidade de que
o nmero de mensagens
(a) no exceda 120,
(b) esteja entre 80 e 120 e
(c) exceda 120.
Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

211

8.12 O comprimento de uma determinada conexo, medida em centmetros, tem uma distribuio normal. A proporo de conexes com comprimento abaixo de 25 cm 82%;
a proporo de conexes com comprimento acima de 20 cm 70%. Determine a proporo de peas que medem mais de 23 cm, sabendo-se que foram escolhidas entre
aquelas que medem mais de 21 cm.
8.13 O tempo necessrio para um estudante completar uma tarefa escolar tem distribuio
normal com mdia 90 minutos e desvio padro 15 minutos.
(a) Que proporo de estudantes termina a tarefa em 2 horas ou menos?
(b) Qual o tempo necessrio para permitir que 90% dos estudantes terminem o teste?
(c) Em uma turma de 80 alunos, quantos se espera que terminem a tarefa em menos
de 1 hora e 40 minutos, dentre os que a terminaram em mais de 1 hora e 10
minutos?
8.14 A durao de um certo tipo de pneu, em quilmetros rodados, uma varivel aleatria
normal com durao mdia 60000km e desvio padro de 10000km. Qual a probabilidade
de que um pneu escolhido ao acaso dure
(a) mais de 75000km?
(b) entre 63000 e 70000km?
(c) O fabricante deseja fixar uma garantia de quilometragem, de tal forma que, se a
durao do pneu for inferior garantia, o pneu seja trocado. De quanto deve ser
essa garantia para que a probabilidade de que o pneu seja trocado seja de 1% ?
8.15 Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma
distribuio exponencial com um valor mdio de 10 segundos.
(a) Encontre a varincia de T .
(b) Qual a probabilidade de que T no exceda 60 segundos?
(c) Exceda 90 segundos?
8.16 A durao da vida de um satlite uma varivel aleatria exponencialmente distribuda, com durao esperada de vida de 1.5 anos. Se trs desses satlites forem lanados simultaneamente, qual ser a probabilidade de que ao menos dois deles ainda
venham a estar em rbita depois de 2 anos?
8.17 Quando um computador est operando, falhas ocorrem aleatoriamente. O tempo T
at o aparecimento da primeira falha tem uma distribuio exponencial com parmetro
. Quando uma falha ocorre, necessrio corrig-la dentro de um tempo t0 , depois do
qual o computador comea a operar outra vez.
(a) Encontre a densidade e a funo de distribuio do intervalo de tempo entre sucessivas falhas.
(b) Encontre a probabilidade de que este intervalo de tempo seja maior do que 2t0 .
Campos, Rgo & Mendona

8.12. EXERCCIOS

212

8.18 Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma distribuio exponencial com um valor mdio de 10 segundos. Seja t um ponto arbitrrio
no tempo e X o tempo decorrido at a quinta chamada chegar (depois do tempo t).
Encontre o valor esperado e a varincia de X. Qual a probabilidade de que T no
exceda 60 segundos? Exceda 90 segundos?
8.19 A distribuio de Weibull,
n

F (x) = 1 ex , x > 0,
onde > 0 uma constante e n um inteiro positivo frequentemente usada como a
distribuio do tempo livre de falha de um equipamento.
(a) Encontre a funo de densidade.
(b) Encontre sua mdia e varincia.
8.20 Se X tem distribuio normal com mdia e varincia 2 , encontre b tal que
P (b < (X )/ < b) = 0.90.
8.21 Seja X N (, 2 ) e tal que P (X < 89) = 0.90 e a P (X < 94) = 0.95. Encontre e
2.
8.22 Se X N (75, 25), encontre a probabilidade de que X seja maior do que 80 relativa
hiptese de que X seja maior do que 77.
8.23 Uma varivel aleatria X tem distribuio normal com mdia e varincia 2 . Precisamos aproximar a distribuio normal por uma distribuio uniforme no intervalo
(, ) com os limites e escolhidos de tal forma que o valor mdio e a varincia de
X sejam mantidos constantes. Determine e .
8.24 O tempo de vida de lmpadas produzidas por uma certa fbrica segue uma distribuio
exponencial com vida mdia de 200 horas.
(a) Qual a probabilidade de uma lmpada escolhida ao acaso durar entre 200 e 300
horas?
(b) A fbrica deseja fixar uma garantia, de tal forma que se a durao da lmpada
for menor que a garantia, ela seja trocada. Qual deve ser a garantia do fabricante
para repor apenas 5% da produo?
8.25 O comprimento das chamadas, T , em um orelho de praia segue uma distribuio
exponencial com mdia de 4 minutos. Os banhistas tm reclamado sobre a demora na
fila, portanto a companhia telefnica resolve analisar o problema. Para tanto seleciona
uma amostra de 50 usurios e calcula as seguintes probabilidades.
(a) da mdia amostral, T , ser superior a 1 minuto;
Campos, Rgo & Mendona

CAPTULO 8. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS

213

(b) do mnimo amostral, K, ser superior a 1 minuto;


(c) do mximo amostral, M , ser inferior a 1 minuto.
Com base nos resultados obtidos, como voc agiria?
8.26 Uma varivel aleatria X tem uma distribuio de Simpson (obedece lei de um
tringulo issceles) no intervalo a a a.
(a) Encontre a expresso da funo densidade de probabilidade.
(b) Encontre sua mdia e varincia.
(c) Encontre a probabilidade de que a varivel aleatria assuma valores no intervalo
(a/2, a).
8.27 Uma varivel aleatria X tem distribuio exponencial com parmetro .
(a) Encontre a funo de distribuio acumulada e construa seu grfico.
(b) Encontre a probabilidade de que a varivel assuma um valor menor que sua mdia.
8.28 Uma varivel aleatria X tem distribuio de Laplace,
f (x) = ae|x| ,
onde um parmetro positivo.
(a) Encontre o fator a.
(b) Construa o grfico das funes de densidade e distribuio.
(c) Calcule sua mdia e varincia.
8.29 A que transformao uma varivel aleatria X uniformemente distribuda no intervalo
(0, 1) precisa ser submetida para que se obtenha, a partir de X, uma varivel aleatria
Y que tenha uma distribuio exponencial?
8.30 Suponha que X se distribui exponencialmente com parmetro . Seja Y uma varivel
aleatria inteira definida em termos de X por Y = m se m X < m + 1, onde m
um nmero inteiro no negativo.
(a) Como se distribui Y ?
(b) Calcule E(Y ).
8.31 A cada ms, o nmero de pacotes que chegam a um switch de uma rede segue uma
distribuio de Poisson com parmetro 2. No tempo dado, o switch s tem condio de
gerenciar 15 pacotes. Portanto, se mais de 15 chegam, so excedentes e descartados.
(a) Qual a probabilidade de haver descarte? Clculos indicados.
(b) Qual o nmero mdio de pacotes que chegam ao switch?
Campos, Rgo & Mendona

8.12. EXERCCIOS

214

(c) Qual o tempo mdio entre chegadas sucessivas de pacotes?


(d) Qual a probabilidade de que o tempo entre chegadas sucessivas seja menor do
que o tempo mdio entre chegadas sucessivas?
(e) Suponha que 4 desses switches operem independentemente. Qual a probabilidade
de que haja descarte de pacotes em pelo menos 2?

Campos, Rgo & Mendona

Captulo 9
Confiabilidade: Probabilidade aplicada
9.1

Introduo e Definies

Neste captulo ser vista uma aplicao dos conceitos relativos ao espao das probabilidades
apresentados anteriormente. Por meio dessa aplicao, denominada de confiabilidade,
possvel realizar uma modelagem probabilstica da forma com que um sistema falha, ou seja,
a modelagem da lei de falhas do referido sistema. Assim, a confiabilidade uma ferramenta
utilizada para, entre outros, se prever quando um sistema poder falhar pela primeira vez,
conhecimento que essencial para o planejamento de manutenes, especialmente quando o
sistema analisado crtico como um avio, por exemplo.
A Figura 1 ilustra o comportamento da incidncia de falhas em um dado sistema, onde
os intervalos de tempo em que o sistema permanece no estado ON e OFF indicam, respectivamente, a ausncia ou no de falhas.

Figura 9.1: Comportamento da ocorrncia de falhas


Confiabilidade a probabilidade de um equipamento operar satisfatoriamente por um
perodo de tempo dentro de condies previamente especificadas. Trs aspectos devem ser
levados em conta quando a confiabilidade de um sistema ou componente analisada. Primeiro, uma definio no ambgua das possveis falhas do sistema deve ser realizada. Em
segundo lugar, a unidade de tempo deve ser identificada. Esta pode ser dada em horas, dias
ou ciclos de operao do sistema. Para um sistema automotivo, por exemplo, a unidade de
medida poderia ser ciclos de operao, representados pela ativao da ignio do motor. Por
ltimo, recomenda-se que o sistema seja observado em condies de funcionamento natu215

9.1. INTRODUO E DEFINIES

216

rais. A observao do sistema num ambiente manipulado pode gerar dados de confiabilidade
viciados.
A forma com que um sistema falha um fenmeno aleatrio modelado por uma varivel
aleatria contnua T no negativa, que representa a durao de tempo at a sua primeira
falha. Essa varivel pode ser descrita por sua funo densidade de probabilidade, fT (t), ou
por sua funo de distribuio acumulada, FT (t). Como T contnua, ento a probabilidade
no ponto zero. Ou seja, P (T t) = P (T > t).
Definio 9.1.1: Seja S um sistema observado em operao no perodo [0, t]. Ento, a
funo confiabilidade de S, no instante t, R(t), dada por:

R(t) = P (T t).

(9.1)

Com base em (9.1), tem-se que:


+

Z
fT (t)dt = 1

R(t) =

fT (t)dt.

(9.2)

A funo densidade de probabilidade, fT (t), pode ser definida a partir da funo confiabilidade. Partindo da Equao (9.2), tem-se que:
d
dR(t)
=
dt

Rt
0

fT (x)dx
.
dt

Assim,

fT (t) =

dR(t)
.
dt

(9.3)

comum assumir que, para fins de clculo da confiabilidade, o sistema opera satisfatoriamente no instante t = 0. Desse modo, R(0) = 1. Por outro lado, quando t +, a
confiabilidade nula. A Figura 9.2 ilustra um exemplo de funo confiabilidade, explicitando
que R(0) = 1 e limt+ R(t) = 0.
Proposio 9.1.2: Seja T a varivel que representa o tempo para falha de um sistema e
fT (t) sua funo densidade de probabilidade. Ento, para valores t = 0 e t +, a funo
confiabilidade R(t) dada, respectivamente, por:
(a) R(0) = 1.
(b) limt+ R(t) = 0.
Prova:
Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

217

Figura 9.2: Exemplo da funo confiabilidade


(a) Quando t = 0, tem-se que (9.2)
+

Z
R(0) =

fT (t)dt.

(9.4)

Sabe-se que a T assume apenas valores no negativos, uma vez que fT (t) uma funo
densidade de probabilidade, ento:

fT (t)dt = 1.

fT (t)dt =

(9.5)

Assim, de acordo com (9.5),


R(0) = 1.
(b) Quando t +, observa-se que (9.2) dada por:

Z
R(+) = lim

t+

fT (t)dt.

(9.6)

Considerando-se (9.6) tem-se que:

Z
lim

t+

Z
fT (t)dt lim

fT (t)dt =
t

t+

fT (t)dt.

(9.7)

Campos, Rgo & Mendona

9.1. INTRODUO E DEFINIES

218

Da Equao (9.5), pode-se afirmar que:


Z

fT (t)dt = 1
0

fT (t)dt = 1.

lim

t+

Dessa forma,
Z

fT (t)dt = 1 1 = 0.

R(+) = lim

t+

Outro conceito o da confiabilidade condicional. Essa grandeza nada mais do que a


probabilidade que indica a chance de um sistema operar sem apresentar falhas no perodo
de tempo [t0 , t], dado que o referido sistema estava em funcionamento no momento t = t0 .
Nesse caso, t0 pode ser denominado como a idade do sistema.
Definio 9.1.3: A confiabilidade condicional a seguinte probabilidade condicional:
R(t|t0 ) = P (T > t0 + t|T > t0 )
P (T > t0 + t)
=
P (T > t0 )
R(t0 + t)
=
, R(t0 ) > 0.
R(t0 )
No contexto da anlise da confiabilidade de sistemas, o tempo mdio para falha, de um
sistema, Tmed , dado pela esperana da varivel aleatria T a qual especifica seu processo
de falhas:
Definio 9.1.4:
Z
Tmed = E(T ) =

tfT (t)dt.

(9.8)

Em (9.8) tem-se que os limites da integral so 0 e + uma vez que T assume apenas
valores no negativos.
Proposio 9.1.5 : Seja R(t) a funo confiabilidade de um determinado sistema. O
Tempo Mdio para Falha dado por:
Z
Tmed =

R(t)dt.

(9.9)

Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

219

Prova: Substituindo (9.3) em (9.8) tem-se que:


Z

Tmed =
0

dR(t)
tdt.
dt

(9.10)

Empregando integrao por partes em (9.10),

Tmed

+ Z

= tR(t)
+

R(t)dt.

(9.11)

Portanto,
lim tR(t) = 0

t+

e
0 R(0) = 0.
Ou seja,
Z
Tmed = 0 +

R(t)dt.
0

Outra funo utilizada na anlise probabilstica da confiabilidade de sistemas a taxa de


falhas. A taxa de falhas, (t), uma funo que fornece a taxa instantnea de falhas de um
sistema no momento t. A definio de (t) baseia-se na seguinte probabilidade condicional:

P (t T t + 4t|T t) =

R(t) R(t + 4t)


, R(t) > 0.
R(t)

(9.12)

A Equao (9.12) define a chance de um sistema falhar em um perodo de tempo 4t, dado
que no ocorreram falhas no intervalo de tempo [0, t]. Dessa forma, considerando (9.12), a
probabilidade condicional de falhas por unidade de tempo dada por
R(t) R(t + 4t)
.
R(t)4t

(9.13)

A taxa de variao instantnea de falhas dada pela probabilidade condicional de falhas


por unidade de tempo, quando 4t 0. Assim,
(R(t + 4t) R(t))
1

4t0
4t
R(t)
dR(t)
1
fT (t)
=

=
.
dt
R(t)
R(t)

(t) =

lim

(9.14)

Campos, Rgo & Mendona

9.1. INTRODUO E DEFINIES

220

Proposio 9.1.6: Seja (t) a taxa de falhas de um determinado sistema. Ento, a funo
confiabilidade do sistema em questo dada por
R(t) = e

Rt
0

(t0 )dt0

(9.15)

Prova: De acordo com (9.14), tem-se que


(t) =

dR(t)
1

.
dt
R(t)

Dessa forma, pode-se definir

(t)dt =

dR(t)
.
R(t)

(9.16)

Integrando a Equao (9.16), obtm-se:


Z

t
0

R(t)

(t )dt =
0

R(0)

dR(t0 )
,
R(t0 )

onde R(0) = 1. Portanto,


Z

(t0 )dt0 = ln R(t).

(9.17)

Assim,
R(t) = e

Rt
0

(t0 )dt0

(9.18)

Exemplo 9.1.7: Seja a funo densidade de probabilidade dada por:



0.5e0.5t , t > 0,
fT (t) =
0,
t 0.
Nesse caso, a funo confiabilidade dada por:
Z +
R(t) =
0.5e0.5t dt = e0.5t .
0

O valor do tempo mdio para falha obtido da seguinte forma:


Z +
1
Tmed =
e0.5t dt =
= 2.
0.5
0
Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

221

A taxa de falhas calculada pela diviso da funo densidade de probabilidade pela


funo confiabilidade. Assim, tem-se que:

(t) =

fT (t)
0.5e0.5t
= 0.5t = 0.5
R(t)
e

A Figura 9.3 ilustra graficamente o comportamento de funes que caracterizam a confiabilidade do exemplo.

Figura 9.3: Grficos de funes que caracterizam a confiabilidade do Exemplo 9.1.7.

9.2

Distribuies para Confiabilidade

Nesta seo sero descritas as funes densidade de probabilidade amplamente utilizadas na


modelagem da lei de falhas de sistemas: Exponencial e Weibull.
A distribuio de falhas Exponencial resulta numa taxa de falhas constante, ou seja, a
taxa de incidncia de falhas permanece inalterada com o passar do tempo, indicando que o
sistema em questo no sofre o desgaste do tempo. Essa distribuio amplamente utilizada
na modelagem de falhas de sistemas, uma vez que inmeros sistemas possuem taxa de falhas
constante. Por outro lado, com a distribuio Weibull possvel, por meio de variaes de
parmetros dessa distribuio, tornar a taxa de falhas de um determinado sistema crescente
ou decrescente, permitindo flexibilidade na modelagem.
Campos, Rgo & Mendona

9.2. DISTRIBUIES PARA CONFIABILIDADE

9.2.1

222

Distribuio Exponencial para Falhas

Se a varivel aleatria contnua possui distribuio Exponencial com parmetro , ento a


funo confiabilidade dada por:
Z +
et dt = et .
R(t) =
t

Portanto a taxa de falhas dada pela constante :


(t) =

fT (t)
et
= t = .
R(t)
e

Observa-se tambm que o tempo mdio para falha, a esperana de T , :


Z +
Z +
1
Tmed =
R(t)dt =
et dt = .

0
0
Sistemas modelados com a taxa de falhas constante so denominados sem memria1 . Um
sistema denominado instantneo (sem memria), caso as suas sadas em um instante de
tempo t dependam somente de entradas geradas no mesmo instante t. Essa propriedade
pode ser demonstrada empregando confiabilidade condicional:
R(t|T0 ) =

R(t + T0 )
e(t+T0 )
et eT0
=
=
= et = R(t).
R(T0 )
eT0
eT0

Em outras palavras, o tempo para falhas de um sistema sem memria depende apenas
do tamanho do perodo de operao, no sendo afetado pela idade corrente do sistema (T0 ),
isto , R(t|T0 ) = R(t).

Figura 9.4: Grficos de funo confiabilidade para distribuio de falhas Exponencial.


1

Falta de memria um propriedade de sistemas com distribuio de falhas Exponencial.

Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

9.2.2

223

Distribuio Weibull para Falhas

Como mencionado anteriormente, a distribuio Weibull til em confiabilidade, visto que


a taxa de falhas para esse tipo de modelagem pode ser crescente ou decrescente. Nesse caso
a taxa de falhas dada por:

(t) =

t 1
( ) ,

(9.19)

> 0, > 0, t 0.
Utilizando (9.18) e considerando que T W (, ), tem-se que a funo confiabilidade :
R(t) = e[

Rt

t 1
]
0 ()

= e( ) .

(9.20)

Os parmetros e so, respectivamente, denominados como parmetro de forma e


parmetro de escala. Para 1, a funo densidade de probabilidade similar a uma
exponencial, e para valores grande de ( 3), fT (t) se assemelha a uma distribuio
normal. Para 1 < < 3, a funo de densidade de probabilidade assimtrica. Quando
= 1, a densidade idntica a uma exponencial de parmetro 1 . O parmetro , por sua
vez, afeta a mdia e a disperso da distribuio.
Para a distribuio Weibull, o tempo mdio para falha dado por

Tmed = (1 +
onde (x) =

R +
0

Exemplo 9.2.1:
por:

1
),

(9.21)

y x1 ey dy.
Seja T W (, ) e = 4 e = 1000. Assim, a taxa de falhas dada

4
t 3
(
).
1000 1000
Nesse caso, a funo confiabilidade dada por:
(t) =

R(t) = e( 1000 ) .
Para t = 100, a confiabilidade assume o seguinte valor
100

R(100) = e( 1000 ) = e( 10 ) = 0.99.


O tempo mdio para falha possui o seguinte valor
1
E(T ) = Tmed = 1000(1 + ) = 906.40.
4

Campos, Rgo & Mendona

9.3. SISTEMAS COMPLEXOS

9.3

224

Sistemas Complexos

Sistemas complexos ou compostos podem ser convenientemente representados como uma


"caixa preta"que possui dois conjuntos de terminais acessveis, os quais compem a entrada
e sada do sistema. Esses sistemas so formados por componentes que atuam juntos para
realizar uma determinada funo, a qual no seria possvel de ser realizada com quaisquer
partes individuais isoladas.
Neste captulo assume-se que um componente pode apresentar apenas dois estados: operacional e indisponvel. Nesse ltimo estado, considera-se que o componente possui no mnimo uma falha que comprometa o seu funcionamento correto. Portanto, o estado de cada
componente pode ser representado pela varivel aleatria discreta K a qual assume apenas
dois valores. Considere xi o estado do i-simo componente de um dado sistema. Ento, o
valor de xi dado por

xi =

1, se o componente i est operacional,


0, se o componente i est indisponvel.

Seja o sistema complexo L possuindo n componentes. O vetor x = (x1 , x2 , ..., xn ) representa o estado de todos os componentes de L. Assim como seus componentes, L tambm
pode se apresentar em um dos estados de operao mencionados. Dessa forma, o estado de
L, denotado por , definido com base no vetor x por meio da seguinte funo:
= (x) = (x1 , x2 , ..., xn ).
A primeira etapa do clculo da confiabilidade de sistemas complexos envolve a obteno
desses valores de confiabilidade para cada um de seus componentes. Em seguida os valores
obtidos so combinados de acordo com a configurao dos componentes, resultando no valor
da confiabilidade referente ao sistema complexo como um todo. As seguintes configuraes
sero abordadas neste captulo: srie e paralelo. Observe que, para cada uma dessas
configuraes, uma funo distinta ser definida.
Para fins de clculo, supe-se que os componentes abordados nesta seo no so reparveis, ou seja, quando um componente deixa de funcionar o modelo matemtico proposto
no considera aes de manuteno ou reparativas. Portanto, para sistemas no reparveis,
o tempo mdio para falha a durao de vida do sistema em questo.

9.3.1

Configurao em srie

Neste tipo de arranjo em srie, os componentes esto conectados logicamente um seguido do


outro, como se observa na Figura 11.4. Ento, para que um sistema complexo formado por
componentes em srie falhe, basta que apenas um de seus componentes individuais esteja
indisponvel.
Seja o sistema L formado por n componentes em configurao em srie. A funo que
define o estado de L dada por
Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

225

Figura 9.5: Representao da configurao em srie

(x) =

n
Y

xi = min(x1 , x2 , ..., xn ).

(9.22)

i=1

A Equao (9.22) indica que o sistema complexo apresenta apenas um caminho crtico.
Ou seja, caso L possua dois componentes, se apenas um deles falhar L tambm falhar.
Seja Ei o evento do i-simo componente no apresentar falhas durante um intervalo de
tempo t. Tem-se que
P (Ei ) = Ri (t),
onde Ri (t) a funo confiabilidade do i-simo componente do sistema L. A funo confiabilidade de L dada por:

R(t) = P

n
\

!
Ei

(9.23)

i=1

Assumindo que os eventos Ei so independentes, (9.23) pode ser simplificada e representada da seguinte forma:
R(t) = P (E1 ) P (E2 ) P (En )
ou

R(t) =

n
Y

Ri (t).

(9.24)

i=1

A taxa de falhas para a configurao com n componentes em srie baseada em (9.17).


Demonstra-se que a taxa de falhas dada unicamente com base na funo confiabilidade do
sistema em questo. Dessa forma, tem-se que
n

d X
d
ln[R(i) (t)].
(t) = lnR(t) =
dt
dt i=1

(9.25)

Utilizando (9.15), pode-se afirmar que a taxa de falhas para n componentes em srie
Campos, Rgo & Mendona

9.3. SISTEMAS COMPLEXOS

226

(t) =

n
X
fT (i) (t)
i=1

R(i) (t)

n
X

(i) (t),

(9.26)

i=1

onde fT (i) (t) e (i) (t) so a funo densidade de probabilidade e taxa de falhas, respectivamente, referentes ao i-simo componente.
O tempo mdio para falha para L pode ser definido utilizando a sua funo confiabilidade
R(t). Ento, o valor Tmed dado por
Z

Tmed =

R(t)dt.

(9.27)

Conforme (9.26), supondo que o sistema L possui n componentes apresentando lei de


falhas Exponencial, a taxa de falhas de L
s =

n
X

(i) ,

i=1

onde (i) o parmetro da distribuio exponencial do i-simo componente. Dessa forma,


segundo (9.1), a funo confiabilidade de L, nesse caso, pode ser representada por
R(t) = es t .
e o tempo mdio para falha de L

Tmed = Pn

i=1

(i)

(9.28)

onde (i) a taxa de falhas do i-simo componente.


Exemplo 9.3.1: Seja L um sistema com trs componentes, Ti a varivel aleatria para
o tempo de falha de cada elemento de L, onde i = 1, 2 e 3. Suponha que os componentes
de L possuem processos de falhas exponencialmente distribudos com parmetros 1 = 0.05,
2 = 0.1 e 3 = 0.2, respectivamente. Ento, o valor da funo confiabilidade e tempo mdio
para falha do sistema L, considerando o instante t = 5, sero calculados.
R(5) = R1 (5) R2 (5) R3 (5) = 0.17377394345045
Tmed =

1
= 2.857142857142857143
1 + 2 + 3

Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

227

Figura 9.6: Representao da configurao em paralelo ou redundante

9.3.2

Configurao em paralelo

A configurao paralela, tambm denominada redundante, implica que o sistema com esta
configurao falha apenas se todos os seus componentes se apresentarem em estado no
operacional. A Figura 9.6 ilustra esta configurao.
Seja o sistema L formado por n componentes conectados em paralelo. A funo que
define o estado de L dada por
n
Y
(x) = 1 (1 xi ) = max (x1 , x2 , ..., xn ).

(9.29)

i=1

A Figura 9.6 mostra que existem n caminhos crticos na configurao redundante ilustrada. Seja Ei o evento do i-simo componente no apresentar falhas durante um intervalo
de tempo t. Portanto, a probabilidade do sistema L no falhar durante um perodo de tempo
t dada por
!
n
[
P (t T ) = P
Ei .
i=1

Considerando independncia dos processos de falhas entre os componentes, tem-se que

P (t T ) = 1

n
Y

P (Eic ),

(9.30)

i=1

onde Eic o evento complementar de Ei .


Assim, a funo confiabilidade de L, com base em (9.30), pode ser representada da
seguinte forma:
n
Y
R(t) = 1
[1 R(i) (t)],

(9.31)

i=1

onde P (Eic ) = 1 R(i) (t).


Campos, Rgo & Mendona

9.3. SISTEMAS COMPLEXOS

228

Seja o sistema Y com dois componentes conectados em configurao redundante, possuindo lei de falhas independentes com distribuio Exponencial com parmetros 1 e 2 .
A funo confiabilidade de tal sistema, sendo o mesmo observado por um perodo de tempo
t, denotada por
R(t) = 1 (1 e1 t ) (1 e2 t )
= e1 t + e2 t e(1 +2 )t .
(9.32)
Utilizando (9.9) e (9.32), o tempo mdio para falha de Y
Z

R(t)dt =

Tmed =
0

1 t

+
0

2 t

e(1 +2 )t

1
1
1
=
+

.
1 2 1 + 2
(9.33)
Similarmente, o tempo mdio para falha, considerando trs componentes em configurao
redundante,
1
1
1
1
1
1
1
+
+

+
.
1 2 3 1 + 2 1 + 3 2 + 3 1 + 2 + 3
No existe uma frmula fechada para o tempo mdio considerando a configurao paralela. Caso se suponha que os n componentes possuem distribuio Exponencial com parmetros idnticos, , o tempo mdio para falha dado pela seguinte equao:
Tmed =

Tmed

1X1
=
.
i=1 i

Exemplo 9.3.2 : Seja L um sistema com trs componentes em configurao paralela.


Suponha que tais componentes possuem processo de falhas com distribuio Exponencial
idnticas com parmetro = 0.04. Ento, o valor da funo confiabilidade e tempo mdio
para falha, considerando o instante t = 10, sero calculados.
R(10) = 1 (1 R=0.04 (10)) (1 R=0.04 (10)) (1 R=0.04 (10)) = 0.96416745766746

Tmed =

1
1
1
+
+
= 45.833333333333329
0.04 0.04 0.04

Campos, Rgo & Mendona

CAPTULO 9. CONFIABILIDADE: PROBABILIDADE APLICADA

9.4

229

Exerccios

9.1 Considere um equipamente eletrnico com lei de falhas apresentando distribuio exponencial, tal que T E(0.01). Calcule:
(a)
(b)
(c)
(d)

R(0).
R(1.5).
R(10).
E(T ).

9.2 Suponha que uma pea mecnica possui distribuio de falhas Weibull com parmetros
= 5 e = 400. Calcule:
(a)
(b)
(c)
(d)
(e)

R(200).
(200).
R(400).
(400).
E(T )

9.3 O tempo mdio para falhas de um aparelho apresentando lei de falhas exponencial
dado por 1000 horas. Qual a confiabilidade desse equipamento aps 10 horas de
operao?
9.4 A durao da vida de um dispositivo eletrnico exponencialmente distribida. Sabe-se
que a confiabilidade desse dispositivo para um perodo de 100 horas de operao de
0.90. Quantas horas de operao devem ser levadas em conta para conseguir-se uma
confiabilidade de 0.95?
9.5 Suponha um sistema com 2 componentes. O primeiro componente possui distribuio
de falhas exponencial com taxa de falhas igual a 0.0001. O segundo possui distribuio
de falhas Weibull com parmetros = 2 e = 4000. Calcule os seguintes valores para
t = 200:
(a) R(200), considerando que os componentes esto conectados em srie.
(b) R(200), considerando que os componentes esto conectados em paralelo.
9.6 Um sistema possui 2 componentes com distribuio de falhas independentes e conectados em srie. O primeiro componente possui distribuio de falhas exponencial com
t
taxa de falhas 0.0003. O segundo possui taxa de falhas dada por (t) = 510
5 . Encontre
a confiabilidade do sistema aps 100 horas de operao.
9.7 Suponha que a lei de falhas de um componente tenha a seguinte funo densidade de
probabilidade:
f (t) =

(r + 1)Ar+1
, t > 0.
(A + t)r+2
Campos, Rgo & Mendona

9.4. EXERCCIOS

230

(a) Para quais valores de A e r, essa expresso uma funo densidade de probabilidade?
(b) Obtenha a expresso da funo confiabilidade.

Campos, Rgo & Mendona

Captulo 10
Teoremas Limite e Transformaes de
Variveis Aleatrias
10.1

Introduo

Quando um problema do mundo fsico deve ser resolvido num contexto de probabilidade,
torna-se imprescindvel conhecer a lei de probabilidade que rege o fenmeno que gerou o
problema. Se o fenmeno pode ser enquadrado em alguma das situaes abaixo descritas,
fcil encontrar a lei de probabilidade que o rege.
(i) Seja X uma varivel aleatria com densidade fX (x), ou distribuio FX (x), Ento,
fcil encontrar a lei de probabilidade de Y = H(X).
(ii) Supondo que se tem o vetor aleatrio (X, Y ), com as leis de probabilidade de X e Y
conhecidas. Tambm fcil encontrar as distribuies de probabilidade de X + Y ,
X Y , X Y e X/Y , tanto considerando independncia quanto dependncia. Teoricamente, se se tem (X1 , . . . , Xn ) poderia (mas no !) ser fcil encontrar a distribuio
de (. . . ((X1 + X2 ) + X3 ) + + Xn ).
(iii) Se o vetor (X1 , . . . , Xn ) uniformemente distribudo numa regio Rn de IRn , encontrar
a distribuiao de (X1 , . . . , Xn ) envolve apenas um clculo de volume (em IRn ), ficando
as dificuldades tcnicas por conta do clculo abstrato e no de probabilidade.
(iv) Existem resultados, alguns aqui descritos na seo Transformao de Variveis Aleatrias, que podem ser obtidos via o uso da funo geratriz de momentos ou funo
caracterstica.
Entretanto, se o problema a ser resolvido estrapola as situaes anteriormente descritas,
a soluo o uso de aproximaes, as quais tm de ter um suporte terico. Assim, os
resultados vistos neste captulo, portanto, tm como objetivo maior mostrar qual o suporte
para realizar aproximaes e quais as aproximaes mais usadas no mundo real.
Um lembrete: o clculo de limites na matemtica tem como resultado o limite, quando
este existe. No mundo probabilstico alm da sintaxe, o clculo efetivo de limite, tem uma semntica especfica, isto , o experimento aleatrio ou foi realizado um nmero muito grande
231

10.2.

LEI DE GRANDES NMEROS

232

de vezes, Mas, o que grande? Esta resposta um desafio na modelagem probabilstica do


mundo fsico.
Neste captulo ser dada uma introduo a teoremas limite, teoremas relacionados com
aproximaes e resultados (ou teoremas) relativos a transformaes de variveis aleatrias.
As demonstraes so omitidas uma vez que a maioria delas foge ao escopo do livro, entretanto, referncias de onde encontr-las sero fornecidas.
Por teoremas limite entende-se:
(i) Qual a distribuio da soma de n, onde esse n grande, variveis aleatrias independentes e igualmente distribudas? E se as variveis aleatrias no forem igualmente
distribudas?
(ii) Qual a relao entre a esperana matemtica de uma varivel aleatria e a mdia amostral, para uma amostra grande retirada independentemente dessa varivel aleatria?
(iii) Foi visto no Captulo 1 que a probabilidade do limite o limite da probabilidade
para sequncias monotnicas de eventos. Ser verdade que, dada uma sequncia de
varivies aleatrias, onde cada uma tenha esperana e o limite da sequncia tambm
tenha esperana, que o limite da esperana a esperana do limite?
(iv) Qual a relao entre a probabilidade de um evento e sua frequncia relativa ?
Os teoremas limite em probabilidade podem ser classificados como:
(i) Lei de Grandes Nmeros, os quais analisam a estabilidade da mdia para um grande
nmero de observaes, e os
(ii) Teoremas Centrais de Limite, que tratam de distribuies assintticas de probabilidade.
Estes teoremas fundamentam-se nos modos de convergncia e na funo caracterstica,
que so abordados na seo Aprendendo um pouco mais.

10.2

Lei de Grandes Nmeros

(i) Lei Fraca dos Grandes Nmeros de Jakob Bernoulli (1713)


Sejam E um experimento aleatrio, A um evento associado a E, n repeties independentes de E, nA o nmero de ocorrncias de A nas repeties independentes de E,
fA = nnA e P (A) = p. Ento
P

fA p,
isto , fA converge para p em probabilidade.
Prova: E(fA ) = p, V (fA ) =
Tchebychev,

p(1p)
n

porque nA B(n, p). Usando a desigualdade de

p(1 p)

n2
lim P (| fA p |< ) = 1.

P (| fA p |< ) 1
n

(10.1)

Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

233

O resultado em (10.1) mostra qua a frequncia de A quando n grande pode ser uma
aproximao para p. Adicionalmente, o modo de convergncia envolvido fraca, pois
convergncia em probabilidade. Este teorema limite foi o primeiro da probabilidade
e foi publicado em 1715.
Exemplo 10.2.1: O problema do administrador de uma rede estimar a verdadeira
proporo de usurios de uma dada aplicao usando uma amostra aleatria de tamanho n. Admitindo que a populao de usurios suficientemente grande para se usar
um resultado assinttico, determine n para que o administrador possa garantir, com
pelo menos 95% de probabilidade, que a distncia entre a estimativa encontrada, p0 , e
a probabilidade terica 1/3, seja inferior a 3%.
Soluo.
P (| p0

(1/3)(2/3)
1
|< 0.03) 1
= 0.95
3
n 0.032

Logo,
(1/3)(2/3)
= 0.05 n 4938.
n 0.032

(ii) Lei Forte dos Grandes Nmeros de Borel (1909)


Sejam X1 , X2 , . . . , Xn , . . . e X variveis aleatrias independentes e identicamente distribudas tais que P (Xn = 1) = p, P (Xn = 0) = 1 p e Sn = X1 + + Xn . Ento,
Sn
converge em quase toda parte (qtp) para p, ou
n
Sn qtp
p.
n
Exemplo 10.2.2: Nmeros Normais
Segundo Chung (1974), o teorema de Borel acima foi o primeiro caso de lei forte de
grandes nmeros e pode ser formulado em termos dos chamados nmeros normais,
como a seguir.
Seja x [0, 1], escrito na expanso decimal (Kulisch e Miranker, 1981),
x = 0.d1 d2 . . . .
Exceto por um conjunto contvel de terminaes decimais esta representao nica.
Seja 0 k 9 e vkn como sendo o nmero de dgitos entre os n primeiros dgitos de x
v n (x)
que so iguais a k. Portanto, kn a frequncia relativa do dgito k, nas n primeiras
posies de x. Se existir k (x) tal que
vkn (x)
n
n

k (x) = lim

Campos, Rgo & Mendona

10.3. TEOREMAS CENTRAIS DE LIMITE

234

ento k (x) pode ser chamada a frequncia relativa de k em x.


x chamado simplemente normal na base 10 se e s se, existe k (x) e
k (x) =

1
, 0 k 9.
10

Nestes termos, o teorema de Borel : exceto por um conjunto de Borel de medida nula,
todo nmero em [0,1] simplesmente normal.
Resultados para a base 2 podem ser encontrados em James (1981).
Fazendo uma analogia com nmeros de ponto-flutuante e gerador de nmeros aleatrios
em computadores, sabe-se que no intervalo [0,1] onde existem mais nmeros de pontoflutuante (veja apndice sobre o assunto) e que geradores de nmeros aleatrios geram
nmeros aleatrios entre 0 e 1. Portanto, uma aplicao prtica do teorema de Borel
pode ser checar se o gerador de nmeros aleatrios de uma determinada mquina
realmente aleatrio, isto , no limite, a frequncia de cada dgito deveria ser 12 , uma
vez que computadores trabalham internamente em binrio,

10.3

Teoremas Centrais de Limite

(i) Teorema Central do Limite de DeMoivre (1733)- Laplace (1812)


Se X B(n, p) e Zn =

Xnp

,
npq

ento Zn N (0, 1).

Isto ,
lim P (Zn z) = lim Fn (z) = FN (0,1) (z),

o que significa que Zn converge em distribuio (D) para uma N (0, 1).
Este teorema mostra que uma B(n, p) pode ser aproximada por uma N (0, 1). Ross
(1993) sugere que a aproximao seja usada quando npq 10.
Exemplo 10.3.1: Seja X o nmero de caras em 40 lanamentos independentes de
uma moeda honesta. Calcular
(a) P (X = 20).
(b) P (X 1).
Soluo. Claramente X uma binomial, porque o experimento realizado independentemente um nmero finito de vezes e a probabilidade do evento de interesse, no
caso aparecer cara, permanece constante durante a realizao do experimento. Logo,
 1 20 1 4020
(a) P (X = 20) = 40
( ) (2)
.
20 2
 1 0 1 40
(b) P (X 1) = 1 P (X = 0) = 1 40
(2) (2) .
0
Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

235

O mesmo problema ser resolvido aproximando a binomial pela N (0, 1). Para o clculo
de P (X = 20), como a normal contnua, probabilidade no ponto zero, ento usa-se
o artifcio de somar e subtrair 0.5 ao valor de interesse, no problema 20. Lembrando
que E(X) = 20 e V (X) = 10.

(a) P (X = 20) = P (19.5 X 20.5) = P ( 19.520

10

(b) P (X 1) = 1 P (X < 1) = 1 P ( X20


<
10

X20

10

120
)
10

20.520

)
10

= 0.1272.

= 1 P (Z40 < 6) = 1.

(ii) Teorema Central do Limite - TCL


Sejam X1 , X2 , . . . , Xn , . . . , independentes tais que, para todo i = 1, 2, . . . ,, E(Xi ) = i
e V (Xi ) = i2 . Seja Sn = X1 + + Xn . Ento,
P
Sn n i
Zn = pPn 2 N (0, 1).
i
Isto ,
lim P (Zn z) = lim Fn (z) = FN (0,1) (z),

ou Zn converge em distribuio para uma N (0, 1),


D

Zn N (0, 1).
O teorema de DeMoivre-Laplace mostra que probabilidades envolvendo binomiais podem ser calculadas por meio de aproximao pela N (0, 1). Note que a convergncia
deste ltimo resultado tambm convergncia em distribuio. O TCL fornece um
mtodo efetivo para se calcular probabilidades quando se tem somas de variveis aleatrias independentes. Isto significa que se um fenmeno do mundo real puder ser
modelado por uma soma (Sn ) de n fatores independentes, mesmo no sendo possvel
encontrar uma frmula para a distribuio de Sn , calcula-se qualquer probabilidade
envolvendo Sn pela aproximao com a N (0, 1).

Exemplo
10.3.2:
P10
P ( 1 Xi < 7).

Sejam Xi U (0, 1), para i = 1, . . . 10, independentes. Calcular

P
1
Soluo. Sabe-se que E(Xi ) = 21 e V (Xi ) = 12
. Seja S10 = 10
1 Xi . Logo, E(S10 ) = 5
S
7
10 5

e V (S10 ) = 10
.
Portanto,
P
(S
<
7)
=
P
(
<
=
0.9861.
10
10
10
12
12

12

Campos, Rgo & Mendona

10.4. TRANSFORMAES DE VARIVEIS ALEATRIAS

10.4

236

Transformaes de Variveis Aleatrias

Nesta seo sero vistos resultados1 relativos a aproximaes de variveis aleatrias por
outras, ou de transformaes de variveis aleatrias.
(i) Se X se distribui como uma Hipergeomtrica de parmetros N , n e r , se p =
N grande,
P (X = k) ' B(n, p).

r
,
N

para

(ii) Sejam X1 , X2 , . . . , Xn independentes tais que Xi N (i , i2 ), para i = 1, , n. Seja


X = X1 + X2 + + Xn . Ento,
n
n
X
X
X N(
i ,
i2 ).
i=1

i=1

(iii) Sejam X1 , X2 , . . . , Xn variveis aleatrias independentes tais que Xi P oisson(i ),


para i = 1, , n. Seja X = X1 + X2 + + Xn . Ento,
X P oisson(

n
X

i ).

i=1

(iv) Se Xk B(nk , p), para k = 1, , n e X = X1 + X2 + + Xn . Ento,


X B(

n
X

nk , p).

i=1

(v) Sejam X1 , X2 , . . . , Xn independentes tais que Xi N (i , i2 ), para i = 1, , n e seja


X = X1 +X2n++Xn . Ento,
Pn
Pn
2
i=1 i
, i=12 i ).
X N(
n
n
(vi) Sejam X1 , X2 , . . . , Xn variveis aleatrias independentes tais que Xi Exp(), para
i = 1, , n e seja G = X1 + X2 + + Xn . Ento,
G Gama(, n).
(vii)
2n

n
X

Xi2 , Xi N (0, 1), independentes.

i=1

(viii) Sejam X1 , , Xn variveis aleatrias independentes tais que Xi 2ni para i =


P
1, , k e X = ki=1 Xi . Ento, X 2n , onde n = n1 + + nk .
1

Provas via funo geratriz de momentos ou funo caractertica (ver a ltima seo).

Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

10.5

237

Aprendendo um pouco mais

Nesta seo sero vistas as definies dos modos de convergncia e da funo caracterstica
e duas leis de grandes nmeros que ilustram convergncia em probabilidade e em quase toda
parte.

10.5.1

Modos de Convergncia

(i) Convergncia em quase toda parte, ou quase certa ou com probabilidade 1.


Sejam X1 , X2 , . . . , Xn , . . . e X variveis aleatrias em (, A, P ). Xn converge para X
em quase toda parte,
qtp

Xn X
se
P ({ : lim Xn () = X()}) = 1.
n

Este resultado significa que o conjunto dos onde Xn 6 X tem probabilidade zero.
Este o significado de converg
ncia em quase toda parte: convergncia fora de um
conjunto de probabilidade (medida) nula. Adicionalmente, convergncia em quase
toda parte convergncia pontual fora de um conjunto de medida nula.
(ii) Convergncia em probabilidade
Sejam X1 , X2 , . . . , Xn , . . . e X variveis aleatrias em (, A, P ). Xn converge para X
em probabilidade,
P

Xn X
se,  > 0,
lim P ({ :| Xn () X() |> }) = 0.

A semntica da convergncia em probabilidade : quando n grande, isto , quando o


experimento realizado um nmero muito grande de vezes os valores de Xn () e X()
so probabilisticamente os mesmos.
(iii) Convergncia em distribuio
Sejam as variveis aleatrias X1 , X2 , . . . , Xn , . . . e X no necessariamente no mesmo
espao de probabilidade (, A, P ). Xn converge para X em distribuio,
D

Xn X
se, para todo x ponto de continuidade de FX (),
lim FXn (x) = FX (x).

Campos, Rgo & Mendona

10.5. APRENDENDO UM POUCO MAIS

238

Alm desses, existem outros modos de convergncia (por exemplo, convergncia em mdia
de ordem p, 0 < p < +), entretanto, os aqui citados so suficientes para o entendimento
de qual modo de convergncia foi usado neste captulo.
Convergncia em quase toda parte denominada de convergncia forte e em probabilidade
de fraca. O mais fraco modo de convergncia em distribuio. Pode-se mostrar que:
qtp P D.

10.5.2

Funo Caracterstica

Seja X uma varivel aleatria. A funo caracterstica de X, ,


: IR C
I
X (t) = E(eitX ).
Portanto, X toma valores complexos. Na verdade, X a esperana matemtica da
funo da varivel aleatria X, eitX .
A funo caractarstica tem vrias propriedades, entre outras, ele determina a distribuio
acumulada de X, FX , e determinada por ela. Na verdade, esta propriedade um teorema
denominado teorema da unicidade e sua tese que se X1 (t) = X2 (t), para todo t, ento
FX1 (x) = FX2 (x), para todo x.
A verso real da funo caractarstica funo geratriz de momentos ou funo de momentos, MX ,
MX : IR IR
MX (t) = E(etX ).
O teorema da unicidade tambm vlido se X (t) substituda por MX (t).

10.5.3

Lei Fraca dos Grandes Nmeros de Khintchine (1929)

Sejam X1 , X2 , . . . , Xn , . . . e X variveis aleatrias independentes e identicamente distribudas


em (, A, P ) tais que E(Xi ) = < , i e S1 , S2 , . . . , Sn = X1 + + Xn , . . . as somas
parciais. Ento,
Sn P
.
n

10.5.4

Lei Forte dos Grandes Nmeros de Kolmogorov (1933)

Sejam X1 , X2 , . . . , Xn , . . . , e X variveis aleatrias independentes e identicamente distribudas tais que E(Xi ) = < , i. Seja Sn = X1 + + Xn . Ento,
Sn qtp
.
n

Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

10.6

239

Exerccios

10.1 Sejam Xk P oisson(1), k = 1, , 10, independentes. Calcular P (

P10

k=1

Xk 15).

10.2 Determinados programas que chegam a um sistema de computao requerem um tempo


de CPU que pode ser modelado por uma distribuio exponencial com parmetro
1/140 milissegundos. Por razes operacionais, a disciplina da CPU tal que, se um
programa no for processado dentro de 100 milissegundos, sua execuo interrompida
e o programa volta para o final da fila de acesso CPU.
(a) Encontre a probabilidade de que um desses programas volte para o final da fila.
(b) Suponha que um analista est interessado no tempo total, T , requerido CPU
por 40 desses programas. Qual a probabilidade de que T ultrapasse 6000 milissegundos?
10.3 Adicione 100 nmeros reais, cada um dos quais arredondado para o inteiro mais
prximo. Assuma que cada erro de arredondamento uma varivel aleatria uniformemente distribuda entre -0.5 e 0.5, e que estes erros sejam independentes.
(a) Encontre, aproximadamente, a probabilidade de que o erro na soma esteja entre
-3 e 3.
(b) Encontre a quantidade x tal que, com aproximadamente 99% de probabilidade,
em valor absoluto o erro na soma seja menor do que x.
10.4 Sejam l1 , l2 , , ln , lmpadas quaisquer instaladas de tal forma que l2 comea a
funcionar quando l1 deixa de funcionar, l3 comea a funcionar quando l2 deixa de
funcionar, e assim por diante. Assume-se que cada lmpada tem um tempo mdio de
vida de 2 meses com um desvio padro de 0.25 ms.
(a) Encontre, aproximadamente, a probabilidade de que 40 lmpadas durem pelo menos 7 anos.
(b) Quantas lmpadas, n, devem ser instaladas de formas que, com uma probabilidade
de 0.95 as n lmpadas durem pelo menos 5 anos?
10.5 Um avio de turismo de 4 lugares pode levar uma carga til de 350kg. Carga til
= peso dos 4 passageiros + o peso das respectivas bagagens. Sabe-se que o peso de
qualquer dos passageiros segue uma distribuio normal com mdia 70kg e varincia
400kg 2 , e de qualquer respectiva bagagem, tambm normal com mdia 12kg e varincia
25kg 2 .
(a) Qual a probabilidade de haver sobrecarga se o piloto, irresponsavelmente, no
pesar os 4 passageiros e as respectivas bagagens?
(b) Qual a probabilidade de que o piloto tenha de descartar pelo menos 50kg de
combustvel para evitar sobrecarga?
Campos, Rgo & Mendona

10.6. EXERCCIOS

240

10.6 48 medies so registradas com vrias casas decimais. Cada um desses 48 nmeros arredondado para o inteiro mais prximo. A soma dos 48 nmeros originais
aproximada pela soma destes inteiros. Assumindo que os erros de arredondamento
so estocsticamente independentes e tm distribuio uniforme no intervalo ( 12 , + 12 ),
compute um valor aproximado para a probabilidade de que o erro seja menor que 2
unidades.
10.7 A espessura de trilhas fotorresistivas (pastilhas) na fabricao de semicondutores tem
mdia e varincia, respectivamente, 10 micrmetros e 2 micrmetros. Considere normalidade. Tambm considere que as espessuras de diferentes pastilhas sejam independentes.
(a) Determine a probabilidade de a espessura mdia de 10 pastilhas ser maior do que
11 ou menor do que 9 micrmetros.
(b) Qual deve ser o tamanho da amostra, n, tal que, com probabilidade 0.01, a espessura mdia seja maior do que 10 micrmetros?
10.8 Em um extenso programa de computador, o programador decide manter J algarismos
significativos aps o ponto decimal, arredondando o resultado de qualquer operao
aritmtica para este nmero de algarismos. Admita que haja um total de 106 operaes
elementares envolvendo arredondamentos, que os erros de arredondamento sejam independentes e uniformemente distribudos no intervalo [0.5 10J , 0.5 10J ]. Calcule
a probabilidade de que o erro de arredondamento seja menor do que 500 10J .
10.9 O peso de um equipamento eletrnico se distribui como uma normal com mdia 10g e
desvio padro 0.5g. Este equipamento embalado em caixas contendo 120 unidades.
O peso da caixa 150g. Qual a probabilidade de que uma caixa cheia pese mais de
1360g?
P
10.10 Sejam 27 voltagens independentes V1 , , V27 recebidas por um somador V = 27
i=1 Vi .
Suponha que Vi U (0, 10), i = 1, , 27.
(a) Qual a probabilidade de que a voltagem na entrada do somador exceda 148.5
volts?
(b) Sabe-se que a capacidade mxima desse somador 200 volts. Calcule o nmero
mximo, n, de voltagens que o mesmo pode receber de modo que sua capacidade
no seja ultrapassada em pelo menos metade das vezes.
10.11 Supondo que a distribuio de probabilidade da carga til de cada passageiro, seu peso
mais sua bagagem, uma Normal de mdia 82kg e varincia 49kg 2 e que um avio de
16 lugares pode levar uma carga til total de 1360kg, calcule a probabilidade de que o
piloto tenha que tirar pelo menos 25kg de gasolina para evitar sobrecarga.
10.12 Um analista tem de entrevistar 20 programadores. Ele sabe que o tempo gasto em uma
entrevista, T , segue uma lei normal com mdia 10 minutos e desvio padro 3 minutos.
Ele comea as entrvistas s 9:00.
Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

241

(a) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas?
(b) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas, se
parou durante 15 minutos para um cafezinho?
(c) Ele comea as entrevistas s 9:00 horas e decide parar para um cafezinho no
tempo t, onde t tal que, com 99% de certeza ele ter entrevistado 50% dos
programadores. Quanto t, isto , quando ele parar?
10.13 Um produto pesa em mdia 8g com um desvio padro de 5g. embalado em caixa de
144 unidades que pesam em mdia 200g com desvio padro 10g. Calcular a probabilidade de que uma caixa cheia pese mais do que 1400g, admitindo distribuies normais
dos pesos.
10.14 A quantidade de tempo que um consumidor gasta esperando no balco de check-in
de um aeroporto uma varivel aleatria com mdia de 8.2 minutos e desvio-padro
de 1.5 minuto. Suponha que uma amostra aleatria de 49 consumidores seja observada. Encontre a probabilidade de que o tempo mdio de espera na fila para esses
consumidores esteja entre 5 e 10 minutos.
10.15 A vida efetiva de um componente usado em um motor de uma turbina de um avio a
jato uma varivel aleatria com mdia 5000 horas e desvio-padro 40 horas. Suponha
normalidade e independncia onde necessrio. O fabricante do motor introduz uma
melhoria no processo de fabricao desse componente que aumente a vida mdia para
5050 horas e diminui o desvio padro para 30 horas. Uma amostra aleatria de 16
componentes selecionada do processo antigo e outra de 25 elementos selecionada
do processo novo. Qual a probabilidade de que a diferena entre as duas mdias
amostrais seja no mnimo de 25 horas?
10.16 Um sinal, S, recebido em um detector, D, medido em microvolts, em determinado
instante t, pode ser modelado por uma N (200, 256). Realizando clculos com duas
decimais e arredondamento simtrico, responda s questes a seguir.
(a) Qual a probabilidade de que a voltagem do sinal exceda 220 microvolts?
(b) Se 10 desses sinais chegam independentemente, qual a probabilidade de que ao
menos um deles exceda 220 microvolts?
(c) Qual a probabilidade de que o primeiro sinal que exceda 220 microvolts seja o
dcimo? Os sinais so independentes.
(d) Suponha que 30 sinais chegam alternadamente e independentemente ao detector.
Qual a probabilidade de que a voltagem total, V , entre a chegada do primeiro e
o recebimento do ltimo sinal exceda 6000 microvolts?
(e) Um tcnico constata que o nmero de sinais que chegam em D no perodo de 20
segundos segue um processo de Poisson com taxa 8. Qual a probabilidade que
cheguem 5 sinais em 30 segundos?
Campos, Rgo & Mendona

10.6. EXERCCIOS

242

(f ) A confiabilidade, R, do detector D mensurada pela sua probabilidade de detectar


sinais que excedam 220 microvolts: se R 0.5, D confivel; caso contrrio, no.
O clculo proposto para a confiabilidade de D foi: D confivel se necessrio
se enviar, independentemente 5 sinais a fim de se detectar 2 que excedam 220
microvolts. D confivel? Justifique sua resposta.
10.17 A capacidade mxima de um elevador 2000kg. Supondo que o peso de um passageiro
tem distribuio N(70kg, 100kg2 ), use a mdia amostral para calcular:
(a) a probabilidade de 30 passageiros pesarem alm do limite;
(b) o nmero mximo n de passageiros, de modo que a capacidade no seja ultrapassada em pelo menos metade das vezes.
10.18 Amostras independentes de tamanhos 10 e 15 so tiradas de uma varivel aleatria
normalmente distribuda, com esperana 20 e varincia 3. Qual a probabilidade de
que as mdias difiram, em valor absoluto, em mais de 0.3?
10.19 Dadas duas amostras (X1 , , Xn ), (Y1 , , Yn ) ambas provenientes de uma mesma
populao N (, 1), qual a distribuio de:
(a) Mdias amostrais, X e Y .
(b) Diferena de mdias X Y .
(c) Soma de mdias X + Y .
(d) Mdia das mdias (X + Y )/2.
10.20 Um corredor procura controlar seus passos em uma corrida de 100 metros. Seus passos
distribuem-se normalmente com mdia 0.97 metros e desvio padro 0.1 metro. Determine a probabilidade de que 100 passos difiram de 100 metros por no mais de 5
metros.
10.21 Arredondam-se 20 nmeros para o inteiro mais prximo e somam-se os nmeros resultantes. Suponha que os erros individuais de arredondamentos so independentes e se
distribuem uniformemente em (1/2, 1/2). Determine a probabilidade de que a soma
obtida difira da soma dos vinte nmeros originais por mais do que 3.
10.22 Fregueses chegam em certo supermercado segundo um processo de Poisson com intensidade mdia de dez por minuto. Seja T1 , T2 , os tempos entre chegadas de fregueses,
de modo que T1 + + Tn o tempo de chegada do n-simo fregus.
(a) Utilizando o Teorema Central do Limite, ache um nmero entre 0 e 1 que seja
aproximadamente igual probabilidade do milsimo fregus chegar depois de 100
minutos.
(b) Como voc calcularia o valor exato da probabilidade no item (a)? (No se aceita
uma integral no espao de dimenso 1000).
Campos, Rgo & Mendona

CAPTULO 10. TEOREMAS LIMITE E TRANSFORMAES DE VARIVEIS


ALEATRIAS

243

10.23 Seja uma sequncia de variveis aleatrias X1 , X2 , , Xn uniformemente distribudas


no interval (0,1), (0,2), etc. O que acontece com sua mdia aritmtica quando n cresce?
10.24 Variveis aleatrias X1 , X2 , , Xn so uniformemente distribudas, respectivamente,
nos intervalos (-1,1), (-2,2), etc. Verifique se a mdia aritmtica das variveis aleatrias
converge em probabilidade a zero quando n cresce.
10.25 Suponha que 30 dispositivos eletrnicos D1 , D2 , , D30 estejam empregados da seguinte maneira: to logo D1 falhe, D2 entra em operao; quando D2 falha, D3 entrar
em operao, etc. Suponha que a durao at falhar Di seja uma varivel aleatria
exponencialmente distribuda com parmetro = 0.1hora1 . Seja T o tempo total da
operao dos 30 dispositivos. Qual a probabilidade de que T ultrapasse 350 horas?
10.26 Um computador, ao adicionar nmeros arredonda cada nmero para o inteiro mais
prximo. Admita-se que todos os erros de arredondamento sejam independentes e
uniformemente distribudos sobre (-0.5,0.5).
(a) Se 1500 nmeros forem adicionados, qual a probabilidade de que a magnitude
do erro total ultrapasse 15?
(b) Quantos nmeros podero ser adicionados juntos de modo que a magnitude do
erro total seja menor do que 10, com probabilidade 0.90?
10.27 Suponha que Xi , i = 1, 2, , 50 sejam variveis aleatrias independentes, cada uma
com distribuio de Poisson de parmetro = 0.03. Faa S = X1 + + X50 .
(a) Empregando o Teorema Central do Limite, calcule P (S 3).
(b) Compare a resposta do item anterior com o valor exato dessa probabilidade.
10.28 A distribuio dos comprimentos dos elos da corrente de uma bicicleta tem distribuio normal com mdia 2cm e varincia 0.01cm2 . Para que uma corrente se ajuste
bicicleta, deve ter comprimento total entre 58 e 61cm. Qual a probabilidade de que
uma corrente com 30 elos no se ajuste bicicleta? E com 29 elos?

Campos, Rgo & Mendona

10.6. EXERCCIOS

244

Campos, Rgo & Mendona

Captulo 11
Introduo aos Processos Estocsticos
11.1

Introduo

A modelagem analtica de qualquer fenmeno do mundo fsico requer que simplificaes


sejam consideradas uma vez que o mundo fsico mais rico do que toda teoria desenvolvida
em cincia e tecnologia. Em particular, se a modelagem analtica estocstica inmeras
dependncias tm de ser consideradas. Por exemplo, as variveis aleatrias tempo entre
mensagens recebidas, Tm , tempo de resposta em um sistema on-line, Tr , nmero de jobs
esperando para serem processados, Nt , dependem do instante em que so consideradas; as
compras realizadas na prxima semana em um supermercado podem depender da satisfao
das compras realizadas at o presente momento; o estoque armazenado amanh depender
do nvel de estoque de hoje bem como da demanda; o nmero de clientes esperando numa
fila em uma certa hora depende do nmero de clientes que estavam na fila na hora anterior.
Um grande problema que apesar dos modelos serem mais apropriados quando dependncias so includas, estas por suas vez tornam os clculos de probabilidades muito complicados
ou impossveis. Ou seja, quanto mais independncia se assume no modelo probabilstico,
maior a chance de poder realizar clculos explicitamente o que implica na qualidade do
modelo, onde qualidade do modelo significa a adequao do modelo proposto realidade
fsica 1 . Portanto, na modelagem analtica por meio de um modelo estocstico, o desafio
utilizar dependncias que permitam que o modelo seja o mais fiel possvel realidade, mas
que tambm sejam matematicamente tratveis.
No caso das variveis anteriormente mencionadas Tm , Tr e Nt fcil supor que todas
dependem do tempo em que so observadas. Na verdade ento tem-se uma famlia de
variveis aleatrias, por exemplo, {Nt , t T } onde T o conjunto de todos os tempos
durante o dia no qual o centro de computao est operando.
Definio 11.1.1 : Uma famlia de variveis aleatrias {Xt , t T } chamada de um
processo estocstico.
t T , Xt uma varivel aleatria. Fixado t T , o conjunto de todos os valores que
Xt pode assumir chamado de espao de estados, , e cada um desses valores chamado
1

A cincia e tecnologia desconhecem os adjetivos, consideram apenas os substantivos. Um modelo bom


quando se adequa ao mundo fsico dentro de um critrio topolgico, por exemplo, uma distncia.

245

11.2.

CLASSIFICAO DOS PROCESSOS ESTOCSTICOS

246

de estado do processo. O espao de estados corresponde ao espao amostral e os estados


do processo so os valores que, fixado t, a varivel Xt assume. T um conjunto de ndices
usualmente referenciado como espao de parmetros.

11.2

Classificao dos processos estocsticos

A classificao dos processos estocsticos feita considerando-se o espao de estados e o


espao de parmetros:
(i) Espao de parmetros discreto. T = {0, 1, 2, . . .} ou T = {0, 1, 2, . . .}.
(ii) Espao de parmetros contnuo. T = {t : < t < +} ou T = {t : t 0}.
(iii) Espao de estados discreto. Se fixado t T , a varivel X(t) assume um nmero
finito ou enumervel de valores.
(iv) Espao de estados contnuo. Se fixado t T , a varivel X(t) assume valores num
conjunto no-enumervel.
Exemplo 11.2.1: Tempo de espera de uma consulta a uma base de dados, {W (t), t 0}.
espao de parmetros: contnuo;
espao de estados: contnuo.

Figura 11.1: Representao de um processo estocstico com espao de parmetros e estados


contnuo

Exemplo 11.2.2: Nmero de mensagens que chegam a determinado servidor no perodo


de 0 a t, {N (t), t 0}.
espao de parmetros: contnuo;
espao de estados: discreto.
Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

247

Figura 11.2: Representao de um processo estocstico com espao de parmetros contnuo


e espao de estados discreto

Exemplo 11.2.3: Tempo mdio de execuo de um job no n-simo dia da semana, {Xn , n =
1, . . . , 7.}
espao de parmetros: discreto;
espao de estados: contnuo.

Figura 11.3: Representao de um processo estocstico com espao de parmetros discreto


e espao de estados contnuo

Exemplo 11.2.4: Nmero de jobs processados em um centro de processamento de dados


no n-simo dia do ano, {Xn , n = 1, . . . , 365.}
espao de parmetros: discreto;
espao de estados: discreto.

Campos, Rgo & Mendona

11.3. EXEMPLOS DE PROCESSOS ESTOCSTICOS

248

Figura 11.4: Representao de um processo estocstico com espao de parmetros e estados


discreto

11.3

Exemplos de processos estocsticos

Alguns processos estocsticos so to comuns no mundo fsico que recebem ateno especial.

11.3.1

Processo de contagem

Sejam os eventos:
uma chamada telefnica numa central de reservas de uma companhia area,
a ocorrncia de uma falha por software ou hardware em um sistema.
Tais eventos podem ser descritos por uma funo de contagem, N (t), definida para todo
t > 0 como o nmero de eventos que ocorreram depois do tempo 0 mas no mais tarde que
o tempo t.
Definio 11.3.1: {N (t), t T } constitue um processo de contagem se:
(i) N (0) = 0.
(ii) N (t) assume somente valores inteiros no-negativos.
(iii) s < t N (s) N (t).
(iv) N (t) N (s) o nmero de eventos que ocorreram em [s, t).

11.3.2

Processo de Poisson

O processo de Poisson, com espao de estados discreto e espao de parmetros contnuo,


til em muitas aplicaes prticas. O interesse contar o nmero de eventos que ocorrem
no intervalo de tempo (0, t].
Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

249

A prxima definio formaliza a ideia de "uma quantidade pequena com respeito a outra".
A vantagem que torna possvel indicar esse fato sem especificar o exato relacionamento
entre as duas quantidades.
Definio 11.3.2: f o(h) se limh

f (h)
h

= 0.

Definio 11.3.3: Um processo estocstico {X(t), t 0} com parmetro contnuo tem


incrementos independentes se eventos ocorrendo em intervalos de tempo no superpostos so independentes. Isto , se (a1 , b1 ), (a2 , b2 ), . . . , (an , bn ) no se sobrepem ento
X(b1 ) X(a1 ), . . . , X(bn ) X(an ) so variveis aleatrias independentes.
incrementos estacionrios se X(t + h) X(s + h) tem a mesma distribuio que X(t)
X(s) para cada escolha de s e t, s < t e h > 0. Isto , a distribuio de X(t) X(s)
depende apenas do comprimento do intervalo e no dos possveis valores s e t.
Definio 11.3.4: Um processo de contagem {N (t), t 0} um processo de Poisson com
taxa > 0 se:
(i) o processo tem incrementos independentes;
(ii) o processo tem incrementos estacionrios;
(iii) P (N (h) = 1) = h + o(h); (probabilidade da ocorrncia de exatamente 1 evento em
qualquer intervalo de tempo de comprimento h)
(iv) P (N (h) 2) = o(h); (probabilidade da ocorrncia de mais do que 1 evento em qualquer
intervalo de tempo de comprimento h)
Teorema 11.3.5: Seja {N (t), t 0} um processo de Poisson com taxa > 0. Ento
a varivel aleatria, Y , que conta o nmero de eventos em qualquer intervalo de tempo de
comprimento t > 0 tem uma distribuio de Poisson com parmetro t,
P (Y = k) =

et (t)k
, k = 0, 1, . . .
k!

Portanto, o nmero mdio de eventos ocorrendo em qualquer intervalo de tempo de comprimento t t e o nmero mdio de eventos ocorrendo por unidade de tempo tt = .
O prximo teorema mostra outro importante atributo do processo de Poisson, que a
sua relao com a distribuio exponencial.
Teorema 11.3.6: Seja {N (t), t 0} um processo de Poisson com taxa > 0. Sejam
0 < t1 < t2 < . . . tempos sucessivos de ocorrncias de eventos e {n , n = 1, 2, . . .} os tempos
entre as ocorrncias de eventos 2 . Ento, {n } so variveis aleatrias independentes e
identicamente distribudas segundo uma exponencial com mdia 1 .
2

1 = t1 , 2 = t2 t1 , . . .

Campos, Rgo & Mendona

11.3. EXEMPLOS DE PROCESSOS ESTOCSTICOS

250

O prximo teorema mostra que vale a recproca do ltimo teorema.


Teorema 11.3.7: Seja {N (t), t 0} um processo de Poisson com taxa > 0 tal que os
tempos entre chegadas de eventos, {n , n = 1, 2, . . .}, sejam variveis aleatrias independentes e identicamente distribudas segundo uma exponencial com mdia 1 . Ento {N (t), t 0}
segue um processo de Poisson com taxa .
O processo de Poisson pode ser visto como um caso especial de um tipo mais geral de
processo, que importante para Teoria das Filas, o qual ser visto a seguir.

11.3.3

Processo de nascimento-e-morte

A ideia intuitiva atrs de um processo de nascimento-e-morte a de algum tipo de populao que est ganhando novos membros atravs de nascimentos e perdendo velhos membros
atravs de mortes. A populao, para a maior parte das aplicaes desses processos em
computao a dos usurios em uma fila de espera. A palavra usurios genrica. Os
usurios que chegam correspondem aos nascimentos e os que partem, aps serem atendidos,
s mortes.
Definio 11.3.8: Seja um processo estocstico com parmetro contnuo {Xt , t 0} e
com espao de estados discreto 0, 1, . . .. Suponha que este processo descreve um sistema que
est no estado En , n = 0, 1, . . . no tempo t se e s se X(t) = n 3 . Ento, o processo descrito
por um processo de nascimento-e-morte se existem taxas de nascimento {n , n = 0, 1, . . .} e
taxas de morte {n , n = 0, 1, . . .} tal que os seguintes postulados so satisfeitos:
(i) As nicas mudanas de estado so:
de En para En+1 , n 1;
de En para En1 , n 1;
de E0 para E1 .
Somente um nascimento ou uma morte ocorre no tempo t e no ocorre morte se o
sistema est vazio.
(ii) Se no tempo t o sistema est no estado En , a probabilidade de que entre (t, t + h) En
mude 4 para En+1 n + o(h) e En mude para En1 n + o(h).
(iii) A probabilidade de que ocorra mais de uma transio (t, t + h) o(h) 5 .
Quando descreve-se um sistema de filas como um processo de nascimento-e-morte, o
estado En corresponde aos n usurios no sistema esperando ou recebendo servio.
3

O sistema tem uma populao de n elementos ou usurios no tempo t.


Tem-se aqui probabilidades de transio, isto de nascimento ou morte, em um pequeno intervalo de
tempo quando o tamanho da populao n
5
A probabilidade de mais de um nascimento ou mais de uma morte num intervalo de tempo muito pequeno
desprezvel.
4

Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

11.3.4

251

Processo de Markov

Definio 11.3.9: Um processo estocstico {X(t), t T } um processo de Markov se


para qualquer conjunto t1 < t2 < . . . tn+1 no espao de parmetros T e {x1 , . . . , xn+1 } no
espao de estados tem-se que
P (X(tn+1 ) = xn+1 | X(t1 ) = x1 , . . . X(tn ) = xn ) = P (X(tn+1 ) = xn+1 | X(tn ) = xn ).
Intuitivamente, esta definio significa que o futuro do processo depende somente do
estado presente e do estado imediatamente anterior, e no de toda sua histria.
Usualmente os processos de Markov so classificados como:
Cadeia de Markov com tempo discreto
Espao de parmetros: discreto. Espao de estados: discreto
Processo de Markov com tempo discreto
Espao de parmetros: discreto Espao de estados: contnuo
Cadeia de Markov com tempo contnuo
Espao de parmetros: contnuo Espao de estados: discreto
Processo de Markov com tempo contnuo
Espao de parmetros: contnuo Espao de estados: contnuo

11.4

Cadeias de Markov

Uma Cadeia de Markov um processo de Markov com espao de estados discreto.


Desde que uma cadeia de Markov tem espao de estados discreto, os estados so rotulados
por {E0 , E1 , . . .} ou, por convenincia notacional, {0, 1, . . .}.
Para uma cadeia de Markov em tempo discreto conveniente pensar que o processo faz
transies de estado nos tempos tn , n = 0, 1, 2, . . .. Esta cadeia comea em um estado
inicial i, quando t = t0 , isto , X0 = i e faz uma transio de estado no prximo passo,
X1 = j.

11.4.1

Probabilidades de transio em um passo e distribuio inicial

Definio 11.4.1: As probabilidades de transio em um passo so definidas por


(1)

pij = pij = P (Xn+1 = j | Xn = i), n, i, j = 0, 1, . . .


e geralmente dependem de n.
Cadeias de Markov cujas probabilidades de transio no dependem de n so ditas como
tendo probabilidades de transio estacionrias ou que so homogneas no tempo,
e neste caso,
P (Xn+1 = j | Xn = i) = P (X1 = j | X0 = i), n 1.
Campos, Rgo & Mendona

11.4. CADEIAS DE MARKOV

252

As probabilidades de transio em um passo podem ser exibidas na forma de uma matriz


quadrada chamada matriz de probabilidades de transio, P , da cadeia, como a seguir

p00 p01 p02 . . .


p10 p11 p12 . . .

.
.
.
.
.
.
.
.
.
.
.
.
P =

pi0 pi1 pi2 . . .


... ... ... ...
Nesta matriz, as linhas correspondem aos estados do processo, isto , aos valores que as
variveis aleatrias, X0 , X1 , . . . assumem para cada t fixo, t = 0, t = 1, . . . portanto tem-se
que
pij 0, i, j = 0, 1, . . .
e

pij = 1, i = 0, 1, . . .

j=0

As probabilidades de transio de estado em um passo podem ser representadas por um


diagrama, chamado diagrama de transio de estados, como a seguir.
GRAFICO
(n)
Seja pi a probabilidade de que a cadeia de Markov discreta {Xn } esteja no estado i no
n-simo passo,
(n)
pi = P (Xn = i), i = 0, 1, . . . .
A distribuio de probabilidade inicial dos estados
(0)

pi = P (X0 = i), i = 0, 1, . . . .
Portanto,
(0)

0 pi 1
e

(0)

pi = 1.

i=0
(0)

pi comumente chamada de distribuio inicial da cadeia, ou, se representada na


(0) (0) (0)
forma de um vetor, (p0 , p1 , p2 , . . .), denomina-se vetor da distribuio inicial .
Exemplo 11.4.2: Seja uma sequncia de experimentos de Bernoulli onde a probabilidade
de sucesso em cada experimento 0 < p < 1 e a de falha q, onde p + q = 1. Seja o estado do
processo do processo na n-sima repetio do experimento como sendo o nmero de sucessos
ininterruptos at este instante. Ento, Xn o nmero de sucessos ininterruptos na n-sima
repetio do experimento e portanto o espao de estados e o espao de parmetro so ambos
{0, 1, . . .}. Uma possvel realizao do experimento SF SSF e, neste caso, n = 5, X0 = 1,
X1 = 0, X2 = 1, X3 = 2, X4 = 0.
Calculando algumas probabilidades de transio em um passo, pij = P (Xn+1 = j | Xn =
i):
Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

253

p00 = P (Xn+1 = 0 | Xn = 0) = P (X1 = 0 | X0 = 0)


= P (X2 = 0 | X1 = 0)
= P (X3 = 0 | X2 = 0) = . . . = q.

p01 = P (Xn+1 = 1 | Xn = 0) = P (X1 = 1 | X0 = 0)


= P (X2 = 1 | X1 = 0)
= P (X3 = 1 | X2 = 0) = . . . = p.

p10 = P (Xn+1 = 0 | Xn = 1) = P (X1 = 0 | X0 = 1)


= P (X2 = 0 | X1 = 1)
= P (X3 = 0 | X2 = 1) = . . . = q.

p11 = P (Xn+1 = 1 | Xn = 1) = P (X1 = 1 | X0 = 1)


= P (X2 = 1 | X1 = 1)
= P (X3 = 1 | X2 = 1) = . . . = 0.
A matriz de probabilidades de transio para este processo

q
p 0 0 ...
q
0 p 0 ...

P =
q
0 0 p ...
... ... ... ...
As probabilidades de transio independem de n, portanto tem-se uma cadeia de Markov
homognea no tempo.

11.4.2

Probabilidades de transio em n passos e distribuio de


Xn , n 1

Agora sero definidas as probabilidades de transio em n passos, ou seja, as probabilidades de que o processo estando no estado i no instante m estaro no estado j depois de n
transies, isto ,
(n)
pij = P (Xm+n = j|Xm = i)
para n 0 e i, j 0.
Quando n = 1, p(n) (i, j) = p(i, j). Usando a definio de probabilidade condicional e o
Teorema da probabilidade total6 , tem-se que
6

Resultados do Captulo 3

Campos, Rgo & Mendona

11.4. CADEIAS DE MARKOV

254

P (X2 = j, X0 = i)
P (X0 = i)
P
z P (X2 = j, X1 = z, X0 = i)
=
P (X0 = i)
P
z P (X0 = i)P (X1 = z | X0 = i)P (X2 = j | X1 = z)
=
P (X0 = i)
X
=
p(i, z)p(z, j).

p2ij = P (X2 = j | X0 = i) =

As equaes de Chapman-Kolmogorov servem como um mtodo para calcular as probabilidades de transio de n passos e so estabelecidas observando que
X
(m+n)
P (Xn = z | X0 = i)P (Xm+n = j | X0 = i, Xn = z)
= P (Xm+n = j|X0 = i) =
pij
z

(n)
piz P (Xm+n

= j | X0 = i, Xn = z)

(n) (m)

piz pzj .

Para uma cadeia de Markov tendo um nmero finito de estados, seja P (n) a matriz
de probabilidades de transio em n passos, ento, P (n+m) = P (n) P (m) , onde P (0) = I.
Portanto,
P (n) = P P (n1) = P P P (n2) = . . . = P n
e P (n) pode ser calculada multiplicando a matriz P por ela mesma n vezes.
Exemplo 11.4.3: Considere um sistema de comunicao que transmite os dgitos 0 e 1
atravs de vrios estgios. Em cada estgio, a probabilidade de que o mesmo dgito seja
recebido ou transmitido para prximo estgio 0.75. Qual a probabilidade de que um 0
que entrou no primeiro estgio seja recebido como 0 no quinto estgio?
Soluo. O objetivo calcular p400 . A matriz de probabilidades de transio e sua quarta
potncia so, respectivamente


0.75 0.25
P =
0.25 0.75


0.53125 0.46875
4
P =
0.46875 0.53125
(4)

Portanto, p00 = 0.53125.


A distribuio de Xn ,

(n)

pj

= P (Xn = j)

pode ser obtida de duas formas distintas:


Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

255

(i)
P (Xn = j) =

P (X0 = i, Xn = j)

P (X0 = i)P (Xn = j | X0 = i)

i
(0) (n)

pi pij .

Esta frmula calcula a distribuio de Xn em funo da distribuio inicial e das


probabilidades em n passos.
(ii)
P (Xn = j) =

P (Xn1 = i, Xn = j)

P (Xn1 = i)P (Xn = j | Xn1 = i)

(1)

P (Xn1 = i)pij

i
(n1) (1)
pij .

pi

11.4.3

Classificao dos estados e distribuies limite

Definio 11.4.4: Um estado i absorvente se e s se pii = 1.


Definio 11.4.5: Sejam i e j dois estados no necessariamente distintos. Diz-se que i
conduz a j ou j acessvel a partir de i se existe n 0 tal que p(n) (ij) > 0. Se todo estado
acessvel a partir de algum outro, a cadeia dita irredutvel.
Definio 11.4.6: Sejam i e j dois estados no necessariamente distintos. Se i j e
j i ento i e j so comunicantes, isto , i j. Neste caso, existem n, m 0 tais que
(n)
(m)
pij > 0 e pji > 0.
(n)

Definio 11.4.7 : O estado i peridico com perodo d > 0 se pii > 0 somente
para n = d, 2d, 3d, . . . onde d o maior inteiro que verifica a propriedade. Se d = 1, i
aperidico.
(n)

Definio 11.4.8: Para cada i seja fi a probabilidade de que o primeiro retorno ao


estado i ocorra exatamente em n passos (ou transies) depois de deixar i, isto ,
(n)

fi

= P (Xn = i, Xk 6= i k = 1, . . . , n 1 | X0 = i)

e
(0)

fi

= 1, i.
Campos, Rgo & Mendona

11.4. CADEIAS DE MARKOV

256

Seja fi a probabilidade de retorno ao estado i, logo


fi =

(n)

fi .

n=1

Se
fi < 1, i um estado transiente,
Se
fi = 1, i um estado recorrente.
Se i recorrente, o tempo mdio de recorrncia a i
i =

(n)

nfi .

n=1

Se
i = , i nulo recorrente,
Se
i < , i recorrente positivo, ou recorrente no-nulo.
Definio 11.4.9: Uma cadeia de Markov discreta dita como tendo uma distribuio de
probabilidade estacionria,
p = (p1 , p2 , . . .)
P
onde pi 0 e i pi = 1, se a equao matricial
p = pP
satisfeita.
A equao matricial p = pP pode ser escrita como o sistema de equaes lineares
X
pj =
pj pij , j = 0, 1, . . .
i

Definio 11.4.10: Uma cadeia de Markov tem distribuio de probabilidade limite


p = (p1 , p2 , . . .)
se
(n)

lim pj

= lim P (Xn = j) = pj , j = 0, 1, . . .
n

Definio 11.4.11: Uma cadeia de Markov discreta, irredutvel, aperidica e onde todos
os estados sejam recorrentes positivos denominada de ergdica.
Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

257

Para uma cadeia de Markov ergdica a distribuio de probabilidade estacioria e a


distribuio limite so iguais, sendo chamadas distribuies de equilbrio ou estveis.
Exemplo 11.4.12: No Exemplo 11.4.3 visto, como a cadeia de Markov irredutvel e
aperidica tambm ergdica. Portanto, ser calculada a distribuio de probabilidade de
equilbrio.
X
pi = 1,
i

pj =

pi Pij , j = 0, 1, . . .

Logo,

= 1
p0 + p1
p0 = 0.75p0 + 0.25p1

p1 = 0.25p0 + 0.75p1
A soluo deste sistema p0 = p1 = 0.5. A interpretao do resultado obtido que se os
dados passam atravs de muitos estgios, a sada independe da entrada original e cada dgito
recebido igualmente provavl de ser 0 ou 1.
Exemplo 11.4.13: Todo ano um homem troca seu carro por um carro novo. Se tem um
Palio ele o troca por um Gol. Se tem um Gol ele o troca por um sedan. Contudo, se tem
um sedan, to provvel que o troque por um novo sedan quanto por um Palio ou Gol. Em
2005 ele comprou seu primeiro carro, que foi um sedan. Calcule a probabilidade de que
(a) tenha um sedan em 2007;
(b) tenha um Palio em 2007;
(c) tenha um Gol em 2008;
(d) aps um nmero suficientemente grande de anos, com que frequncia ter tido um
sedan?
Soluo. O espao de estados
= {Palio, Gol, sedan}.
O espao de parmetros
T = {0, 1, 2, . . .}
O vetor de probabilidades iniciais
p(0) = (0, 0, 1).
A matriz de probabilidades de transio

0 1 0
P = 0 0 1
1
3

1
3

1
3

Campos, Rgo & Mendona

11.4. CADEIAS DE MARKOV

258
1 4 4
p(2) = p(0) P 2 = ( , , ).
9 9 9

(2)

(a) p3 = 49 .
(2)

(b) p1 = 19 .
(3)

4 7 18
, 27 , 27 ). Logo, p2 =
(c) p(3) = p(2) P = ( 27

7
.
27

(d) Encontrando o vetor fixo de probabilidades:


1 2 3
(x, y, z)P = (x, y, z) (x, y, z) = ( , , ).
6 6 6
Logo, 50% das vezes ter tido um sedan.

Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

11.5

259

Exerccios

11.1 Nas observaes feitas por Rutherford e Geiger, uma substncia radioativa emitia uma
mdia de 3.87 partculas durante 7.5 segundos.
(a) Qual a probabilidade de que a substncia emita pelo menos uma partcula por
segundo?
(b) Neste caso, isto , considerando o nmero de partculas emitidas por segundo,
escreva a expresso da densidade da varivel aleatria correspondente ao tempo
entre chegadas.
11.2 (a) Determine a distribuio de probabilidade do intervalo de tempo entre chegadas
sucessivas, T , num processo de Poisson de parmetro t. Sugesto: {T < t}
{Xt > 0}.
(b) Considere um sistema computacional onde o fluxo de chegadas de um especiffico
programa por hora, Xt , segue um processo de Poisson com taxa mdia de 60 jobs.
Determine a probabilidade de que o intervalo de tempo entre jobs sucessivos seja
menor que 8 minutos.
11.3 Prove que a distribuio dos intervalos de tempo entre sucessivos eventos num processo
de Poisson com intensidade , uma exponencial com parmetro .
11.4 A r D descansa sobre o vrtice A de um tringulo ABC. A cada minuto a r salta
do vrtice em que est para um vrtice adjacente com probabilidade p (0, 1) do salto
ser no sentido horrio e 1 p do salto ser no sentido anti-horrio. Modele o problema
por uma Cadeia de Markov.
(a) Especifique o espao de estados, E.
(b) Especifique o espao de parmetro, T .
(c) Especifique a matriz de probabilidade de transio, P .
(d) A distribuio de probabilidade inicial, p(0) .
(e) Verifique (fcil e rapidamente) que P regular.
(f ) Encontre a distribuio de probabilidade estacionria da cadeia.
(g) Considere que o tringulo equiltero e atribua um valor numrico conveniente
para p. No terceiro minuto, com que probabilidade a r D poder estar em cada
um dos vrtices do tringulo ABC? Especifique claramente sua resposta.
11.5 Trs crianas A, B e C esto arremessando uma bola uma para a outra. A sempre
arremessa a bola para B e B sempre arremessa a bola para C. to provvel que C
lance a bola para B quanto para A. Seja Xn , n = 1 . . . n a nsima pessoa a arremessar
a bola.
(a) Especifique o espao de estados do processo.
(b) Especifique a matriz de probabilidades de transio, M .
Campos, Rgo & Mendona

11.5. EXERCCIOS

260

(c) Esboe o diagrama de transio de estados.


(d) Considerando M , M 2 e M 3 , voc diria que M regular? Justifique sua resposta.
(e) Determine o nico vetor fixo de probabilidades. Interprete o resultado.
11.6 Os hbitos de estudo de um estudante so os seguintes: se estuda uma noite, tem 70%
de certeza que no estudar na noite seguinte; em contrapartida, se no estuda uma
noite, tem 60% de certeza de que no estudar tambm na noite seguinte. Com que
freqncia ele estuda numa seqncia suficientemente grande de dias?
11.7 Suponha que o estado social, ou financeiro, de uma pessoa possa ser classificado como
de classe baixa, denotado por 1, de classe mdia, denotado por 2 ou de classe alta,
denotado por 3. Admite-se que a classe de um indivduo depende apenas da classe do
seu predecessor imediato. Seja a matriz de probabilidades de transio dada por

0.6 0.3 0.1


P = 0.1 0.8 0.1
0.1 0.2 0.7
e, que, em dada gerao inicial, o percentual de indivduos nas classes 1, 2 e 3 ,
respectivamente, 40%, 50% e 10%.
(a) Se um indivduo da classe mdia, qual a probabilidade de que seu neto venha
a ser da classe alta?
(b) Quais as percentagens de indivduos em cada classe daqui a trs geraes?
(c) Encontre a distribuio de equilbrio da cadeia e a interprete.
11.8 Suponha que determinado produto seja fabricado pelas companhias A e B. Presentemente a companhia A desfruta de 75% do mercado e a B dos 25% restante. Uma
pesquisa realizada revelou que, de uma ano para outro, 15% dos consumidores da companhia A passam a consumir o produto da companhia B e 10% dos consumidores da
companhia B, passam-se para a companhia A. Sabe-se que, dada a companhia com que
o consumidor comercia atualmente, a companhia com que ele estar comerciando no
ano seguinte ser independente das companhias com as quais comerciou no passado.
(a) Especifique os espaos de estados e de parmetro da cadeia.
(b) Especifique a matriz de probabilidades de transio de probabilidades, P .
(c) Especifique a distribuio de probabilidade inicial da cadeia.
(d) Que percentagem do mercado caber companhia B daqui a 4 anos?
(e) P regular? P tem algum estado absorvente? Justifique sua resposta.
(f ) Sendo possvel, justifique a razo, determine a distribuio de equilbrio da cadeia
de Markov. Interprete, com o mnimo de palavras possvel, o resultado obtido.
11.9 Uma dada impressora tem, sistematicamente, apresentado uma das seguintes situaes:
Campos, Rgo & Mendona

CAPTULO 11. INTRODUO AOS PROCESSOS ESTOCSTICOS

261

c: est funcionando corretamente;


d: est apresentando algum tipo de defeito;
n: no est funcionando.
O pessoal do suporte decide observ-la todos os dias s 8:00. No dia inicial do comeo das observaes a impressora est funcionando corretamente. A experincia tem
mostrado que o funcionamento da impressora pode ser modelado por uma cadeia de
Markov com a seguinte matriz de probabilidades de transio:

0.3 0.5 0.2


0 0.2 0.8
0
0
1
(a) Esta matriz apresenta algum estado absorvente? Se sim, qual, justificando sua
resposta.
(b) Como sero as probabilidades de transio no terceiro dia de observao? Qual o
(3)
valor de pcn ?
(c) No terceiro dia de observao, qual o estado mais provvel da impressora?
(d) Seria possvel estudar o comportamento desta impressora aps um nmero grande
de dias de observao? Justifique sua resposta.
11.10 Seja

a1 b 1 c 1
A = a2 b 2 0
1 0 0
uma matriz estocstica e u = (u1 , u2 , u3 ) um vetor de probabilidade.
(a) Mostre que uA tambm um vetor de probabilidade.
(b) Suponha que u seja um vetor fixo de probabilidade. Mostre que ku, k > 0 tambm
um vetor fixo de probabilidade..
11.11 O territrio de um vendedor constitudo de trs cidades, A, B e C. Ele nunca vende
na mesma cidade em dias consecutivos. Se vende na cidade A, no dia seguinte vende
na cidade B. Contudo, se vende na B ou em C, ento no dia seguinte duas vezes mais
provvel que ele venda em A do que na outra cidade.
(a) Especifique o espao de estados do processo.
(b) Especifique a matriz de probabilidade de transio M .
(c) Esta cadeia tem algum estado absorvente?
(d) Aps um nmero sufucientemente grande de dias, com que freqncia ele vende
em cada uma das cidades?

Campos, Rgo & Mendona

11.5. EXERCCIOS

262

Campos, Rgo & Mendona

Captulo 12
Anlise Exploratria de Dados
12.1

Tipos de Variveis

Quando necessrio analisar um conjunto de dados decorrentes da realizao de um experimento, ou da observao do mundo real, comum a aplicao de um conjunto de tcnicas que
servem como um indicativo de qual procedimento deve ser adotado. Estas tcnicas quando
corretamente aplicadas e interpretadas fornecem valioso suporte para a tomada de decises
quer com respeito aos dados em si, quer com respeito a qual mtodo de inferncia aplicar.
Nem todas as variveis so numricas ou quantitativas, como as que foram estudadas
nos captulos anteriores, pode-se ter uma varivel no numrica ou qualitativa como, por
exemplo, modelos distintos de sistemas operacionais, ou distintos paradigmas de liguagens
de programao, ou diferentes classes da populao com respeito ao nmero de salrios
mnimos ganhos. As variveis quantitativas podem ser discretas ou contnuas, enquanto as
qualitativas podem ser classificadas como nominais ou ordinais, dependendo se existe ou no
uma ordem natural em seus possveis resultados. Por exemplo, o tipo de sistema operacional
uma varivel qualitativa nominal, enquanto a classe da populao com respeito ao nmero
de salrios mnimos ganhos uma varivel qualitativa ordinal.
Um outro possvel critrio para classificar variveis em funo da escala de medida
adotada para se analisar o resultado do experimento. As escalas de medidas podem ser:
nominais, ordinais, intervalares, e de razo.
Uma escala nominal utilizada para classificar os resultados de um experimento, por
exemplo, se dado equipamento falhou ou no durante o perodo de estudo, a marca e o
modelo do equipamento em questo.
Uma escala ordinal alm de classificar os resultados tambm pode ser utilizada para estabelecer uma ordem entre as diferentes classes de possveis resultados, por exemplo, grau
de escolaridade de um indivduo, classe socio-econmica de um indivduo, posio que um
indivduo conclui uma certa corrida. A estrutura da escala ordinal no alterada por transformaes estritamente monotnicas.
Uma escala intervalar pode ser utilizada para alm de classificar e ordenar os resultados
tambm quantificar diferena entre as classes. Nesta escala necessrio estabelecer uma
origem arbitrria e uma unidade de medida. Por exemplo, a temperatura de um dado
equipamento em funcionamento medida em graus centgrados constitui uma medida numa
263

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

264

escala intervalar. Considere o caso em que tem-se trs equipamentos E1, E2, e E3, operando
em temperaturas de 40, 45 e 80 graus centgrados, respectivamente; vlido afirmar que a
diferena de temperatura entre E3 e E2 7 vezes maior que a diferena de temperatura entre
E2 e E1. Contudo, nesta escala no faz sentido afirmar que E3 tem uma temperatura 2 vezes
maior que E1, pois a origem e a unidade de graus centgrados escolhidas so arbitrrias, se
a temperatura estivesse sendo medida em graus Fahrenheits no se observaria esta relao.
Uma escala de razo podem ser utilizada para alm de classificar e ordenar os resultados
tambm estabelecer quo maior um resultado que outro. A diferena com a escala intervalar
que agora existe um zero bem definido neste escala. A altura de um indivduo, o tempo
at ocorrncia de um dado evento, o nmero de ocorrncias de certo evento em um dado
intervalo de tempo so exemplos de medidas que utilizam uma escala de razo. No caso de
dois equipamentos E1 e E2 com tempo de vida til de 100h e 200h, respectivamente, vlido
afirmar que o tempo de vida til de E2 o dobro do tempo de vida til de E1.

12.2

Anlise preliminar de um conjunto de observaes

O que ser visto a seguir como proceder uma anlise preliminar em um conjunto de dados.

12.2.1

Representaes Grficas

Quando se procede uma anlise em um conjunto de dados resultantes de variveis quantitativas ou qualitativas o que inicialmente feito um grfico. Existem vrios tipos de grficos,
sendo os mais comumentes encontrados: barras, colunas, setores, pictograma, gantt, kiviat,
linhas, histograma, box-plot e q-q plot. O tipo de grfico a ser usado depende do tipo de
varivel do problema, se qualitativa ou quantitativa.
Para representar a distribuio dos dados de uma varivel qualitativa, os dois grficos
mais utilizados so: o grfico de barras e o grfico de setores ou pizza. Esses grficos consideram que o conjunto de dados pode ser particionado em classes.
O grfico de barras consiste em construir retngulos ou barras paralelas, uma para cada
classe, em que uma das dimenses proporcional frequncia de ocorrncia ou representatividade desta classe, e a outra dimenso arbitrria porm igual para todas as barras. As
barras podem ser horizontais ou verticais.
O grfico de setores ou pizza consiste de um crculo de raio arbitrrio, representando a
totalidade dos dados, dividido em fatias sendo que cada fatia corresponde a uma classe e
tem rea proporcional representatividade desta classe nos dados.
Para uma varivel quantitativa discreta tambm utiliza-se um grfico de barras como no
caso de variveis quantitativas, onde agora tem-se uma barra para cada possvel valor que a
varivel pode assumir. Tambm considera-se um grfico de disperso unidimensional onde
desenha-se apenas pontos no plano cartesiano da forma (xi , ni ), isto , onde a abscissa do
ponto um possvel valor da varivel e a ordenada a frequncia de ocorrncia deste valor.
Uma outra alternativa de grfico para varivel quantitativa que muito til no caso de
variveis contnuas o histograma.
Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

265

Para a construo de um histograma, o primeiro passo definir os intervalos contguos e


disjuntos que cubram todos os resultados observados. Uma vez definidos os intervalos, um
histograma nada mais do que um grfico de barras contguas. Como uma representao
grfica, a priori no necessrio rigor na construo dos retngulos, entretanto se o for a base
proporcional ao comprimento do intervalo e a rea da barra proporcional ao nmero de
dados neste dado intervalo. Logo, se o i-simo intervalo tem comprimento i e a frequncia
relativa de ocorrncia de resultados neste intervalo fi , ento a altura da barra deve ser
proporcional a fi /i , que chamada de densidade de frequncia da i-sima classe. Com essa
conveno a rea total do histograma proporcional a 1.

12.2.2

Sumarizando Observaes

Considere a TabelarefTabelaDados que contm informaes sobre empregados de uma companhia.

Tabela 12.1: Dados sobre empregados de uma companhia.


No.
1
2
3
4
5
6
7
8
9
10

Estado Civil
S
C
C
C
S
C
S
C
C
S

Grau de Instruo
Mdio
Superior
Fundamental
Fundamental
Mdio
Mdio
Superior
Mdio
Mdio
Mdio

No. de Filhos
0
2
1
3
1
2
3
4
0
1

Salrio
3
5
4
5.5
7.3
3.5
10
6
2
3.7

Idade
34
25
46
32
23
39
50
47
21
33

Sexo
F
M
M
M
F
M
M
M
F
M

Uma maneira til de se descrever os resultados das variveis atravs da frequncia


(absoluta), frequncia relativa (proporo) e porcentagem. Por exemplo, considerarando a
varivel Grau de Instruo na Tabela 12.1. A frequncia de uma dada classe o nmero de
vezes que determinada classe ocorreu nos resultados do experimento. A frequncia relativa
a proporo de vezes que dada classe ocorreu em relao ao nmero total de indivuos que
participaram do experimento. A porcentagem igual a 100 vezes a frequncia relativa. A
Tabela 12.2 conhecida como tabela de frequncia para a varivel Grau de Instruo.

Quando o objetivo for comparar esta varivel Grau de Instruo entre diferentes empresas,
deve-se usar ou a frequncia relativa ou a porcentagem, pois possuem o mesmo total para
qualquer empresa, enquanto o nmero total de empregados varia de empresa para empresa.
Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

266

Tabela 12.2: Tabela de Frequncias.


Grau de Instruo Frequncia (ni )
Fundamental
2
Mdio
6
Superior
2
Total
10

Frequncia Relativa (fi ) Porcentagem 100fi


0.2
20
0.6
60
0.2
20
1
100

Em geral, quando uma tabela de frequncia construda o objetivo resumir os resultados no que diz respeito a uma dada classe. No caso de uma varivel quantitativa, se faz
necessrio que dividam-se em intervalos os possveis resultados do experimento para esta
varivel, pois caso contrrio pode acontecer que cada resultado ocorra somente um nmero
pequeno de vezes e no se possa resumir a informao a respeito da dada varivel. Esta
situao ocorre frequentemente no caso de variveis que assumem valores reais. No exemplo
anterior, suponha que se deseje construir uma tabela de frequncia para a varivel Salrio.
Neste caso, pode-se considerar intervalos de tamanho 3 para construir a seguinte tabela:

Tabela 12.3: Tabela de frequncias para varivel quantitativa.


Salrio Frequncia (ni )
[0, 3)
1
[3, 6)
6
[6, 9)
2
[9, 12)
1
Total
10

Frequncia Relativa (fi ) Porcentagem 100fi


0.1
10
0.6
60
0.2
20
0.1
10
1
100

A escolha dos intervalos acima arbitrria, dependendo do contexto cada profissional


pode escolher um conjunto diferente de intervalos. A nica restrio que tal escolha deve
satisfazer que estes intervalo sejam disjuntos e que cubram todos os valores que foram
obtidos pela varivel no experimento. Se forem escolhidos poucos intervalos, perde-se informao, pois note que a Tabela 12.3 s afirma que 6 pessoas tm salrio entre 3 e 6 salrios
mnimos sem especificar qual o salrio exato deles. Por outro lado, se muitos intervalos so
escolhidos, ento a inteno de resumir os resultados do experimento no cumprida. Em
geral, recomenda-se o uso de 5 a 15 intervalos de comprimentos iguais.
Um lembrete: a Estatstica mais velha que o computador digital. O significado desta
declarao que os estatticos do passado desenvolveram frmulas fantsticas para calcular
indicadores quando nem de calculadoras dispunham. Portanto, os indicadores estatsticos
vistos a seguir podem ser computados ou sem o uso de computadores ou com o uso de
Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

267

computadores, isto , ou so usadas frmulas j completamente exauridas na literatura, ou


quase nenhuma frmula usada.
Cenrio: seja um conjunto de dados, ou observaes,
x1 , x2 , , xn
que podem ser de uma populao, ou amostra, ou mais de um conjunto de dados, de uma
varivel quantitativa, discreta ou contnua. O objetivo, usualmente, decidir algo a partir
dos dados considerados.
Problema: Sumarizar informaes sobre o conjunto de dados.
As medidas ou os indicadores estatsticos mais comumente usados so
x) e moda
(i) as medidas de tendncia central ou posio: mdia aritmtica (x) , mediana (
(
x);
(ii) as medidas de disperso: amplitude (r), varincia ( 2 ), desvio padro () e coeficiente
de variao (cov);
(iii) as separatrizes ou quantis:
quartis,
1 2 3
q(p), p = , , ,
4 4 4
decis,
q(p), p =

1 2
9
, , , ,
10 10
10

centis ou percentis,
q(p), p =

2
99
1
,
, ,
.
100 100
100

A mdia aritmtica de uma varivel a soma dos seus valores divididos pelo nmero total
de resultados obtidos.
A moda de uma varivel definida como sendo o seu resultado que ocorreu com maior
frequncia durante o experimento. A moda no necessariamente nica. Se houver empate
entre a frequncia de ocorrncia de mais de dois possveis resultados, ento todos sero moda
da varivel em questo. A moda no necessariamente numrica, por exemplo, se a varivel
em questo for grau de instruo na populao brasileira, a moda onde tem uma maior
concentrao de indivduos. Tambm uma varivel pode no ter moda, o que acontece se
no houver valores que se repitam.
A mediana o resultado que ocupa a posio central de uma srie de observaes, quando
estas esto ordenadas. Portanto, metade dos valores so menores e metade so maiores que
5
a mediana. Note que a mediana tambm uma separatriz, corresponde a q( 42 ) = q( 10
)=
50
q( 100 ). Quando o nmero de observaes for par a mediana a mdia aritmtica entre as
duas observaes centrais.
A presena de valores ou muito pequenos ou muito grandes alteram sua mdia e no
alteram a mediana. Portanto, a mediana muitas vezes usada para representar uma medida
central de um conjunto de observaes.
Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

268

As medidas de posio vistas informam sobre a posio central dos resultados mas no
sobre sua variabilidade. Para tanto so necessrias as medidas de disperso. Por exemplo,
considere dois grupos de resultados de uma certa varivel: Grupo 1 = {3, 4, 5, 6, 7} e Grupo 2
= {1, 3, 5, 7, 9}. Ambos os grupos possuem a mesma mdia e mediana que igual a 5, porm
os resultados do Grupo 1 esto mais aglutinados ao redor deste valor. Medidas de disperso
so utilizadas para mensurar esta variabilidade. Estas medidas analisam quo distante da
mdia esto os resultados. Para uma varivel, a medida de disperso mais usada o desvio
padro, e para mais de uma varivel, o coeficiente de variao.
Apenas as medidas de posio e de disperso no informam a respeito da simetria ou
assimetria da distribuio dos resultados. Os quantis ou separatrizes so medidas que servem
para informar a este respeito.
Um quantil de ordem p ou p-quantil, indicado por q(p), onde p uma proporo qualquer, 0 < p < 1, e tal que 100p% dos resultados sejam menores que q(p). Existem alguns
quantis que so usados mais frequentemente e recebem nomes particulares: q(0.25) o 1o.
quartil ou 25o. percentil; q(0.5) a mediana, 5o. decil, ou 50o. percentil; q(0.75) o terceiro
quartil ou 75o. percentil; q(0.95) o 95o. percentil.
Uma medida de disperso a distncia interquartil, dq , definida como sendo a diferena
entre o terceiro e o primeiro quartil, isto , dq = q(0.75) q(0.25).
Os cinco valores x(1) , q(0.25), q(0.5), q(0.75), e x(n) so importantes para se ter uma idia
a respeito da assimetria da distribuio dos dados. Para se ter uma distribuio aproximadamente simtrica, preciso que:
(a) q(0.5) x(1) ' x(n) q(0.5);
(b) q(0.5) q(0.25) ' q(0.75) q(0.5);
(c) q(0.25) x(1) ' x(n) q(0.75).
A questo que se coloca agora se os dados sero ou no agrupados. At antes do
computador, dependendo da quantidade de dados, agrup-los nas chamadas distribuies
de frequncias era inevitvel. Depois do computador, agrupar os dados s se for necessrio
observar algum tipo de padro de comportamento funcional deles. A seguir ser visto como
calcular os indicadores estatsticos referenciados anteriormente, para dados agrupados e no
agrupados. Neste livro as frmulas para dados agrupados no sero provadas, uma vez que
as mesmas encontram-se em vrios dos textos bsicos sobre o assunto.

12.2.3

Dados agrupados

Se os dados esto agrupados ento esto dispostos numa tabela como a Tabela 12.4, a qual
tem k classes com respectivas frequncias absolutas ni , i = 1, , k, limites inferiores li e
superiores Li . Usualmente o limite superior da classe i igual ao inferior da classe i + 1, isto
, L1 = l2 , L2 = l3 , etc.

Medidas de Tendncia Central


Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

269

Tabela 12.4: Tabela de frequncias para dados agrupados.

Classes
l1 ` L1
l2 ` L2
l3 ` L3

lk ` Lk
Total

ni
n1
n2
n3

nk
n

Mdia aritmtica, x
k

x1 n1 + . . . + xk nk
1X
x=
=
xi n i ,
n1 + . . . + nk
n i=1
i
.
onde xi = li +L
2
Mediana, x
A mediana o valor que divide o conjunto de dados em duas partes iguais, isto , 50%
so menores ou iguais que x e 50% so maiores ou iguais que x. A mediana no nica; seu
clculo implica no clculo das frequncias acumuladas F ci . Neste caso tem-se:

Frequncias acumuladas
Classes
l1 ` L1
l2 ` L2
l3 ` L3

lk ` Lk
Total

ni
n1
n2
n3

nk
n

F ci
n1
n1 + n2
n1 + n2 + n3

n1 + n2 + nk
-

A frmula da mediana a seguinte.


n

x = li + ( 2

F ci1
)(Li li ),
ni

onde,
Li , limite superior da classe da mediana,
li , limite inferior da classe da mediana,
ni , frequncia absoluta da classe da mediana,
F ci1 , somatrio das frequncis anteriores classe da mediana.
Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

270

Moda, x
A moda o valor que mais se repete, portanto est associado classe de maior frequncia
absoluta. Uma distribuio pode ter mais de uma moda.
x = li + (

1
)(Li li ),
1 + 2

onde,
Li , limite superior da classe modal,
li , limite inferior da classe modal,
1 = ni ni1 ,
2 = ni ni+1 ,

sendo ni a frequncia absoluta da classe modal.


Medidas de Disperso
Amplitude, r
r = x(n) x(1) ,
onde x(1) e x(n) so, respectivamente, o menor e o maior valor do conjunto de observaes.
Varincia, 2
k

1X 2
1X
(xi x)2 ni =
x (x)2 ,
=
n i=1
n i=1 i
2

i
sendo xi = li +L
.
2
Desvio padro,

= + 2.
Coeficiente de variao, cov
cov =

.
x

Separatrizes
A frmula da mediana, com as devidas modificaes, pode ser usada para calcular qualquer separatriz: mediana, quantis, decis e centis (ou percentis).
O clculo de qualquer quantil pode ser realizado atravs de uma modificao no numerador da frmula da mediana da seguinte maneira. O termo n2 pode ser lido como 12 n; essa
frao indica qual a classe da mediana atravs da observao da frequncia acumulada. Portanto, para o i-simo quartil, i = 1, , 3, j-simo decil, j = 1, , 9 ou k-simo centil,
j
k
n e 100
n.
k = 1, , 99 tem-se, respectivamente, 4i n, 10
Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

12.2.4

271

Dados no-agrupados
Medidas de Tendncia Central

Mdia aritmtica, x
n

1X
x1 + . . . + xn
=
xi .
x=
n
n i=1
Mediana, x
Algoritmo:
(i) ordenar os dados:
x(1) , x(2) , , x(n)
(ii) calcular o termo central:

x =

x( n+1
2 )

se n mpar,

x( n ) +x( n +1)
2

, se n par.

Moda, x
Se os dados no esto agrupados, o valor modal o que ocorre mais vezes, se mais de um
valor ocorre com igual frequncia, ambos so modas.
Medidas de Disperso
Varincia, 2
2

Pn

i=1 (xi

x)2

1X 2
x (x)2 .
n i=1 i

Desvio padro,

= + 2.
Coeficiente de variao, cov
cov =

.
x

Separatrizes
Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

272

Seja x(1) x(2) x(n) uma ordenao dos resultados em ordem crescente, conhecida
como estatstica de ordem dos resultados. Ento, em analogia com a definio da mediana,
o quantil q(1/n) definido como sendo a mdia aritmtica entre x(1) e x(2) , de modo que
exatamente 100/n% dos resultados so menores que q(1/n). Similarmente, o quantil q(2/n)
definido como sendo a mdia aritmtica entre x(2) e x(3) . Mas, como q(1/n) x(2) q(2/n),
o resultado x(2) deve corresponder a um quantil q(p), onde n1 < p < n2 . Para a definio
formal dos quantis assume-se linearidade entre os quantis da forma q(m/n), para m n.
1
2
+n
3
n
,
x

igual
ao
quantil
q(
) = q( 2n
). Em geral, seguindo o
Ento, como x(2) = q(1/n)+q(2/n)
(2)
2
2
i1

+i

mesmo argumento, x(i) igual ao quantil q( n 2 n ) = q( 2i1


) = q( i0,5
), para i = 1, 2, . . . , n.
2n
n
1
Contudo, dependendo do valor de p, preciso cuidado ao definir o quantil. Se p < 2n
,
1
como x(1) o menor valor observado dos resultados e igual ao quantil q( 2n ), define-se q(p)
como sendo igual a x(1) . Similarmente, se p > 2n1
, como x(n) o maior valor observado dos
2n
n0,5
resultados e igual ao quantil q( n ), define-se q(p) como sendo igual a x(n) . Finalmente,
se p = 2(i1)1
+ (1 ) 2i1
, onde 0 < < 1, ento define-se q(p) como sendo igual a
2n
2n
x(i1) + (1 )x(i) .
Resumindo:

1
,
x(1) ,
se p < 2n

x ,
2n1
se p > 2n ,
(n)
q(p) =
x
,
se
p = 2i1
,

(i)
2n

2(i1)1
x(i1) + (1 )x(i) , se p = 2n + (1 ) 2i1
, onde 0 < < 1.
2n
Exemplo 12.2.1: Considere que os resultados de um teste foram: 3,4,5,6, e 7. Determinar
(a) q(0.05), (b) q(0.25), e (c) q(0.75).
1
, tem-se que q(0.05) = 3. Para (b), note que 0.25 =
Soluo: Para (a), como 0.05 < 10
(0.1)+(1)0.3, se = 1/4. Portanto, q(0.25) = (1/4)3+(3/4)4 = 15/4. Finalmente, para
(c), note que 0.75 = (0.7) + (1 )0.9, se = 3/4. Portanto, q(0.75) = (3/4)6 + (1/4)7 =
25/4.
Alternativamente, Jain (1991) prope que a frmula
(n 1) + 1
seja usada para calcular a posio da desejada separatriz, q(p). Como uma posio, ento
um inteiro positivo, portanto, o valor encontrado deve ser arredondado para o inteiro mais
prximo. Por exemplo, se n = 356 e deseja-se calcular C46 , isto , o quadragsimo sexto
centil, ento a posio de q(46) no conjunto de dados dada por:
46
= 163.3
100
cujo inteiro mais prximo 163. Portanto, q(46) est na centsima sexuagsima terceira
posio.
Uma das aplicaes interessantes de separatrizes aparece em determinadas Cartas de
Recomendao usualmente exigidas para ingresso de alunos em programas de ps-graduao.
Geralmente nestas cartas pedido que a pessoa que dar a referida carta de recomendao,
(356 1)

Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

273

o recomendante, classifique o candidato com respeito a sua aptido para realizar estudos
avanados e pesquisa dentre um total de n alunos dos ltimos k anos. Assim, o recomendante
deve escolher entre os 5% mais aptos ou 10% mais aptos ou 50% mais aptos, entre outros.
Estes valores correspondem respectivamente a q(0.95), q(0.90) e q(0.50).
Separatrizes tambm podem ser usadas para colocar conceitos de forma to justa quanto
possvel. Os conceitos geralmente so A (excelente), B (bom), C (razovel), D (inaceitvel).
Se o professor usar a classificao (9, 10], A, (8, 9], B, (7, 8], C e [0, 7] D para uma prova
(dificil!), onde nenhum aluno obteve nota maior que 8 ento os conceitos estariam entre C e D.
O professor pode usar um critrio subjetivo para atribuir os conceitos que amenize a situao.
Mas, o professor pode calcular separatrizes e colocar os conceitos justamente. Se q(0.99)
computado, este valor corresponde ao limite inferior dos 1% melhores, portanto, independe
de critrios subjetivos ou rtulos pr-estabelecidos. Ento, uma classificao indenpendente
do nvel da prova poderia ser: (q(0.99), 10], A; (q(0.95), q(0.99)], B; (q(0.80), q(0.95)], C;
[0, q(0.80)], D.
Exemplo 12.2.2: Analise os dados a seguir1 que correspondem aos tempos de CPU de
dado experimento. Utilize duas casas decimais e arredondamento simtrico2 .
3.1
3.9
3.4
3.2

4.2
2.7
3.3
4.1

2.8
4.1
2.8
5.1

5.1
3.6
4.5
3.2

2.8
3.1
4.9
3.9

4.4
4.5
5.3
4.8

5.6
3.8
1.9
5.9

3.9
2.9
4.2
4.2

Inicialmente os dados devem ser ordenados. A ordem usual a crescente.


1.9
3.2
3.9
4.5

2.7
3.2
3.9
4.8

2.8
3.3
4.1
4.9

2.8
3.4
4.1
5.1

2.8
3.6
4.2
5.1

2.9
3.7
4.2
5.3

3.1
3.8
4.4
5.6

3.1
3.9
4.5
5.9

DADOS AGRUPADOS
Frequncias para os tempos de CPU (ms)
Classes frequncias
1.4 ` 2.4
1
2.4 ` 3.4
10
3.4 ` 4.4
11
4.4 ` 5.4
8
5.4 ` 6.4
2
Total
32
1
2

Jain (Jain, 1991), pgina 195.


Isto , o sistema de ponto-flutuante F (10, 2, e1 , e2 ).

Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

274

Utilizando as frmulas vistas anteriormente, tem-se:


124.8
= 3.9,
32
16 11
x = 3.4 +
1 = 3.85,
11
1
x = 3.4 + 1 = 3.65,
4
30
0.94,
2 =
32
0.97,
7
q(0.25) = 2.4 +
1 3.20,
10
9.6 1
3
1 3.26,
q( ) = 2.4 +
10
10
28.8 22
q(0.90) = 4.4 +
1 5.25.
8
x=

Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

275

Indicadores estatsticos para os tempos de CPU


(Clculos com dados agrupados)
Indicador
Mdia aritmtica
Mediana
Moda
Varincia
Desvio padro
1o. quartil
3o. decil
90o. percentil

Valor
3.90ms
3.85ms
3.65ms
0.94ms2
0.97ms
3.20ms
3.26ms
5.25ms

DADOS NO-AGRUPADOS
O clculo da mdia, moda, varincia, desvio padro e coeficiente de variao no necessitam que os dados estejam ordenados, mas as separatrizes, sim.
n

x=

1X
xi = 3.89,
n i=1

3.9 + 3.8
= 3.9,
2
x = 2.8, x = 3.9,
1
1
q(0.25) = x(8) + x(9) = 3.15 3.2,
2
2
7
3
q(0.9) = x(29) + x(30) = 5.16 5.2,
10
10
q(0.25) = x(9) = 3.2, (mtodo Jain)
x =

q(0.90) = x(29) = 5.1. (mtodo Jain)

Indicadores estatsticos para os tempos de CPU


(Clculos com dados no-agrupados)
Indicador
Mdia aritmtica
Mediana
Moda
1o. quartil
90o. percentil

Valor
3.89ms
3.90ms
2.80ms e 3.90ms
3.20ms ou 3.15ms
5.10ms ou 5.16ms
Campos, Rgo & Mendona

12.2. ANLISE PRELIMINAR DE UM CONJUNTO DE OBSERVAES

276

Exemplo 12.2.3 : O servio de atendimento ao consumidor de uma concessionria de


veculos recebe as reclamaes dos clientes. Tendo em vista a melhoria na qualidade do
atendimento foi anotado o nmero de reclamaes dirias nos ltimos 30 dias: 4, 5, 3, 4, 2,
6, 4, 1, 6, 5, 3, 4, 4, 5, 2, 3, 6, 5, 4, 2, 2, 3, 4, 3, 3, 2, 1, 1, 5, e 2.
(a) Faa uma tabela de frequncias desses dados.
(b) Determine o valor da mdia, moda, mediana, desvio padro, e do 1o. e 3o. quartis.
(c) Com base nos valores obtidos na letra (b), voc diria que a distribuio dos dados sim
trica?
Soluo: A tabela de frequncias dada por:

Tabela 12.5: Soluo.


No. de Reclamaes
1
2
3
4
5
6

Frequncia relativa
3/30
6/30
6/30
7/30
5/30
3/30

A mdia dos dados dada por:


x = (1 3/30) + (2 6/30) + (3 6/30) + (4 7/30) + (5 5/30) + (6 3/30) ' 3.47.
A moda igual a 4. A mediana dada por 3.5. A varincia dada por:
2 = (13/30)+(46/30)+(96/30)+(167/30)+(255/30)+(363/30)3.472 ' 2.16.
Logo, o desvio padro igual aproximadamente a 1.47. O primeiro quartil dado por
x(8) = 2, e o terceiro quartil dado por x(23) = 5. Com estes resultados observa-se que
(a) q(0.5) x(1) = 2.5 = x(n) q(0.5);
(b) q(0.5) q(0.25) = 1.5 = q(0.75) q(0.5);
(c) q(0.25) x(1) = x(n) q(0.75).
Logo, estes dados formam uma distribuio simtrica.
Campos, Rgo & Mendona

CAPTULO 12. ANLISE EXPLORATRIA DE DADOS

277

Tabela 12.6: Dura o de casamentos.


Anos de casamento No. de Divrcios
0`6
2800
1400
6 ` 12
12 ` 18
600
18 ` 24
150
24 ` 30
50

Exemplo 12.2.4: O nmero de divrcios na cidade, de acordo com a durao do casamento,


est representado na Tabela 12.6:
(a) Encontre o 1o. e o 9o. decis.
(b) Qual o intervalo interquartil?
Soluo:
(a)
500 0
6 = 1.07
2800
4500 4200
q(0.9) = 12 +
6 = 15
600
q(0.1) = 0 +

(b)
1250 0
6 = 2.68
2800
3750 2800
6 = 10.07
q(0.75) = 6 +
1400
Portanto, o intervalo interquartil [2.68, 10.07].
q(0.25) = 0 +

Campos, Rgo & Mendona

12.3. EXERCCIOS

12.3

278

Exerccios

12.1 Gere k sequncias de nmeros aleatrios cada uma de tamanho n e as ordene, usando
algoritmos de ordenao tais como o QuickSort, HeapSort e BubbleSort, entre outros.
Analise os k resultados encontrados para cada algoritmo. Note que a varivel de
interesse tempo de execuo para cada algoritmo.
12.2 Analise o nmero de e-mails que chegam diaramente, semanalmente ou mensalmente
a um servidor de determinada lista de discusso.
12.3 Foi construda uma distribuio de frequncias com intervalos de classes de iguais amplitudes, sendo esta igual a 4, para 40 observaes de peso de estudantes universitrios,
como na Tabela 12.7. Complete os valores que faltam.
Tabela 12.7: Distribuio de frequncias para o peso de 40 estudantes universitrios.
Classes

ni
8

fi

F ci

xi

26

53

0.175
5
35
0.100
Total

12.4 A Tabela 12.8 representa os salrios pagos a 200 operrios de uma dada empresa em
nmero de salrios mnimos. Complete-a e calcule o salrio mdio desses operrios.
Tabela 12.8: Nmero de salrios mnimos pagos a operrios.
Classes
`
`
`
`
`
Total

ni

F ci /200 xi
0.15
1
0.35
3
0.45
5
0.5
7
9

Campos, Rgo & Mendona

Captulo 13
Uma Introduo Inferncia Estatstica
Neste captulo sero abordados tpicos da Estatstica, isto , tpicos onde a suposio fundamental suportada por mtodos indutivos: uma amostra aleatria retirada da populao
e, a partir desta, com um erro probabilstico fixado, asseres so realizadas sobre a populao. Este um mtodo indutivo: do particular (amostra) induz-se para o geral (populao).
Na Probabilidade quando se resolve um problema sobre variveis aleatrias, por exemplo,
no se questiona qual o valor dos parmetros de uma densidade, frases usuais so: seja uma
Uniforme em (10,30), ou uma Exponencial de parmetro . O raciocnio probabilstico
abstrato e os mtodos probabilsticos dedutivos. Entretanto, Probabilidade e Estatstica se
complementam para resolver problemas do mundo fco quando, por exemplo, o objetivo descobrir qual a distribuio de um conjunto de observaes, ento mtodos estatstico entram
em cena para especificar, com determinado erro (probabilstico!), qual a melhor distribuio
para o conjunto de observaes.
Quando modelos probabilsticos so aplicados em algum problema prtico, preciso ter
informao a respeito da distribuio de probabilidade da varivel aleatria de interesse.
Existem dois processos clssicos para a obteno da distribuio de uma varivel aleatria:
eduzir uma distribuio a priori de um especialista da rea, ou inferir a distribuio a partir
de uma anlise de dados. Neste livro, no sero tratados mtodos de eduo, e sim mtodos
de inferncia.

13.1

Populao e Amostra

Suponha que o interesse de determinada pesquisa fosse a distribuio do consumo mensal


de energia eltrica de todos os domiclios brasileiros. Se fosse possvel obter os valores do
consumo para todos os domiclios, a distribuio exata poderia ser obtida e da calculados
parmetros de posio e disperso, por exemplo. Nesse caso, inferncia estatstica no seria
necessria pois seriam conhecidos todos os valores de interesse.
Porm, raro a situao em que se consegue obter a distribuio exata de alguma varivel, ou porque os custos so elevados, ou o tempo para a coleta de tais dados longo, ou
porque, s vezes, o experimento aleatrio que se realiza consiste de um processo destrutivo.
Por exemplo, medir a tenso mxima de entrada que um determinado tipo de estabilizador
suporta. O experimento poderia comear com uma tenso de 0 volts, ir aumentado grada279

13.1. POPULAO E AMOSTRA

280

tivamente at atingir a tenso mxima definida como sendo a tenso onde o estabilizador
queimou. Deste modo, se todos os estabilizadores fossem testados, no restaria nenhum para
ser vendido. Assim a soluo selecionar parte dos estabilizadores (amostra), analis-la e
inferir propriedades para todos os estabilizadores (populao). Esta questo, dentre outras,
objeto de estudo da rea de inferncia estatstica.
Definio 13.1.1: Populao o conjunto de todos os elementos ou resultados de interesse.
Definio 13.1.2 :
populao.

Amostra um subconjunto formado por elementos selecionados da

Frequentemente, usa-se um modelo probabilstico para uma populao. Por exemplo,


um cientista da computao pode considerar como normalmente distribuda, com mdia e
varincia 2 desconhecidas, a populao de tempos de execuo de determinado algoritmo;
tem-se ento uma populao normal ou uma populao distribuda normalmente. Como
outro exemplo, suponha que o interesse seja investigar se uma dada moeda honesta e para
isso uma moeda lanada 100 vezes. Neste caso, a populao pode ser considerada como
tendo a distribuio de uma varivel aleatria X que assume o valor 1, se ocorrer cara, e 0
em caso contrrio, que uma Bernoulli com parmetro p desconhecido. A amostra ser a
sequncia binria de comprimento 100. Nestes dois ltimos casos a populao foi especificada como sendo a distribuio de uma varivel aleatria X que modela a caracterstica de
interesse. Este mtodo exige a proposta de um modelo para a varivel X. So comuns as
expresses a populao f (x) ou a populao de tempos de execuo X N (, 2 ).

13.1.1

Seleo de uma Amostra

A fim de se ter inferncias realmente informativas a respeito de uma dada populao, precisase ter cuidado com os mtodos de seleo de uma amostra; necessrio que a amostra seja
representativa da populao. Por exemplo, ao se fazer uma pesquisa de opinio pblica a
respeito de um dado governo, se s escolhidas pessoas que vivem em uma regio beneficiada
por esse governo, a amostra pode no ser representativa de toda a populao, pois esta
contm pessoas que foram beneficiadas pelo governo, neste caso diz-se que a amostra
viesada.
Nesta seo visto apenas o caso de amostragem aleatria simples. Este procedimento
o mtodo mais simples de se selecionar uma amostra aleatria de uma populao e serve de
base para outros mtodos de amostragem mais complexos. No caso de uma populao finita,
implementa-se este mtodo numerando os elementos da populao e em seguida escolhendo
um nmero numa tabela de nmeros aleatrios ou gerando nmeros aleatrios em um computador. Neste caso, todos os elementos da populao tm a mesma probabilidade de serem
selecionados. Repete-se o processo n vezes. A amostragem com reposio, se um elemento
da populao puder ser escolhido mais de uma vez, e sem reposio, caso contrrio. Apesar
da amostragem sem reposio fornecer mais informao a respeito da populao em estudo,
a amostragem com reposio implica que cada elemento selecionado est sujeito ao mesmo
mecanismo probabilstico e de modo independente uns dos outros, o que facilita a anlise do
modelo. Por isso este livro restringe-se ao caso com reposio. Em geral, tem-se a seguinte
definio de amostra aleatria simples:
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

281

Definio 13.1.3: Dada uma populao descrita por uma varivel aleatria X, uma amostra aleatria simples de tamanho n um conjunto de n variveis aleatrias (X1 , X2 , . . . , Xn )
independentes e identicamente distribudas cada uma com a mesma distribuio de X.
Intuitivamente, Xi representa a observao do i-simo elemento sorteado. Portanto, no
caso de uma populao X contnua, com funo densidade de probabilidade f , a funo
densidade de probabilidade conjunta da amostra (X1 , X2 , . . . , Xn ), ser dada por:
fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) f (xn ).
Dependendo de como os nmeros aleatrios so gerados, so conhecidos tanto a distribuio da varivel aleatria sendo simulada quanto seus parmetros. Por exemplo, ao se gerar
50 nmeros de uma distribuio normal padro obtm-se uma amostra aleatria simples
de tamanho 50 desta populao normal. Se outra pessoa observa apenas estes 50 nmeros
gerados, ela nada conhece a respeito da distribuio que os gerou nem seus parmetros. O
objetivo da inferncia estatstica fornecer critrios para que se possa descobrir a forma da
distribuio ou os parmetros da populao que gerou a amostra sendo observada.

13.2

Estatsticas e Parmetros

Uma vez obtida a amostra de uma dada populao, muitas vezes o interesse calcular alguma
funo desta amostra. Por exemplo, a mdia da amostra (X1 , X2 , . . . , Xn ) dada por
X1 + X 2 + . . . + Xn
.
n
Como X uma funo de variveis aleatrias, tambm uma varivel aleatria.
X=

Definio 13.2.1: Uma estatstica T uma funo da amostra (X1 , X2 , . . . , Xn ).


As estatsticas mais comuns so:
P
(i) Mdia da amostra: X = (1/n) ni=1 Xi ;
Pn
1
2
(ii) Varincia da amostra: S 2 = n1
i=1 (Xi X) =
(iii) Proporo amostral: p =
interesse A.

IA (X1 )++IA (Xn )


,
n

Pn

1
(
n1

i=1

Xi2 nX );

onde IA a funo indicadora do evento de

(iii) O menor valor da amostra: X(1) = min(X1 , X2 , . . . , Xn );


(iv) O maior valor da amostra: X(n) = max(X1 , X2 , . . . , Xn );
(v) Amplitude amostral: W = X(n) X(1) ;
(vi) A i-sima maior observao da amostra: X(i) .1
1

Os elementos da amostra ordenados, isto , X(1) X(2) X(n) , so conhecidos como estatsticas
de ordem da amostra.

Campos, Rgo & Mendona

13.3. DISTRIBUIES AMOSTRAIS

282

Para diferenciar caractersticas da amostra de caractersticas da populao, chama-se de


parmetro uma medida usada para descrever uma caracterstica da populao. Assim se
uma populao for modelada por uma varivel aleatria X, a esperana e a varincia E(X)
e V (X), respectivamente, seriam parmetros.

13.3

Distribuies Amostrais

Suponha o interesse em algum parmetro da populao e que decide-se usar uma estatstica T de uma amostra aleatria simples (X1 , X2 , . . . , Xn ) da populao. Uma vez que a
amostragem realizada, pode-se calcular T = t0 e baseado neste valor que ser realizada
uma afirmao sobre . T sendo uma funo de variveis aleatrias tambm uma varivel
aleatria e, portanto, possui uma dada distribuio. Esta distribuio conhecida como
distribuio amostral da estatstica T .
Exemplo 13.3.1: Retiram-se com reposio todas as amostras de tamanho 2 da populao
{2, 3, 5, 7, 7}. Assim, o conjunto de todas as amostras de tamanho 2, com reposio, tm 25
elementos que so os pares (2, 2), (3, 5), entre outros. Estes pares vm do produto cartesiano
{2, 3, 5, 7, 7} {2, 3, 5, 7, 7}. A distribuio conjunta da amostra (X1 , X2 ) dada por:

2
3
5
7

2
1/25
1/25
1/25
2/25

3
1/25
1/25
1/25
2/25

5
1/25
1/25
1/25
2/25

7
2/25
2/25
2/25
4/25

Calculando a distribuio da mdia amostral, P (X = 3) = P (X1 = 3, X2 = 3) = 1/25.


Similarmente, os demais valores podem ser obtidos conforme a Tabela 13.1:
Tabela 13.1: Distribuio da mdia amostral.
x
P (X = x)

2
2.5
3
3.5
4
4.5
5
6
7
1/25 2/25 1/25 2/25 2/25 4/25 5/25 4/25 4/25

Exemplo 13.3.2: Considere o lanamento de uma moeda 100 vezes, usando como estatstica X o nmero de caras obtidas, a distribuio amostral desta estatstica uma binomial
com parmetros n = 100 e p, onde p a probabilidade de cara em um lanamento qualquer desta moeda. Se o objetivo for saber se esta moeda honesta, ou seja, se p = 0.5,
e sabe-se que em 100 lanamentos ocorreram 64 caras, calcula-se, por uma B(100, 0.5),
P0.5 (X 64) = 0.0018, ou seja, se a moeda for honesta, a probabilidade de se obterem 64
ou mais caras igual a 0.0018, ento existe evidncia que p deve ser diferente de 0.5. Por
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

283

outro lado, com 56 caras, obtm-se P0.5 (X 56) = 0.0867, portanto, se a moeda for honesta
aproximadamente 1/10 das vezes observa-se um valor maior ou igual a 56, ento, neste caso,
os dados no so suficientes para descartar a hiptese que a moeda seja honesta.
Exemplo 13.3.3: Uma populao consiste de quatro nmeros 1, 3, 5, e 7. Considere todas
as possveis amostras de tamanho 2 de elementos que podem ser selecionadas com reposio
desta populao. Determine.
(a) A mdia e varincia populacionais.
(b) A distribuio da mdia e varincia amostrais.
Soluo: A mdia populacional dada por = 1+3+5+7
= 4, e a varincia populacional por
4
12 +32 +52 +72
2
2
=
4 = 5. Para se determinar a mdia a varincia amostrais, considere a
4
Tabela 13.2 onde todas as possveis amostras esto enumeradas:
Tabela 13.2: Todas as possveis amostras.
x1
1
1
1
1
3
3
3
3
5
5
5
5
7
7
7
7

x2
1
3
5
7
1
3
5
7
1
3
5
7
1
3
5
7

x s2
1
0
2
2
3
8
4 18
2
2
3
0
4
2
5
8
3
8
4
2
5
0
6
2
4 18
5
8
6
2
7
0

Como cada uma das possveis amostras tem probabilidade 1/16, a distribuio da mdia
amostral e da varincia amostral so respectivamente descritas pelas Tabelas 13.3 e 13.4:
e
Para algumas estatsticas no possvel obter analiticamente sua distribuio amostral,
ento simula-se um nmero grande de amostras diferentes e calculam-se as estatsticas de
cada uma dessas amostras para obter uma distribuio amostral emprica da estatstica de
Campos, Rgo & Mendona

13.3. DISTRIBUIES AMOSTRAIS

284

Tabela 13.3: Distribuio da mdia Amostral


x
P (X = x)

1
2
3
4
5
6
7
1/16 2/16 3/16 4/16 3/16 2/16 1/16

Tabela 13.4: Distribuio da varincia Amostral.


s2
P (S 2 = s2 )

0
2
8
18
4/16 6/16 4/16 2/16

interesse. Por exemplo, para obter a mediana das temperaturas de amostras de 10 municpios
retiradas da populao X N (25, 25), pode-se gerar, via qualquer software, 1000 amostras
de tamanho 10 desta populao, determinar a mediana de cada uma dessas amostras e
calcular medidas de posio e disperso dos valores das medianas obtidos com essas amostras,
bem como representao grficas destes valores.

13.3.1

Distribuio da Mdia da Amostra, X

A seguir ser estudada a distribuio da mdia amostral X. Antes de se obter informaes


sobre a forma desta distribuio, pode-se determinar a esperana e a varincia de X.
Teorema 13.3.4: Seja X uma varivel aleatria com mdia , varincia 2 e
(X1 , X2 , . . . , Xn ) uma amostra aleatria simples de X. Ento,
E(X) = e V (X) =

2
.
n

Prova: Pela linearidade da esperana,


E(X) =

1
(E(X1 ) + E(X2 ) + + E(Xn )) = .
n

Como X1 , X2 , . . . , Xn so independentes,
V (X) =

1
2
(V
(X
)
+
V
(X
)
+

+
V
(X
))
=
.
1
2
n
n2
n

Conforme n cresce a distribuio de X tende a ficar concentrada em torno de sua mdia


, pois sua varincia vai diminuindo. Alm disso, o TCL, d informao sobre a distribuio
amostral da mdia para valores grandes de n.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

285

Teorema 13.3.5: Para amostras aleatrias simples (X1 , X2 , . . . , Xn ), retiradas de uma populao com mdia e varincia 2 finita, a distribuio amostral da mdia X aproxima-se,
para n grande, de uma distribuio normal, com mdia e varincia 2 /n, ou seja, se
, ento, x IR
F X for a funo de distribuio acumulada de X
2
/n

2 /n

lim F X (x) = (x).


n

2 /n

Prova: A prova deste teorema est fora do escopo deste livro. Pode ser encontrada em B.
James (1981).
Caso a populao j possua uma distribuio normal, como X uma combinao linear de
X1 , X2 , . . . , Xn que so independentes e possuem distribuio normal, a distribuio amostral
da mdia amostral ser exatamente uma normal para qualquer valor de n, e a mdia dessa
distribuio ser igual a mdia da populao e varincia ser igual a varincia da populao
dividida por n.
Em geral o TCL afirma que para valores grandes de n, X ter uma distribuio aproximadamente normal. Quo grande precisa ser n para que a distribuio de X seja aproximada
por uma normal? Isto depende se a populao tem uma distribuio prxima a normal ou
no. Como regra emprica, para amostras de tamanho de 30 elementos, a aproximao para
a normal j pode ser utilizada.
A diferena entre a mdia amostral e a mdia da populao conhecida como
erro

n(X)
amostral da mdia,
isto , e = X . O Teorema Central do Limite indica que

ne
N (0, 1), ou seja, N (0, 1).
Exemplo 13.3.6: Suponha que uma mquina est regulada para produzir lmpadas com
tempo de vida til mdio de 10000horas. De uma amostra de 50 lmpadas produzidas por
esta mquina verifica-se o tempo de vida til de cada uma delas. Determine a probabilidade
de que o tempo de vida til mdio seja menor ou igual a 8000horas.
Soluo: Sabe-se que o tempo de vida til de uma lmpada distribudo de acordo com
uma exponencial. Portanto, como o tempo de vida til mdio de 10000horas, a mdia
populacional 10000horas e a varincia populacional igual a 108 horas2 . Alm disso, como
a amostra maior que 30, utiliza-se o TCL para afirmar que a mdia amostral tem uma
8
distribuio N (104 , 10
). Portanto,
50

P (X 8000) = P (Z

13.3.2

50(8000 10000)
) = ( 2) = 0.0793.
10000

Distribuio da Varincia da Amostra, S 2

No caso de uma populao normal, o teorema a seguir fornece a distribuio da varincia


amostral.
Campos, Rgo & Mendona

13.3. DISTRIBUIES AMOSTRAIS

286

Teorema 13.3.7: Seja a varincia amostral


n

S2 =

1 X
(Xi X)2 .
n 1 i=1

Ento,
E(S 2 ) = 2
e

n1 2
)S 2n1 ,
2
desde que a populao de onde foi retirada a amostra seja normalmente distribuda.
(

A prova deste teorema pode ser encontrada em Hogg e Craig (1970).

13.3.3

Distribuio da Proporo Amostral, p

Suponha que a proporo de indivduos de uma populao que so portadores de uma determinada caracterstica seja igual a p. Logo, pode-se definir uma varivel aleatria X que
a funo indicadora desta caracterstica. Portanto, X tem uma distribuio Bernoulli de
parmetro p. Considere agora uma amostra aleatria simples de tamanho n desta populao
e seja Sn o nmero total de indivduos na amostra que possuem a caracterstica de interesse.
Ento, Sn tem uma distribuio binomial com parmetros n e p. A proporo de indivduos
portadores da caracterstica dada por
p =

Sn
.
n

Portanto, pode-se determinar a distribuio de p a partir da distribuio de Sn , utilizando


a relao: P (
p = nk ) = P (Sn = k).
Pelo Teorema Central do Limite se (X1 , X2 , . . . , Xn ) formam uma amostra aleatria simples desta populao, a distribuio amostral de X aproximadamente igual a N (p, p(1
p)/n) para valores grandes de n. Portanto, a distribuio de Sn = nX pode ser aproximada
por uma normal N (np, np(1 p)). Como p = X, a distribuio da proporo amostral
tambm pode ser aproximada por N (p, p(1 p)/n) para valores grandes de n.
Exemplo 13.3.8: Uma mquina est regulada para produzir lmpadas de modo que apenas
10% delas tenham tempo de vida til menor ou igual a 1000horas. De uma amostra de 50
lmpadas produzidas por esta mquina, qual a probabilidade de se encontrar no mximo
90% com tempo de vida til maior que 1000 horas?
Soluo: Como a amostra maior que 30, utiliza-se o TCL para afirmar que a proporo
amostral tem uma distribuio N (0.1, (0.1)(0.9)
). Portanto,
50
P (1 p 0.9) = P (
p 0.1) = P (Z 0) = 0.5.

Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

13.4

287

Estimadores e Estimativas

Um dos grandes interesses do estudo da Estatstica a obteno de estimativas para os


parmetros populacionais. Se for um parmetro desconhecido da populao, deseja-se,
a partir de uma funo de uma amostra aleatria de tamanho n, (X1 , X2 , . . . , Xn ), obter
= h(X1 , X2 , . . . , Xn ) utilizada
o valor mais plausvel para o parmetro . A estatstica
uma funo da varivel aleatria
para estimar conhecida como estimador. Como

chamada de uma
tambm uma varivel aleatria. Uma particular realizao de
estimativa pontual para .
Os parmetros populacionais mais comuns que se desejam estimar so:
(i) A mdia da populao, .
(ii) A varincia, 2 , ou desvio-padro , da populao.
(iii) A proporo de itens populacionais que pertencem a uma classe de interesse, p.
(iv) A diferena de mdias de duas populaes, 1 2 .
(v) A diferena de propores de duas populaes, p1 p2 .
Estimadores para esses parmetros so, respectivamente:
(i) A mdia amostral, X.
(ii) A varincia amostral S 2 =

1
n1

Pn

i=1 (Xi

X)2 .

(iii) A proporo amostral, p.


(iv) A diferena de mdias amostrais de duas amostras aleatrias independentes, X 1 X 2 .
(v) A diferena de propores amostrais de duas amostras aleatrias independentes, p1 p2 .
Existem vrias possibilidades de escolha para um estimador de um parmetro. Por exem2
plo, o estimador (n1)S
poderia ter sido escolhido para estimar a varincia populacional.
n
Portanto, preciso estudar propriedades dos estimadores para desenvolver um critrio que
determine qual o melhor estimador para determinado parmetro.

13.4.1

Propriedades de Estimadores

O problema da estimao determinar um estimador que seja prximo de , segundo algum


critrio matemtico. O primeiro critrio o seguinte:
Definio 13.4.1: O estimador T no-viesado ou no-tendencioso para se E(T ) = .
O vis ou tendncia de um estimador T para um parmetro igual a E(T ) . Logo,
um estimador T no-viesado para , se o seu vis for igual a zero.
Campos, Rgo & Mendona

13.4. ESTIMADORES E ESTIMATIVAS

288

Exemplo 13.4.2: A mdia amostral X um estimador no-viesado para mdia populacional , pois
n

1X
E(X) =
E(Xi ) = .
n i=1
Exemplo 13.4.3: A proporo amostral p um estimador no-viesado para a proporo
populacional p pois chamando de Yi a varivel aleatria que igual a 1 se o i-simo indivduo
da amostra possui a caracterstica de interesse, e igual a zero, em caso contrrio, tem-se que
n

1X
E(
p) =
E(Yi ) = p.
n i=1
Exemplo
P 13.4.4: Considere uma populao com N elementos, com mdia populacional
= N1 N
i=1 Xi , e varincia populacional
N
1 X
=
(Xi )2 .
N i=1
2

Um possvel estimador para 2 , baseado numa amostra aleatria simples de tamanho n


dessa populao,
n

2 =

1X
(Xi X)2 .
n i=1

Entretanto, este estimador viesado:


n
n
X
X
2
(Xi X) =
(Xi + X)2
i=1

n
X

i=1
n
n
X
X
(Xi ) 2
(Xi )(X ) +
(X )2
2

i=1

n
X

i=1

i=1

(Xi )2 n(X )2 .

i=1

Portanto,
n
1 X
E(
) =
(
E(Xi )2 nE(X )2 )
n i=1
2

n
1 X
=
(
V (Xi ) nV ar(X))
n i=1

1
2
n1 2
(n 2 n ) =
.
n
n
n
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

289

Logo, o vis de
2 igual a n1
2 2 =
. Portanto, o estimador
2 em geral
n
n
subestima o verdadeiro parmetro 2 . Por outro lado, o vis diminui quando n tende a
infinito. fcil ver que
n
S2 =

2
n1
um estimador no-viesado para 2 . Por isso, a varincia de uma amostra de tamanho n
dada por S 2 , onde o denominador igual a n1, enquanto que a varincia de uma populao
de tamanho N dada por 2 , onde o denominador igual a N .
O segundo critrio a ser analisado o critrio da consistncia de um estimador. Intuitivamente, um estimador consistente se quando aumenta-se o tamanho da amostra n, a
probabilidade de que este difira do parmetro por mais que qualquer erro pre-especificado
 > 0 tende a zero. Formalmente,
Definio 13.4.5: Uma sequncia {Tn } de estimadores de um parmetro consistente
se, para todo  > 0,
lim P (|Tn | > ) = 0.
n

Exemplo 13.4.6: A sequncia de estimadores X n consistente, pois como E(X n ) = e


2
V (X n ) = n , utilizando a desigualdade de Tchebycheff:
P (|X n | > )

2
0,
n2

quando n , para qualquer  > 0.


O seguinte teorema determina se uma dada sequncia de estimadores consistente:
Teorema 13.4.7: Se {Tn } uma sequncia de estimadores de tal que limn E(Tn ) =
e limn V (Tn ) = 0, ento {Tn } consistente.
Prova: Pela desigualdade triangular, se |Tn | > , ento |E(Tn )| >

. Portanto,
2


2

ou |Tn E(Tn )| >



P (|Tn | > ) P (|E(Tn ) | > ) + P (|Tn E(Tn )| > ).
2
2
Logo, pela desigualdade de Tchebycheff

4V (Tn )
.
P (|Tn | > ) P (|E(Tn ) | > ) +
2
2
Tomando os limites quando n :

4V (Tn )
lim P (|Tn | > ) lim P (|E(Tn ) | > ) + lim
= 0.
n
n
n
2
2
Portanto, {Tn } consistente.
Se Tn for um estimador no-viesado, ento obviamente limn E(Tn ) = , e portanto se
a varincia do estimador Tn tender a zero, ele um estimador consistente.
Campos, Rgo & Mendona

13.4. ESTIMADORES E ESTIMATIVAS

290

Exemplo 13.4.8 : Foi visto que S 2 um estimador no-viesado para 2 . possvel


demonstrar no caso em que a populao tem distribuio normal com mdia e varincia
2 que
2 4
V (S 2 ) =
.
n1
Logo, S 2 consistente para 2 .
S 2 , ento E(
2 ) = n1
2 2 quando n ,
Exemplo 13.4.9 : Como
2 = n1
n
n
4
2
e V (
2 ) = ( n1
)2 n1
0 quando n . Logo, pelo teorema anterior,
2 tambm
n
2
consistente para .
Um outro critrio para comparao de estimadores o seguinte:
Definio 13.4.10: Se T e T 0 so dois estimadores no-viesados de um mesmo parmetro
, e V (T ) < V (T 0 ), ento T mais eficiente que T 0 .
Exemplo 13.4.11 : Considere uma populao normal, X, com parmetros e 2 . O
objetivo estimar a mediana desta populao. Como a distribuio simtrica a mediana e
a mdia coincidem e so iguais a . Definindo X e md, respectivamente, como a mdia e a
mediana de uma amostra de tamanho n dessa populao, qual dos dois estimadores mais
eficiente para estimar a mediana populacional?
Sabe-se que X N (, 2 /n) e demonstra-se que a distribuio da mediana pode ser
2
aproximada por N (M d(X),
), onde M d a mediana da populao. Portanto, os dois
2n
estimadores so no-viesados, mas X mais eficiente, pois V (md) > V (X). Conclui-se
que, para estimar a mediana dessa populao, prefervel usar a mdia da amostra como
estimador.
Finalmente, pode-se considerar o critrio do erro quadrtico mdio para comparar estimadores.
Definio 13.4.12: Denomina-se erro amostral de um estimador T para um parmetro
a diferena e = T .
O erro amostral uma varivel aleatria pois uma funo de T que varivel aleatria;
alm disso, o vis de T igual a esperana do erro amostral.
Definio 13.4.13: O erro quadrtico mdio (EQM) do estimador T para o parmetro
igual ao segundo momento do erro amostral com respeito a distribuio amostral do
estimador T , ou seja,
EQM (T, ) = E(e2 ) = E(T )2 .
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

291

A expresso do EQM pode ser desenvolvida para:


EQM (T, ) = E(T E(T ) + E(T ) )2
= E(T E(T ))2 + 2E[(T E(T ))(E(T ) )] + E(E(T ) )2
= V (T ) + V 2 .
Ento, o erro quadrtico mdio leva em considerao tanto o vis V do estimador como
sua variabilidade medida atravs de V (T ). Segundo este critrio, o estimador to melhor
quanto menor for seu erro quadrtico mdio.
Exemplo 13.4.14: Determinar o erro quadrtico mdio do estimador X para .
Soluo: Neste caso,
E(X )2 = V (X) =

13.4.2

2
.
n

Como obter Estimativas

Estimativas so instanciaes dos estimadores. Os estimadores so funes, as estimativas


so valores que as funes assumem.
Por exemplo, supondo uma populao X com uma dada lei de probabilidade tal que
E(X) = . Foi visto anteriormente que um estimador para X, a mdia da amostra
(X1 , . . . , Xn ) retirada de X. Portanto, quando uma particular amostra instanciada, tem-se
um particular valor para X, denominado de x e este uma estimativa de X. Da mesma
forma, s2 uma estimativa de S 2 .

13.5

Intervalos de Confiana

Os estimadores apresentados at o momento so pontuais, isto , especificam uma nica


estimativa para o parmetro. Para que se tenha uma medida de qual a possvel magnitude
do erro que est sendo cometido preciso de uma outra forma para obter estimativas. Uma
alternativa buscar um mtodo para construir intervalos de nmeros reais que contenham
o parmetro. Esses intervalos so os denominados intervalos de confiana e so baseados na
distribuio amostral do estimador.
Um intervalo de confiana para um parmetro populacional desconhecido um intervalo
da forma (L, U ), em que os pontos extremos do intervalo L e U dependem da amostra, e
portanto so, na verdade, estatsticas, isto variveis aleatrias. O objetivo ao se construir
intervalos de confiana determinar funes da amostra L e U tal que a seguinte afirmao
seja verdadeira:
P (L U ) = 1 ,
onde 0 < < 1. Assim, existe uma probabilidade 1 de se selecionar uma amostra
tal que o intervalo [L, U ] contenha o valor de . Note que no aleatrio, L e U que
Campos, Rgo & Mendona

13.5. INTERVALOS DE CONFIANA

292

so aleatrios. Se a afirmao acima for verdadeira o que est sendo dito que se forem
construdos vrios intervalos de confiana usando as estimativas L e U , em 100(1 )%
das vezes estar incluso no intervalo [L, U ]. Tal intervalo chamado de um intervalo de
100(1 )% de confiana para , e (1 ) conhecido como coeficiente de confiana ou
nvel de confiana do intervalo e o nvel de significncia.
importante destacar que o mtodo utilizado para determinar L e U que garante que
com probabilidade 1 , estar contido no intervalo [L, U ]. Para uma particular amostra,
o intervalo (l, u) observado pode ou no conter e no existe qualquer aleatoriedade uma
vez que l, u e so nmeros reais fixos. A afirmao correta que (l, u) contm com
100(1 )% de confiana.
Quanto maior o intervalo de confiana, mais confiana se tem que ele contenha o verdadeiro valor . Por outro lado, quanto maior for o intervalo, menos informao a respeito do
verdadeiro valor de . O ideal seria ter um intervalo pequeno com alta confiana.
O intervalo de confiana descrito acima um intervalo de confiana bilateral, pois so
especificados tanto o limite inferior quanto o superior do intervalo. Pode-se tambm obter
um intervalo de confiana unilateral inferior para com nvel de confiana , escolhendo um
limite inferior L de tal forma que
P (L ) = 1 .
Analogamente, um intervalo de confiana unilateral superior para com nvel de confiana
, pode ser obtido escolhendo um limite superior U tal que
P ( U ) = 1 .

13.5.1

Intervalo de Confiana para a Mdia Populacional () com


Varincia Populacional ( 2 ) Conhecida

Pelo Teorema Central do Limite, a distribuio amostral de X aproximadamente normal


com mdia e varincia 2 /n, desde que n seja suficientemente grande (n 30). Neste
caso,

n(X )

tem uma distribuio normal padro. Esta varivel facilmente usada para calcular um
intervalo de confiana para .
Seja z/2 = 1 (1 /2). Tem-se que:
Z=

P (z/2 Z z/2 ) = 1 .
Logo,

n(X )
z/2 ) = 1 .

Rearrumando as desigualdades com o objetivo de explicitar :


P (z/2

Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

293

z/2
n(X )
z/2 X ,

z/2
n(X )
z/2 X + .

Desse modo, com 100(1 )% de confiana,


z/2
z/2
(X , X + )
n
n
um intervalo de confiana bilateral para .
Intervalos unilaterais podem ser construdos como a seguir. Fazendo z = 1 (1 ):
P (Z z ) = 1
e resolvendo a desigualdade abaixo para

n(X )
z
z X +

n
obtem-se o intervalo unilateral superior com 100(1 )% de confiana,
z
(, X + ).
n
De forma similar,

z
P (Z z ) = 1 X ,
n

e o intervalo unilateral inferior com 100(1 )% de confiana


z
(X , +).
n
Intervalos de confiana podem ser usados para determinar o tamanho de uma amostra
que satisfaa determinada especificao.

13.5.2

Intervalo de Confiana para Mdia Populacional () com Varincia Populacional ( 2 ) Desconhecida

Quando o objetivo construir intervalos de confiana para a mdia de uma populao


quando 2 for desconhecida, devido ao Teorema Central do Limite, pode-se continuar usando
os procedimentos da seo anterior, desde que o tamanho da amostra seja grande (n 30),
e que se adote s2 como estimativa para 2 .

Se a populao tem uma distribuio normal, ento T = n(X)


tem uma distribuio
S
t de Student com n 1 graus de liberdade (Hogg e Craig, 1970). Portanto, fixado o nvel
de confiana (1 ) a partir do qual obtm-se o valor t/2 da distribuio t de Student com
Campos, Rgo & Mendona

13.5. INTERVALOS DE CONFIANA

294

n 1 graus de liberdade e procedendo-se de forma similar ao que foi feito da seo anterior,
tem-se que
P (t/2 T t/2 ) = 1
e portanto
t/2 S
t/2 S
(X , X + )
n
n
um intervalo de confiana bilateral com 100(1)% de confiana para a mdia da populao
. Analogamente,
t S
(, X + )
n
um intervalo unilateral superior com 100(1 )% de confiana para , e
t S
(X , )
n
um intervalo unilateral inferior com 100(1 )% de confiana para .
Exemplo 13.5.1: Seja uma populao com distribuio Bernoulli de parmetro p. Por
exemplo, p pode representar a probabilidade de um tipo de capacitor ser produzido com
defeito por uma determinada fbrica. Dada uma amostra aleatria (X1 , X2 , . . . , Xn ) de tamanho n da produo de capacitores desta fbrica, pode-se estimar um intervalo de confiana
bilateral para p. A varincia da populao dada por p(1p). Portanto, sendo p a proporo
de capacitores com defeito na amostra, como 2 = p(1 p), ento
r
r
p(1 p)
p(1 p)
1
1
(
p (( + 1)/2)
, p + (( + 1)/2)
)
n
n
um intervalo com 100% de confiana para p. Como p no conhecido, tem-se dois
possveis procedimentos para se obter seu valor:
(i) utilizar o fato de que p(1 p) 1/4, obtendo o intervalo
r
r
1
1
, p + 1 (( + 1)/2)
),
(
p 1 (( + 1)/2)
4n
4n
(ii) usar p como estimativa para p, obtendo o intervalo
r
r
p

(1

)
p(1 p)
(
p 1 (( + 1)/2)
, p + 1 (( + 1)/2)
).
n
n
O primeiro mtodo sempre correto, porm muito conservador pois, em geral, p(1 p)
pode ser bem menor que 1/4, e ento o intervalo proposto tem amplitude maior que a
necessria. O segundo mtodo vlido desde que np e n(1 p) sejam maiores que 5, pois,
caso contrrio, a distribuio normal no mais poder ser usada sendo necessrio utilizar a
binomial.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

295

Exemplo 13.5.2: O comprimento dos eixos produzidos por uma empresa tem aproximadamente uma distribuio normal com desvio padro 4cm. Uma amostra com 16 eixos
forneceu uma mdia de 4.52cm. bach
(a) Determine um intervalo de confiana de 90% para o verdadeiro comprimento mdio dos
eixos.
(b) Com que probabilidade afirma-se que o comprimento mdio desta amostra no difere
da mdia por mais de 0.5cm?
Soluo: O intervalo de confiana dado por:
4
4
(4.52 1 (0.95) , 4.52 + 1 (0.95) ] = [2.875, 6.165).
16
16

Para o item (b), como / n = 1, ento X tem distribuio normal padro, logo
P (|X | 0.5) = P (|Z| 0.5) = 0.383.

Exemplo 13.5.3: Uma amostra de 400 domiclios mostra que 25% deles so alugados.
Qual o intervalo de confiana para o (verdadeiro) nmero de casas alugadas numa cidade,
supondo que ela tem 20000 casas? Considere um coeficiente de confiana de 98%.
Soluo: Inicialmente, determinando o intervalo de confiana para a proporo de casas
alugadas. Neste caso, p = 0.25, n = 400, e = 0.98. Utilizando p(1 p) como uma
estimativa para a varincia p(1 p), o intervalo de confiana para a populao :
r
r
0.25(0.75)
0.25(0.75)
, 0.25 + 1 (0.99)
).
(0.25 1 (0.99)
400
400
Ento, o intervalo de confiana para o nmero de casas alugadas dado por:
r
1

(20000(0.25 (0.99)

r
0.25(0.75)
0.25(0.75)
1
), 20000(0,25 + (0.99)
))
400
400

= (5000 1006.75, 5000 + 1006.75)


= (3993.25, 6006.75).

Exemplo 13.5.4: Uma pesquisa sobre renda familiar foi realizada entre as famlias que
tm rendimento de at 5 salrios mnimos. Sabe-se que o desvio padro populacional 1.2.
Uma amostra de 200 famlias foi selecionada e seus resultados aparecem na tabela abaixo:
(a) Estime, com 95% de confiabilidade, o intervalo de confiana para a mdia de renda
familiar desta populao.
Campos, Rgo & Mendona

13.6. TESTE DE HIPTESES

296

Tabela 13.5: Renda familiar.


Rendimento Frequncia
1
90
2
50
30
3
4
20
10
5

(b) Estime a verdadeira proporo de famlias que tm rendimento de at 2 salrios mnimos,


com 95% de confiabilidade.
Soluo: Determinando inicialmente o valor de x.
x = 1(90/200) + 2(50/200) + 3(30/200) + 4(20/200) + 5(10/200) = 2.05.
Ento, o intervalo de confiana de 95% dado por:
1.2
1.2
(2.05 1 (0.975)
, 2.05 + 1 (0.975)
) = (1.884, 2.216).
200
200
Para o item (b), tem-se que p = 140/200 = 0.7. Usando p(1 p) como estimativa para
a varincia populacional, o intervalo de confiana de 95% para proporo populacional :
r
r
0.7(0.3)
0.7(0.3)
1
1
, 0.7 + (0.975)
) = (0.636, 0.764).
(0.7 (0.975)
200
200

13.6

Teste de Hipteses

Um teste de hiptese um mtodo para decidir se uma hiptese sobre um parmetro populacional deve ou no ser aceita com base nos dados de uma amostra selecionada desta
populao. Ao contrrio do que estudado no problema de estimao, quando deseja-se
estimar um parmetro, como visto anteriormente, muitas vezes o objetivo apenas checar
se determinado parmetro da populao satisfaz uma condio de interesse. Tal condio
conhecida como hiptese. A idia central deste procedimento assumir que a hiptese
verdadeira e verificar se a amostra observada parece razovel ou consistente, dada esta
suposio.
Definio 13.6.1 :
Uma hiptese estatstica uma condio que se quer testar sobre
determinados parmetros de uma ou mais populaes.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

297

No caso em que distribuies de probabilidade so usadas para representar populaes,


uma hiptese estatstica tambm pode ser pensada como uma afirmao acerca destas.
Por exemplo, suponha que o interesse seja verificar a tenso em uma dada tomada. A
tenso na tomada sofre alteraes ao longo do dia e pode assim ser descrita por uma varivel
aleatria. Suponha que o interesse seja no valor esperado desta distribuio, ou seja, decidir
se a tenso ou no igual a 220v. Ento, = 220v chamada de hiptese nula, representada
por H0 . Esta hiptese nula pode ser aceita ou rejeitada; no caso de ser rejeitada, precisa-se
de uma outra hiptese que seja aceitvel, conhecida como hiptese alternativa, representada
por H1 . Por exemplo, uma hiptese alternativa seria 6= 200v. Neste caso, como a hiptese
alternativa especifica valores de maiores ou menores que o valor especificado por H0 , ela
chamada de hiptese alternativa bilateral. Em algumas situaes pode-se desejar formular
uma hiptese alternativa unilateral, como em H0 : = 220v e H1 : < 220v, H0 : = 220v
e H1 : > 220v, ou H0 : = 220v e H1 : = 240v.
Ento, a hiptese nula uma afirmao a respeito da populao, mais especificamente
uma afirmao a respeito de um parmetro da populao. Esta afirmao pode ter sido
originada de conhecimento a priori da populao em estudo, de testes ou experimentos
anteriores; pode ter sido determinada de alguma teoria ou modelo da populao em estudo;
ou pode surgir de consideraes exgenas, por exemplo, parmetros que devem obedecer
certos critrios de controle de qualidade.
Estabelecidas as hipteses nulas e alternativas, a informao contida na amostra analisada para verificar se a hiptese nula consistente com esta informao. Caso seja, conclui-se
que a hiptese nula verdadeira, caso contrrio, conclui-se que a hiptese falsa, o que implicar na aceitao da hiptese alternativa. Porm, para se saber com certeza se a hiptese
nula ou no verdadeira, seria necessrio analisar toda a populao, o que na prtica
frequententemente impossvel. Portanto, todo procedimento de testes de hipteses tem de
ter alguma probabilidade de erro associada, uma vez que fundamentado numa amostra de
tamanho n.
Para ilustrar, considere o exemplo descrito anteriormente, ou seja, H0 : = 220v e
H1 : = 240v. Suponha que n medidas na tenso da tomada sejam feitas e que a mdia dos
valores obtidos nesta amostra x seja observada. Como visto, x uma estimativa para o valor
de , logo se for obtido um valor de x prximo a 220v, tem-se uma evidncia de que a hiptese
nula verdadeira. Precisa-se ento estabelecer uma regio de valores, conhecida como regio
de aceitao tal que se x cair nesta regio a hiptese nula aceita, e se x cair fora dessa
regio, ou seja, na regio conhecida como regio crtica (RC), a hiptese alternativa aceita.
Por exemplo, pode-se considerar a regio de aceitao como sendo o intervalo (, 230]. Os
limites da regio de aceitao so chamados de valores crticos.
Esse procedimento de deciso acarreta um de dois tipos de erros diferentes. O primeiro,
conhecido como erro tipo I ocorre quando a tenso mdia na tomada realmente 220v, mas
por chance o conjunto de medidas aleatrios obtido forneceu um valor de x na regio crtica.
Ou seja, um erro do tipo I ocorre quando a hiptese nula rejeitada quando na verdade ela
verdadeira. O segundo, conhecido como erro do tipo II ocorre quando apesar da hiptese
nula ser falsa, a mdia das medidas de tenso obtidas cai na regio de aceitao. Ou seja,
um erro do tipo II ocorre sempre que a hiptese nula for aceita mesmo sendo falsa.
Campos, Rgo & Mendona

13.6. TESTE DE HIPTESES

298

A probabilidade de ocorrncia de um erro tipo I chamada de nvel de significncia,


tamanho do teste, ou ainda, p-valor do teste, e denotada por . O poder de um teste
igual a probabilidade de se rejeitar a hiptese nula quando ela realmente falsa. Note que
o poder do teste igual a 1 menos a probabilidade de ocorrncia de um erro do tipo II, que
usualmente denotada por .
Quando H0 for verdadeira, isto , a tenso for realmente de 220v, pelo TCL sabe-se que
2
X N (220, n ). Ento, o nvel de significncia do teste determinado por:
2
= P (erro I) = P (X > 230|X N (220, ))
n

n(X 220)
n(230 220)
= P(
>
)

Se a varincia da tenso na tomada 64v 2 , com uma amostra de 4 medidas do valor de


tenso obtm-se:

= P (Z >

2(10)
) = P (Z > 2.5) = 0.0062.
8

De modo anlogo, obtm-se a probabilidade do erro tipo II. Se H1 for verdadeira,


X N (240, 16), ento:
= P (erro II) = P (X 230|X N (240, 16))
(X 240)
(230 240)
= P(

) = P (Z 2.5) = 0.0062.
4
4
Neste caso, e foram iguais devido a simetria da regio crtica em relao s hipteses
nula e alternativa. Se ao invs do valor crtico ser 230, fosse maior, ento diminuiria e
aumentaria.
Tambm seria possvel especificar um valor para a probabilidade de erro do tipo I e
verificar qual seria a regio crtica que satisfaria esta probabilidade de erro pre-especificada.
Por exemplo, suponha que se queira encontrar a regio crtica cujo seja igual a 0.01. Ento:

0.01 = = P (Z > 2.325) = P (

2(X 220)
> 2.325) = P (X > 229.3).
8

Para a regio crtica (229.3, ), o valor de :


= P (erro II) = P (X 229.3|X N (240, 16))
(X 240)
(229.3 240)
= P(

) = P (Z 2.675) = 0.0038.
4
4
Este segundo tipo de procedimento bastante utilizado, pois em geral a hiptese alternativa no contm apenas um nico valor de parmetro como no exemplo acima. Muitas
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

299

vezes, se a hiptese nula H0 : = 220v, a hiptese alternativa ser H1 : 6= 220v. Como


os parmetros da hiptese alternativa so muitos, a soluo adotar o ltimo procedimento
descrito acima, ou seja, pre-estabelecer um valor , e calcular uma regio crtica que satisfaa
esta restrio. No caso de uma hiptese alternativa bilateral, em geral toma-se como regio
de aceitao um intervalo simtrico ao redor da hiptese nula, deste modo fixando = 0.01,

0.01 = = P (|Z| > 2.575) = P (|

2(X 220)
| > 2.575) = 1 P (209.7 X 230.3).
8

Portanto, a regio de aceitao (209.7, 230.3) foi determinada de modo que o nvel de significncia de 0.01 fosse satisfeito. Mesmo determinada esta regra de deciso, no determina-se
, pois no existe um nico valor de na hiptese alternativa. Neste caso, considera-se uma
funo (), conhecida como funo caracterstica de operao.
Definio 13.6.2: A funo caracterstica de operao (funo CO) de um teste de hiptese
definida por:
() = P (aceitar H0 |).
Isto , () a probabilidade de aceitar H0 como funo de .
Definio 13.6.3: A funo poder do teste, dada por () = 1 ().
Portanto, esta funo a probabilidade de se rejeitar H0 como funo de . As seguintes
propriedades de () so facilmente verificadas:
(i) (0 ) = ;
(ii) No caso de hiptese alternativa bilateral (H1 : 6= 0 ), () = (+) = 1 e ()
decresce para < 0 e cresce para > 0 ;
(iii) No caso de hiptese alternativa unilateral superior (H1 : > 0 ), () = 0,
(+) = 1, e () sempre crescente;
(iv) No caso de hiptese alternativa unilateral inferior (H1 : < 0 ), () = 1, (+) =
0, e () sempre decrescente.
Na definio das hipteses, sempre estabelece-se a hiptese nula como uma igualdade, de
modo que o analista pode controlar , ao estabelecer uma regio crtica para o teste. Assim, o
analista pode controlar diretamente a probabilidade de rejeitar erroneamente H0 , implicando
que a rejeio da hiptese nula uma concluso forte. Note que quanto menor o valor de ,
quando a hiptese nula rejeitada, mais provvel a hiptese alternativa, portanto maior
ser a significncia da concluso. Por isso, chamado de nvel de significncia do teste.
Por outro lado, no constante, mas depende do verdadeiro valor do parmetro, por este
motivo a aceitao de H0 tida como uma concluso fraca, a no ser que saiba-se que
aceitavelmente pequena. Ento, a nomenclatura mais correta seria ao invs de se dizer H0
Campos, Rgo & Mendona

13.6. TESTE DE HIPTESES

300

aceita deveria ser dito a amostra no apresentou evidncia suficiente para se rejeitar H0 .
Neste ltimo caso, no necessariamente afirma-se que existe uma alta probabilidade de que
H0 seja verdadeira, isto pode significar apenas que mais dados so necessrios para que uma
concluso tomada esteja mais prxima da realidade.
Na determinao de quem a hiptese nula, deve-se adotar como H0 aquela hiptese,
que se rejeitada erroneamente, conduza a um erro mais importante de se evitar, pois esta
probabilidade de erro controlvel. Ento, por exemplo, se o interesse saber se um novo
medicamento eficaz no combate a uma doena, a hiptese nula seria que ele no eficaz,
pois os danos causados por ser usado um remdio no eficaz so maiores que se um remdio
que seria eficaz no fosse usado. Ou ainda, se se deseja saber se certa substncia radioativa,
ento a hiptese nula seria que ela radioativa, pois os danos causados pela manipulao
radioativa so maiores que se uma substncia no fossse manipulada por se achar falsamente
que ela radioativa. Como a rejeio da hiptese nula que uma concluso forte, escolhe-se
como H1 a hiptese que se deseja comprovar. Por exemplo, no caso do novo medicamento
H1 ser a hiptese que o novo medicamento melhor que os existentes.

13.6.1

Procedimento para realizar um Teste de Hiptese

Segue-se uma sequncia de passos para a realizao de qualquer teste de hiptese:


(i) Identifique o parmetro de interesse no problema em anlise.
(ii) Fixe qual a hiptese nula H0 e alternativa H1 .
(iii) Use teoria estatstica e informaes disponveis para decidir que estimador ser usado
para testar H0 .
(iv) Obtenha a distribuio do estimador proposto.
(v) Determine .
(vi) Construa a regio crtica para o teste de modo que seja satisfeita.
(vii) Use os dados da amostra para determinar o valor do estimador, ou seja, uma estimativa
para o parmetro.
(viii) Se o valor do estimador pertencer a regio crtica, rejeite H0 . Caso contrrio, reporte
que no existe evidncia suficiente para se rejeitar H0 .

13.6.2

Teste de Hiptese para a Mdia de uma Populao Normal


com Varincia Conhecida

Deseja-se testar as hipteses H0 : = 0 e H1 : 6= 0 , sendo 0 uma constante especificada.


Para testar a hiptese nula, usa-se o estimador mdia amostral de uma amostra aleatria
simples de tamanho n. Deste modo, se a hiptese nula for verdadeira, pelo TCL, X
N (0 , 2 /n) e ento procede-se como anteriormente.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

301

0 tem uma distribuio normal padro, se a hiptese


A estatstica padronizada Z0 = X
/ n
nula for verdadeira. Portanto, para a regio de aceitao

(1 (1 /2), 1 (1 /2)),
tem-se que P (Z0 RC| = 0 ) = .
mais fcil entender a regio crtica e o procedimento do teste quando a estatstica de
teste Z0 e no X. Entretanto, a mesma regio crtica pode ser calculada em termos do
valor da estatstica X. Neste caso, a regio de aceitao

(0 1 (1 /2) , 0 + 1 (1 /2) ).
n
n
De modo similar, obtm-se a regio crtica para o caso de um teste de hiptese unilateral
H0 : = 0 e H1 : > 0 , ou H0 : = 0 e H1 : < 0 . No primeiro caso, a regio de
aceitao para a estatstica Z0
(, 1 (1 )),
o que implica que a regio de aceitao para a estatstica X

(, 0 + 1 (1 ) ).
n
No segundo caso, a regio para a estatstica Z0
(1 (), ),
o que implica que a regio de aceitao para a estatstica X

(0 + 1 () , ).
n

13.6.3

Teste para a Proporo

O teste para proporo um caso particular do caso do teste para a mdia com varincia
conhecida. Cada amostra pode ser considerada como uma varivel Bernoulli com parmetro
p que representa a proporo de indivduos da populao que possuem uma determinada
caracterstica. Sabe-se que a mdia de uma Bernoulli igual ao seu parmetro p e que sua
varincia igual a p(1 p). Logo, utilizando a proporo amostral como estatstica e os
resultados gerais da seo anterior, a regio de aceitao para a proporo
(i) No caso de hiptese alternativa bilateral: H0 : p = p0 e H1 : p 6= p0 , a regio de aceitao

r
1

(p0 (1 /2)

p0 (1 p0 )
, p0 + 1 (1 /2)
n

p0 (1 p0 )
).
n

Campos, Rgo & Mendona

13.6. TESTE DE HIPTESES

302

(ii) No caso de hiptese alternativa unilateral superior: H0 : p = p0 e H1 : p > p0 , a regio


de aceitao
r
(, p0 + 1 (1 )

p0 (1 p0 )
).
n

(iii) No caso de hiptese alternativa unilateral inferior: H0 : p = p0 e H1 : p < p0 , a regio


de aceitao
r

p0 (1 p0 )
, ).
n
Exemplo 13.6.4: Um relatrio afirma que 40% de toda gua obtida atravs de poos artesianos salobra. Existem controvrsias sobre esta afirmao, alguns dizem que a proporo
maior outros que menor. Para acabar com a dvida, sorteou-se 400 poos e observou-se
que em 120 deles a gua era salobra. Qual deve ser a concluso ao nvel de significncia de
3%?
Soluo: Neste caso, H0 : p = 0.4 contra uma hiptese alternativa bilateral H1 : p 6= 0.4.
Logo, a regio de aceitao dada por:
1

(p0 + ()

r
(0.4 1 (0.985)

r
(0.4)(0.6)
(0.4)(0.6)
, 0.4 + 1 (0.985)
) = (0.4 0.053, 0,4 + 0.053)
400
400
= (0.347, 0.453).

Como p = 120/400 = 0.3, rejeita-se a hiptese nula ao nvel de confiana de 3%.


Exemplo 13.6.5: O governo afirma que a taxa de desemprego da populao economicamente ativa de no mximo 15% Uma amostra aleatria de 1500 pessoas revelou que
1300 destas esto empregadas. Para um nvel de significncia de 5%, pode-se dizer que a
afirmao est correta?
Soluo: Neste caso, a hiptese nula H0 : p = 0.15 contra a alternativa H1 : p < 0.15.
Logo, a regio de aceitao dada por:
r
(0.15)(0.85)
1
(0.15 + (0.05)
, ) = (0.135, +).
1500
Como p = 200/1500 = 0.133, rejeita-se a hiptese nula ao nvel de confiana de 5%, e
portanto a afirmao estava correta.

13.6.4

Testes para Amostras Grandes

Quando n 30 a varincia da amostra s2 prxima de 2 , assim s pode ser usado no lugar


de nos procedimentos anteriores. Deste modo, o teste para a mdia de uma populao
com varincia conhecida pode ser utilizado, no caso de n 30, para testar a mdia de uma
populao com varincia desconhecida. O tratamento exato no caso em que 2 desconhecida
e a amostra pequena envolve o uso da distribuio t de Student, quando a populao
normalmente distribuda e ser estudado a seguir.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

13.6.5

303

Teste para a Mdia de uma Populao Normal com Varincia Desconhecida

Assim como no caso de intervalos de confiana, quando a amostra for pequena e 2 desconhecida, uma suposio sobre a forma da distribuio em estudo
tem de ser feita. Assume-se

n(X)
que a populao tem uma distribuio normal e portanto T =
tem uma distribuio
S
t de Student com n 1 graus de liberdade. Seja t,n1 o valor tal que P (T t,n1 ) = 1 .
Ento, utilizando um procedimento similar ao caso de varincia conhecida, se a estatstica
utilizada for a mdia amostral X,
(i) No caso de hiptese alternativa bilateral: H0 : = 0 e H1 : 6= 0 , a regio de
aceitao
S
S
(0 (t/2,n1 ) , 0 + (t/2,n1 ) ).
n
n
(ii) No caso de hiptese alternativa unilateral superior: H0 : = 0 e H1 : > 0 , a regio
de aceitao
S
(, 0 + (t/2,n1 ) ).
n
(iii) No caso de hiptese alternativa unilateral inferior: H0 : = 0 e H1 : < 0 , a regio
de aceitao
S
(0 + (t/2,n1 ) , ).
n
Exemplo 13.6.6: Uma rede de fast food pretende instalar uma nova lanchonete em certo
local se nele transitarem no mnimo 200 carros por hora durante determinados perodos do
dia. Para 20 horas selecionadas aleatoriamente durante tais perodos, o nmero mdio de
carros que transitou pelo lugar foi de 208.5 com desvio padro de 30.0. O gerente assume a
hiptese de que o volume de carro no satisfaz a exigncia de 200 ou mais carros por hora.
Para um nvel de significncia de 5% esta hiptese pode ser rejeitada?
Soluo: A hiptese nula dada por H0 : = 200 e a alternativa, H1 : > 200. Como
a amostra pequena (n < 30)) e a varincia da populao desconhecida, deve-se usar o
teste t de Student unilateral superior. Assim, a regio de aceitao dada por:
30
30
(, 200 + t0.95,19 ) = (, 200 + 1.729 ) = (, 211.6).
20
20
Portanto, a hiptese no pode ser rejeitada a este nvel de confiana.
Exemplo 13.6.7: Num estudo sobre a resistncia de um dado material, com distribuio
normal, foi coletada uma amostra de 25 unidades, resultando num valor mdio de 230.4kg
e desvio-padro de 100kg. O estudo para saber se essa amostra suficiente para garantir
Campos, Rgo & Mendona

13.6. TESTE DE HIPTESES

304

ao nvel de significncia de 5% que a resistncia mdia do material seja superior a 200kg.


Qual a sua concluso?
Soluo: O estudo quer realizar o seguinte teste: H0 : = 200 contra H1 : > 200. Como
a varincia desconhecida e a amostra menor que 30, usa-se o teste t de Student. A regio
de aceitao
100
(, 200 + t0.95,24 ) = (, 234.2).
25
Logo, a amostra no grande o suficiente para se garantir que a resistncia mdia maior
que 200 ao nvel de significncia de 5%.

13.6.6

Probabilidade de Significncia

O procedimento do testes de hipteses descrito at agora parte de pre-estabelecimento de


um valor para . Deste modo, como a escolha de arbitrria pode acontecer que para
um determinado valor de a hiptese nula seja rejeitada, porm para um valor menor de
ela no seja rejeitada. Alm disso, no procedimento descrito, se a estimativa do parmetro
caa na regio crtica a hiptese nula era rejeitada sem nenhuma informao a respeito de
quo prxima essa estimativa estava da regio de aceitao. Uma maneira alternativa para
que tais problemas sejam evitados consiste em apresentar a probabilidade de significncia,
nvel descritivo, ou p-valor do teste. Os passos so muito parecidos, s que ao invs de
se construir a regio crtica, apresenta-se o valor da probabilidade de ocorrerem valores da
estatstica mais extremos que o observado quando a hiptese nula verdadeira. O p-valor
tambm pode ser definido como o menor nvel de significncia que conduz a rejeio da
hiptese nula com os dados observados.
Suponha que o interesse seja um teste para a mdia de uma populao com varincia
conhecida (ou ento varincia desconhecida, mas amostra grande). Seja x0 a mdia amostral
observada na amostra. Para um teste bilateral H0 : = 0 e H1 : 6= 0 , tem-se

n|X 0 |
n|x0 0 |
p = P (|X 0 | > |x0 0 |) = P (
>
)

n|x0 0 |
n|x0 0 |
= P (|Z| >
) = 2(1 (
)).

Similarmente, para um teste unilateral superior H0 : = 0 e H1 : > 0 :

n(X 0 )
n(x0 0 )
p = P (X > x0 ) = P (
>
)

n(x0 0 )
n(x0 0 )
= P (Z >
) = 1 (
).

Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

305

Tabela 13.6: Escala de evidncia de Fisher.


p-valor
Natureza da
Evidncia

0.1

0.05

marginal moderada

0.025
substancial

0.01

0.005

forte muito forte

0.001
fortssima

Finalmente, para um teste unilateral inferior H0 : = 0 e H1 : < 0 :

n(X 0 )
n(x0 0 )
p = P (X < x0 ) = P (
<
)

n(x0 0 )
n|x0 0 |
) = (
).
= P (Z <

Exemplo 13.6.8: Suponha novamente a situao anterior onde deseja-se testar a hiptese
nula H0 : = 220v versus H1 : 6= 220v, com uma amostra de tamanho 4 e sabe-se que a
varincia igual a 64v 2 . Suponha ainda que a mdia amostral foi igual a 227v. O p-valor
pode ser calculado por:

7
4|227 220|

p = 2(1 (
)) = 2(1 ( )) = 2(1 0.9599) = 0.0802.
4
64
Portanto, a probabilidade de quando a hiptese nula verdadeira uma amostra selecionada de tamanho 4 tenha mdia amostral mais distante de 220v que 227v igual a 0.0802,
ou ainda, a um nvel de significncia de 10% a hiptese nula seria rejeitada, mas a um nvel
de significncia de 5% a hiptese nula no pode ser rejeitada.
A hiptese H0 ser rejeitada se o p-valor for bastante pequeno. A Tabela 13.6 ilustra a
escala de evidncias de Fisher contra a hiptese H0 :

13.6.7

Significncia Estatstica versus Significncia Prtica

Quando o procedimento de um teste de hiptese aplicado na prtica, necessrio, alm


de se considerar a significncia estatstica medida pelo p-valor, analisar quais diferenas
entre valores dos parmetros tm implicaes prticas. Isto , pode acontecer que o p-valor
seja pequeno levando ento a rejeio da hiptese H0 , mas que o desvio real entre o valor
do parmetro na hiptese nula e a estimativa do parmetro obtida na amostra no tenha
significncia prtica. Isto pode ocorrer para tamanhos de amostras grandes. Por exemplo,
para uma amostra de 1600 medidas e mdia amostral de 220.5v o p-valor bilateral

1600(|220.5 220|)

p = 2(1 (
)) = 2(1 (20/8)) = 0.0124.
64
Portanto, existe uma evidncia estatstica substancial para se rejeitar H0 . Contudo,
do ponto de vista prtico, se a mdia for realmente for 220.5v no haver efeito prtico
Campos, Rgo & Mendona

13.7. TESTE DE ADERNCIA OU BONDADE DE AJUSTE

306

observvel no desempenho de qualquer equipamento eltrico. Logo, esta diferena detectada


pelo teste de hiptese apesar de ter significncia estatstica no tem significncia prtica.
preciso ter cuidado ao se interpretar os resultados de um teste de hiptese principalmente quando a amostra tiver tamanho grande, pois qualquer desvio pequeno do valor do
parmetro testado na hiptese nula ser detectado como tendo significncia estatstica pelo
teste, contudo, como visto, esta diferena poder ter pouca ou nenhuma significncia prtica.

13.7

Teste de Aderncia ou Bondade de Ajuste

Um objetivo comum em aplicaes da Estatstica em problemas da vida real conhecer


qual a distribuio de probabilidade de um conjunto de dados2 . Este problema resolvido
aplicando um teste de hiptese proposto por K. Pearson.
Testar a aderncia entre dados amostrais e populacionais resume-se em testar se valores
amostrais e populacionais deferem significativamente estre si. Seja A1 , . . . , Ak uma partio
do espao amostral de um experimento aleatrio tal que P (Ai ) = pi . Suponha que este
experimento repetido n vezes e que foi o nmero de amostras dentro do evento Ai .
Definindo fei = npi como o nmero esperado de amostras dentro de Ai , a estatstica do teste
k
X
(foi fei )2
Q =
fei
i=1
2

tem uma distribuio que pode ser aproximada por uma 2 , com k 1 graus de liberdade,
se no for necessrio estimar os parmetros populacionais, ou k 1 r, se os r parmetros
populacionais tiverem de ser estimados. Por exemplo, se a suposio for que a populao
segue uma Poisson, r = 1, se Normal, r = 2.
Portanto,
H0 = foi = fei , i,
e o teste consiste em calcular Q2 e comparar com o valor de uma 2 com k 1 ou k 1 r
graus de liberdade e 100(1 )% nvel de confiana.
O numerador de Q2 envolve a diferena de quadrados entre as frequncias observadas e
esperadas. As frequncias tericas vm da populao, so valores tericos, no podem ser
nulos. Tambm, se forem muitos pequenos, Q2 apenas refletir a mgnitude de foi . Portanto,
a literatura sugere que as frequncias esperadas sejam pelo menos 3.
Exemplo 13.7.1: O nmero de defeitos por frequncia, (xi , foi ), numa amostra de 60
brinquedos de determinado fabricante se distribui como abaixo. O objetivo testar se os
dados podem seguir uma Poisson.
xi
0
1
2
3

foi
32
15
9
4

Na verdade, o conjunto de dados so os valores observados de uma, ou mais, varivel aleatria, portanto,
a distribuio de probabilidade relevante a da varivel aleatria que gerou o conjunto de dados.

Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

307

1. Resolvendo o problema sem especificar completamente a distribuio de probabilidade.


Isto significa que supe-se uma distribuio de probabilidade para os dados mas no
se conhece seus parmetros. Os passos para a realizao do teste so:
(i) Varivel do problema, X, nmero de defeitos nos brinquedos analisados.
(ii) H0 : os dados seguem uma Poisson,
H1 : os dados no seguem uma Poisson.
(iii) A estimativa para o parmetro da Poisson a mdia amostral (uma vez que a
mdia da Poisson tambm seu parmetro). Logo, x = ((0 32) + + (3
4))/60 = 0.75 e portanto
X

e0.75 0.75k
, k = 0, 1, . . .
k!

(iv) Calculando as probabilidades tericas:


p0 = P (X = 0) = 0.47,
p1 = P (X = 1) = 0.35,
p2 = P (X = 2) = 0.13,
p3 = P (X = 3) = 0.13,
...
(v) Calculando as frequncias esperadas, fei = npi , i = 0, . . . , 3 e n = 60,
fe0 = 28.2, fe1 = 21, fe2 = 7.8, fe3 = 2.4.
Como fe3 < 3, as duas ltimas frequncias esperadas so adicionadas. Portanto,
para o problema, fe0 = 28.2, fe1 = 21, fe2 = 10.2.
(vi) Calculando a estatstica do teste, Q2 .
2
X
(foi fei )2
= 2.99.
Q =
fei
i=0
2

(vii) Comparando Q2 com o valor de uma 2 com k 1 r = 3 1 1 = 1 graus de


liberdade e com nvel de confiana de 95%.
21,95% = 3.841,
Q2 = 2.99
Q2 < 21,95%
H0 no pode ser rejeitada.
Campos, Rgo & Mendona

13.7. TESTE DE ADERNCIA OU BONDADE DE AJUSTE

308

2. Resolvendo o problema especificando completamente a distribuio de probabilidade.


Neste caso, o parmetro da varivel aleatria populacional conhecido. No problema
em questo a suposio que os dados seguem uma Poisson de parmetro 0.75. Na
realizao do teste o valor (tabelado) da 2 com k 1 = 3 1 = 2 graus de liberdade
e 95% de confiana 5.991, o que fornece a mesma concluso anterior.

Se a varivel for contnua, para o clculo das frequncias esperadas, a reta dividida em
intervalos mutuamente exclusivos e, a seguir, calculadas as probabilidades tericas.

Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

13.8

309

Aprendendo um pouco mais

Os resultados abaixo sumarizam os intervalos de confiana bilaterais mais usados em problemas prticos. Os intervalos em (iii), (iv), (v), (vi) e (vii) so obtidos de forma similar
a que foi usada em (i) e (ii). O fundamento para a construo dos intervalos de confiana
a seguir que tem-se uma populao, representada pela varivel aleatria X, a qual se
2
2
distribui normalmente com mdia X e varincia X
, isto , X N (X , X
), e desta populao foi retirada uma amostra aleatria (X1 , X2 , . . . , Xn ). Enfatiza-se que a distribuio de
probabilidade do estimador tem de ser conhecida. Por exemplo, se o objetivo encontrar
uma estimativa para a mdia da populao, utiliza-se, obviamente, a mdia da amostra e a
distribuio da mdia da amostra tem de ser conhecida.
Se a populao no normal mas a amostra grande pelo TCL a distribuio normal
pode ser usada e portanto os resultados abaixo ainda valem.
2
(i) Para a Mdia (X ), com Varincia (X
) conhecida

(X z/2 X , X + z/2 X ), onde


n
n
P (N (0, 1) z/2 ) = 1

, e
2

X=

1X
Xi .
n i=1

2
) desconhecida
(ii) Para a Mdia (X ), com Varincia (X

SX
SX
(X t/2 , X + t/2 ), onde
n
n
P (tn1 t/2 ) = 1

, e
2

2
SX
=

2
(iii) Para a Varincia (X
)

1 X
(Xi X)2 .
n 1 i=1

2
(n 1)SX
2n1 ,
2
n1
2
2
(n 1)SX
(n 1)SX
,
),
b
a

P (2n1 a) = .
2

P (2n1 b) = 1 .
2

P (a < 2n1 < b) = 1 2 (

Campos, Rgo & Mendona

13.8. APRENDENDO UM POUCO MAIS

310

2
(iv) Para a Diferena de Mdias (X Y ), com Varincias (X
, Y2 ) conhecidas

X Y N (X Y ,
s

2
X
2
+ Y ).
n
n
s

2
mX
, (X Y ) + z/2
nY2

P (N (0, 1) z/2 ) = 1 .
2

((X Y ) z/2

2
mX
).
nY2

(v) Para o Quociente de Varincias ( X2 )


Y

2
X N (X , X
); Y N (Y , Y2 )
2
X , X
, Y , Y2 desconhecidos

(X1 , . . . , Xn ); (Y1 , . . . , Ym )
2
(n 1)SX
2n1 .
2
X

(m 1)SY2
2m1 .
Y2
Logo,
2
SX
SY2
Fn1,m1 .
2
X
Y2
2
2
2
SX
SX
X

(
;
),
Y2
bSY2 aSY2
a = Fn1,m1, 2 ; b = Fn1,m1,1 2 .

P (a < Fn1,m1 < b) = 1

(vi) Para a Diferena de Mdias com Varincias desconhecidas, mas iguais


r
2
2
SX
SX
SY2
S2
2
S =
+
S=+
+ Y.
n
m
n
m
(X t/2 S, X + t/2 S),

P (t/2,(n+m2) t) = ,
2
onde n + m 2 o nmero de graus de liberdade.
(vii) Para a Proporo (p)
p =
r
(
p z/2

Xn
.
n

p(1 p)
, p + z/2
n

P (N (0, 1) z/2)

p(1 p)
).
n

= .
2
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

13.9

311

Exerccios

13.1 Rubens Barrichelo, nos treinos para a temporada de 2000, pilotando uma Ferrari no
circuito de Magny Cours na Frana, fez uma mdia de um minuto e cincoenta segundos
por volta, com um desvio padro de 45 segundos. Sabendo-se que uma corrida nesse
circuito tem 66 voltas, calcule:
(a) Qual a probabilidade dessa corrida ultrapassar o tempo limite de 2 horas?
(b) Qual o tempo provvel da melhor e da pior volta, com 90% de confiana de acerto?
(proposto por Dalton Csar P. Shibuya)
13.2 Os tempos de execuo de um determinado algoritmo obtidos atravs da replicao
de um experimento de simulao foram: 1.5, 2.0, 3.4, 1.8, 2.5 e 5.0. Com 80% de
confiana em que regio se encontra seu tempo mdio de execuo?
13.3 Um analista de sistema precisa decidir sobre a eficincia de um programa desenvolvido
recentemente. Resolve adotar a seguinte regra de deciso: executar o programa 6
vezes para conjuntos de dados escolhidos aleatoriamente e construir um intervalo de
confiana de 98% para o tempo mdio de execuo do programa; considerar o programa
eficiente se a amplitude do intervalo de confiana obtido for menor do que 4.5 ms. Qual
foi a deciso do administrador se os tempos amostrais, em milisegundos (ms), obtidos
foram: 228, 230, 232, 229, 231, 230?
13.4 Os tempos de execuo, em segundos, de 40 programas processados em um centro de
processamento de dados foram
10 19 90
23 13 36
27 1 57
9 11 20

40 15 11 32 17 4
101 2 14 2 43 32
17 3 30 50 4 62
13 38 54 46 12 5

152
15
48
26

Encontre um intervalo de confiana a um nvel de significncia de 10% para o verdadeiro


tempo mdio de execuo dos programas.
13.5 O gerente de um CPD sabe que o nmero de linhas de cdigo, X, de um programa
tem uma distribuio normal com varincia 81. Recentemente este CPD contratou
36 novos estagirios e o gerente resolveu mand-los, cada um independentemente do
outro, otimizar o nmero de linhas de cdigo do programa. O nmero mdio de linhas
decorrente do trabalho dos estagirios foi 100. Encontre um intervalo de confiana de
90% para o nmero mdio de linhas (na populao).
13.6 Um pesquisador est estudando a resistncia de um determinado material. Ele sabe
que essa varivel normalmente distribuda com um desvio padro de 2 unidades.
(a) Utilizando os valores a seguir obtidos de uma amostra, 4.9, 7.0, 8.1, 4.5, 5.6, 6.8,
7.2, 6.2 determine o intervalo de confiana para a resistncia mdia, com um nvel
de confiana de 0.90.
Campos, Rgo & Mendona

13.9. EXERCCIOS

312

(b) Qual o tamanho da amostra necessrio se quisermos que o erro cometido, ao


estimar a resistncia mdia, no seja superior a 0.01 unidades com probabilidade
0.90?
= .
13.7 um estimador no-tendencioso para um parmetro populacional se E()
Seja uma amostra aleatria (X1 , , Xn ) de uma populao cuja distribuio de probabilidade tem esperana e varincia, respectivamente, e 2 . Quais dos estimadores
abaixo so no-tendenciosos para ?
n
(a) 1 = X1 +X
.
2
(b) 2 = X1 +Xn .

(c) 3 =

n
X1 ++Xn
.
n

(d) Qual a distribuio de 3 , se a distribuio de probabilidade da populao normal


e n grande?
13.8 Em um exaustivo teste de vida para 10 componentes que no so vendidas com garantia, os tempos de falha observados, em horas, foram 1200, 1500, 1625, 1725, 1750,
1785, 1800, 1865, 1900 e 1950. Encontre um intervalo de confiana de 90% para o
tempo mdio populacional.
13.9 As diferenas no tempo de processamento entre duas diferentes implementaes de um
mesmo algoritmo foram mensuradas sobre 7 workloads resultando 1.5, 2.6, -1.8, 1.3,
-0.5, 1.7 e 2.4.
(a) Voc pode afirmar, com 90% de confiana que uma implementao superior a
outra?
(b) Teste se a diferena entre as medidas igual a 1 com 99% de confiana.
13.10 Seis similares workloads foram usadas em dois sistemas. As observaes foram (5.4,19.1),
(16.6, 3.5), (0.6,3.4), (1.4,2.5), (0.6,3.6), (7.3,1.7). Voc consideraria um sistema melhor que outro com 95% de confiana?
13.11 Um experimento consistiu de medir 32 vezes o tempo de uso da CPU por um determinado software. Os resultados foram 3.1, 4.2, 2.8, 5.1, 2.8, 4.4, 5.6, 3.9, 3.9, 2.7, 4.1,
3.6, 3.1, 4.5, 3.8, 2.9, 3.4, 3.3, 2.8, 4.5, 4.9, 5.3, 1.9, 3.7, 3.2, 4.1, 5.1, 3.2, 3.9, 4.8, 5.9,
4.2. Encontre um intervalo de confiana para a mdia com 90% de confiana.
13.12 As diferenas entre os valores medidos e os valores preditos usando um modelo analtico
para um sistema chamada de modelagem do erro. A modelagem do erro para um
dado sistema forneceu os seguintes valores -0.04, -0.19, 0.14, -0.09, -0.14, 0.19, 0.04,
0.09. Encontre um intervalo de confiana para a mdia com 95% de confiana.
13.13 O tempo requerido para executar determinada tarefa foi medido em dois sistemas A e
B. Os tempos para o sistema A foram 5.36,16.57, 0.62, 1.41, 0.64, 7.26; para o sistema
B, 19.12, 3.52, 3.38, 2.50, 3.60, 1.74. Ao nvel de 90% voc consideraria os dois sistemas
estatisticamente distintos?
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

313

13.14 A mesma workload foi aplicada 40 vezes a dois sistemas A e B. Constatou-se que o
sistema A foi superior ao B 26 vezes. Ser que podemos afirmar com 99% de confiana
que o sistema A superior?
13.15 Uma populao tem desvio padro igual a 10.
(a) Que tamanho deveria ter uma amostra para que, com probabilidade 8%, o erro
em estimar a mdia seja inferior a 1?
(b) Supondo-se colhida a amostra no caso anterior, qual o intervalo de confiana para
a mdia populacional, se a mdia amostral 50?
13.16 A Tabela 13.7 contm os desvios com respeito aos dimetros de vrios cilindros produzidos por uma determinada mquina. Teste a hiptese de que as observaes obedecem
lei normal se o nvel de significncia de 5% usado.
Tabela 13.7: Dimetro de cilindros.
limites dos intervalos em microns
ni
pi

0-5
15
0.06

5-10
75
0.30

10-15
100
0.40

15-20
50
0.20

20-25
20
0.04

13.17 Uma substncia radioativa observada durante 2608 iguais intervalos de tempo, cada
um com 7.5 segundos. Para cada um dos intervalos de tempo, foi anotado o nmero de
partculas detectador por um contador. Os nmeros mi de intervalos de tempo durante
os quais i partculas alcanaram o contador so dados na tabela abaixo:
Tabela 13.8: Tempo de chegada de partculas ao contador.
i
mi

0
1
2
3
4
5
6
7 8 9 10
57 203 383 525 532 408 273 139 45 27
16

Teste, usando um teste qui-quadrado, a hiptese de que os dados concordam com uma
lei de Poisson. O nvel de significncia deve ser tomado como sendo 5%.
13.18 Na Tabela 13.9 esto listados mi lotes de igual rea (0.25km2 ), na parte Sul de Londres,
cada um dos quais, durante a II Guerra Mundial foi acertado por i bombas. Teste, com
a ajuda da distribuio qui-quadrado que os dados concordam com uma distribuio
de Poisson, se o nvel de significncia de 6% usado.
13.19 Para uma fina camada de soluo com ouro, anotou-se o nmero de partculas de
ouro que alcanaram o campo de viso do microscpio, durante iguais intervalos de
tempo, conforme a Tabela 13.10. Teste, atravs de um teste-de-bondade-de-ajuste
qui-quadrado, usando 5% de significncia, que os dados seguem uma lei de Poisson.
Campos, Rgo & Mendona

13.9. EXERCCIOS

314

Tabela 13.9: Nmero de bombas em lotes de Londres na II Guerra Mundial.


i
mi

0
1 2 3 4 5
229 211 93 35 7
1

Tabela 13.10: Nmero de partculas de ouro que alcanaram o microscpio.


nmero de partculas, i
mi

0
1
2 3 4 5 6 7
112 168 130 68 32 5 1 1

13.20 Dez tiros foram disparados por um rifle em cem alvos. O nmero de acertos foi registrado, na TabelarefTabelaTiro. Teste se as probabilidades de acerto nos alvos foram
as mesmas em todos os tiros; em outras palavras, teste se os dados obedecem a uma
distribuio binomial. Use um nvel de significncia de 10%.
Tabela 13.11: Nmero de acertos de tiros.
nmero de acertos, i
mi

0 1 2 3 4 5 6 7 8 9 10
0 2 4 10 22 26 18 12 4 2 0

13.21 Sete moedas foram lanadas simultaneamente 1536 vzes, e, cada vez, o nmero de
caras, X, foi registrado. Os dados constam na Tabela 13.12. Usando um teste quiquadrado e um nvel de significncia de 5% teste se os dados experimentais obedecem
a uma distribuio binomial. Assuma que a probabilidade de ocorrncia de cara 0.5
em cada moeda.
13.22 Suponha que 250 nmeros foram gerados somando-se os 5 dgitos de 250 nmeros
escolhidos de uma tabela de nmeros aleatrios. Os resultados foram divididos em 15
intervalos e so mostrados na Tabela 13.13. Use um teste qui-quadrado para testar se
a distribuio estatstica dos dados segue uma distribuio normal. Use um nvel de
significncia de 5%.
13.23 Os dgitos 0, 1, 2, 9 entre os primeiros 800 casas decimais do nmero ocorrem 74,
92, 83, 79, 80, 73, 77, 75 e 91 vzes, respectivamente. Use um teste qui-quadrado para
testar a hiptese de que estes dados obedecem a uma lei uniforme. Considere o nvel
de significncia de 10%.
13.24 De uma tabela de nmeros aleatrios, 150 nmeros de dois dgitos foram selecionados
(00 tambm um nmero de dois dgitos). Os resultados aparecem na Tabela 13.14.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

315

Tabela 13.12: Nmero de caras.


Xi
mi

0 1
2
3
4
5 6 7
12 78 270 456 385 252 69 13

Tabela 13.13: Soma de dgitos.


intervalo
0-3
3-6
6-9
9-12
12-15

mi
0
0.5
1.5
10.0
17.5

intervalo
15-18
18-21
21-24
24-27
27-30

mi
28.5
39.0
41.0
45.0
30.5

intervalo
30-33
33-36
36-39
39-42
42-45

mi
27.0
7.5
1.0
1.0
0

Use um teste qui-quadrado para testar a hitese de que estes dados obedecem a uma
lei uniforme, com um nvel de significncia de 5%.
Tabela 13.14: Nmeros de dois dgitos.
intervalo
0-9
10-19
20-29
30-39
40-49

mi
16
15
19
13
14

freq. relativa
0.107
0.100
0.127
0.087
0.093

intervalo
50-59
60-69
70-79
80-89
90-99

mi
19
14
11
13
16

freq. relativa
0.127
0.093
0.073
0.087
0.107

Campos, Rgo & Mendona

13.9. EXERCCIOS

316

Campos, Rgo & Mendona

Referncias Bibliogrficas
1. R. J. Adler, R. E. Feldman, and M. S. Taqqu (1998). A Practical Guide to
Heavy Tails. Statistical Techniques and Applications. Birkhuser.
2. A. O. Allen (1978). Probability, Statistics, and Queueing Theory with Computer
Science Applications. Academic Press.
3. G. vila (1994). ClculoFunes de Vrias Variveis. Volume 2. Livros Tcnicos e
Cientficos Editora.
4. L. Breiman (1969). Probability and Stochastic Processes. Houghton Mifflin Company.
5. C. W. Burrill (1972). Measure, Integration, and Probability. McGraw-Hill.
6. M. A. Campos (1997). Uma Extenso Intervalar para a Probabilidade Real. Tese.
Ps-Graduao em Cincia da Computao, Centro de Informtica/UFPE.
7. K. L. Chung (1974). A Course in Probability Theory. Academic Press, Second
Edition.
8. K. L. Chung (1974). Elementary Probability Theory with Stochastic Processes. SpringerVerlag.
9. A. B. Clarke e R. L. Disney (1979). Probabilidade e Processos Estocsticos. Livros
Tcnicos e Cientficos.
10. D. M. Cludio e J. M. Marins (1994) Clculo Numrico Computacional. Teoria e
Prtica. Editora Atlas.
11. W. J. Cody (1988). Floating-Point Standards, Theory and Practice. Reliability
in Computing. The Role of Interval Methods in Scientific Computing, Editor R. E.
Moore, pages 99-108, Vol. 19.
12. P. L. de O. Costa Neto e M. Cymbalista (1974). Probabilidades: resumos tericos,
exerccios resolvidos, exerccios propostos. Edgard Blcher.
13. D. Ellsberg (1961). Risk, Anbiguity, and the Savage Axioms. Quaterly Journal of
Economics 75 (4): 643-669. DOI: 10.2307/1884324.
317

13.9. EXERCCIOS

318

14. W. Feller (1976). Introduo Teoria das Probabilidades e suas Aplicaes. Edgard
Blcher Ltda.
15. W. Feller (1967). An Introduction to Probability Theory and Its Applications. Volume
I. Third Edition. John Wiley & Sons.
16. W. Feller (1971). An Introduction to Probability Theory and Its Applications. Volume
II. Second Edition. John Wiley & Sons.
17. P. J. Fernandez (1973). Introduo Teoria das Probabilidades. Livros Tcnicos e
Cientficos.
18. T. Fine (2005). Probability and Probabilistic Reasoning for Electrical Engineers. Prentice Hall.
19. G. E. Forsythe (1977). Pitfalls in Computation, or Why a Math Book Isnt Enough.
Amer. Math. Monthly, pp. 931-955.
20. D. Goldberg (1991). What Every Computer Scientist Should Know About FloatingPoint Arithmetic. ACM Computing Surveys, Vol. 23, No. 1, pp 5-48.
21. B. V. Gnedenko (1969). The Theory of Probability. Mir Publishers.
22. C. M. Grinstead and J. L. Snell (1991). Introduction to Probability. American
Mathematical Society.
23. H. L. Guidorizzi (1994). Um Curso de Clculo. Volume 4. Livros Tcnicos e
Cientficos Editora.
24. J. Halpern (2003). Reasoning about Uncertainty. The MIT Press.
25. P. G. Hoel, S. C. Port and C. J. Stone (1978). Introduo Teoria da Probabilidade. Intercincia.
26. R. V. Hogg and A. T. Craig (1970). Introduction to Mathematical Statistics.
Macmillan.
27. R. Isaac (1995). The Pleasures of Probability. Springer-Verlag.
28. R. Jain (1991). The Art of Computer Systems Performance Analysis. Techniques for
Experimental Design, Measurement, Simulation, and Modeling. John Wiley & Sons.
29. B. R. James (1981). Probabilidade: um curso em nvel intermedirio. IMPA, CNPq.
30. A. N. Kolmogorov (1950). Foundations of the Theory of Probability. Chelsea Publishing Company.
31. U. W. Kulisch and W. L. Miranker (1981). Computer Arithmetic in Theory and
Practice. New York, Academic Press.
Campos, Rgo & Mendona

CAPTULO 13. UMA INTRODUO INFERNCIA ESTATSTICA

319

32. W. Kuo and M. J. Zuo (2003). Optimal Reliability Modeling Principles and Applications. John Wiley & Sons.
33. E. Lebensztayn e C. F. Coletti (2008). Notas de Aula. Disponvel em
http://www.ime.usp.br/~seccpg/mae. Acessado em agosto de 2010.
34. B. W. Lindgren (1968). Statistical Theory. Macmillan.
35. S. Lipschutz (1993). Probabilidade. Coleo Schaum, 4a. Edio Revisada. Makrom
Books.
36. P. L. Meyer (1983). Probabilidade. Aplicaes Estatstica. Livros Tcnicos e
Cientficos.
37. D. C. Montgomery and G. C. Runger (2003). Estatstica Aplicada e Probabilidade
para Engenheiros. Segunda Edio, Livros Tcnicos e Cientficos.
38. R. E. Moore (1966). Interval Analysis. Prentice Hall, Inc. Englewood Cliffs.
39. R. E. Moore (1979). Methods and Applications of Interval Analysis. SIAM, Philadelphia.
40. F. Mosteller (1965). Fifty Challenging Problems in Probability. Dover Publications.
41. M. F. Neuts (1995). Algorithm Probability. A collection of problems. Stochastic
Modeling Series. ISBN 0 412 99791 X. Chapman & Hall.
42. E. Parzen (1960). Modern Probability Theory and Its Applications. John Wiley &
Sons.
43. E. Parzen (1964). Stochastic Processes. Holden-Day. Second Edition.
44. P. E. Pfeiffer (1978). Concepts of probability theory. Second Revised Edition, Dover
Publications, Inc.
45. S. M. Ross (1993). Introduction to Probability Theory. Academic Press.
46. S. Russel and P. Norvig (1995). Artifitial Intelligence. A Modern Approach. Prentice Hall.
47. J. D. dos Santos e Z. C. da Silva (2010). Mtodos Numricos. Editora Universitria/UFPE. 3a. Edio revisada.
48. M. das Graas dos Santos (2010). Probabilidades Autovalidveis para as Variveis Aleatrias Exponencial, Normal e Uniforme. Tese de Doutorado. Doutorado em
Matemtica Computacional, CCEN/CIn/UFPE.
49. A. N. Shiryayev (1984). Probability. Springer-Verlag, New York, Inc.
50. F. Solomon (1987). Probability and Stochastic Processes. Prentice-Hall, Inc.
Campos, Rgo & Mendona

13.9. EXERCCIOS

320

51. M. R. Spiegel (1978). Probabilidade e Estatstica. Coleo Schaum, McGraw.


52. P. H. Sterbenz (1974). Floating-Point Computation. Prentice-Hall, Englewood
Cliffs, N. J.
53. D. Stevenson. (1981). A Proposed Standard for Binary Floating-Point Arithmetic.
Computer, Vol. 14, No. 3, pp. 51-62.
54. J. M. Stoyanov (1997). Counterexamples in Probability. Second Edition. John Wiley
& Sons.
55. J. M. Stoyanov, I. Mirazchiiski, Z. Ignatov and M. Tamushev (1989). Exercise
Manual in Probability Theory. Kluwer Academic Publishers.
56. A. A. Sveshnikov (1978). Problems in Probability Theory, Mathematical Statistics
and Theory of Random Functions. Dover.
57. K. S. Trivedi (1982). Probability and Statistics with Reliability, Queueing and Computer Science Applications. Prentice-Hall.
58. H. C. Tuckwell (1995). Elementary Applications of Probability Theory. With an
introdution to stochastic differential equations. Chapman & Hall.
59. J. S. Vandergraft (1983). Introduction to Numerical Computations. Second Edition.
Academic Press.
60. N. A. Weiss and M. L. Yoseloff (1975). Matemtica Finita. Guanabara Dois.
61. E. Wentzel and L. Ovcharov (1986). Applied Problems in Probability Theory. Mir
Publishers.
62. J. H. Wilkinson (1963). Rounding Errors in Algebraic Processes. Her Majestys
Stationery Office.

Campos, Rgo & Mendona

Apndice A
Nmeros de ponto-flutuante e
Arredondamentos
Este apndice refere-se questo da representao dos nmeros reais atravs de nmeros de
ponto-flutuante.

A.1

Nmeros de ponto-flutuante

Todo nmero real x pode ser unicamente representado pela expanso b-dica (Kullisch e
Miranker 1979, 1981)
x = dn dn1 . . . d1 d0 d1 . . . =

di bi

(1)

i=n

onde,
{+, }, b IN, b > 1,
0 di b 1, i = n(1)(),
di b 2, para uma quantidade infinita de ndices i.
Em (1) o ponto b-dico pode ser mudado para qualquer posio desde que esta mudana
seja convenientemente compensada. Se o ponto for mudado para a esquerda do primeiro
dgito no nulo da expanso b-dica do nmero x, atravs da multiplicao por uma correspondente potncia de b, ento tem-se o nmero x na forma normalizada. O nmero zero
possui uma representao especial no normalizada.
A seguir uma explicao da necessidade da condio di b 2 para uma quantidade
infinita de ndices i.
0.3000 = 3 101 + 0 102 + = 3 101 + + 0 10n + . . .
0.2999 = 2 101 + 9 102 + = 2 101 + + 9 10n + . . .
Portanto as sequncias
s1n = 3 101 + + 0 10n
321

A.1. NMEROS DE PONTO-FLUTUANTE

322

s2n = 2 101 + + 9 10n


so montonas e limitadas, ento convergem, e convergem para 0.3. Como pode ser visto
em s2n , di 6 b 2 para uma quantidade infinita de ndices i. Note que
s3n = 2 101 + 8 102 + + 8 10n
converge para 0.29.
Seja Rb o conjunto de todos os x normalizados, mais o zero; em geral Rb no pode ser
representado em computadores. Um subconjunto de Rb que representvel definido a
seguir.
Definio A.1.1: Um nmero real x chamado um nmero de ponto-flutuante normalizado
(Sterbenz 1974, Goldberg 1991, Forsythe 1977) ou um nmero de ponto-flutuante se
x = 0.d1 d2 . . . dl be

(2)

{+, }, b IN, b > 1,

(3)

1 d1 b 1,

(4)

0 di b 1, i = 2, . . . , l,

(5)

emin e emax .

(6)

onde,

e, emin e emax so nmeros inteiros, b a base da representao, o sinal de x, m =


0.d1 d2 . . . dl a mantissa e e o expoente. A mantissa tem comprimento l. Representa-se o
nmero zero unicamente por
0 = 0.00 . . . 0 bemin
F (b, l, emin , emax ) um sistema de ponto-flutuante, onde cada x F , x 6= 0, satisfaz,
(2),(3),(4),(5),(6). Uma caracterstica de F que,
0 F,
1 F,
x F x F, x F.
F um conjunto finito. Tem exatamente 2(b 1)bl1 (emax emin + 1) + 1 elementos,
que s so igualmente espaados entre sucessivas potncias de b. Porque F finito no h
possibilidade de se representar o conjunto dos reais em detalhes. Como um modelo para
IR, o conjunto F tem uma aritmtica definida sobre ele. A questo que esta aritmtica
no satisfaz propriedades bsicas do ponto de vista da soluo de problemas numricos no
conjunto dos reais. Supondo que x e y so nmeros de ponto-flutuante, ento nem sempre
x + y ou x y esto em S. A manipulao algbrica de frmulas baseada em algumas
leis fundamentais que so vlidas nos reais, mas no em F; Goldberg (1991) e Sterbenz
(1974) mostram que, considerando as operaes aritmticas de adio e multiplicao em F ,
respectivamente, + e , so vlidas (V) e no so vlidas(F).
Campos, Rgo & Mendona

APNDICE A. NMEROS DE PONTO-FLUTUANTE E ARREDONDAMENTOS 323


(V)
(V)
(V)
(V)
(V)
(F)
(F)
(F)
(F)

a + b = b + a, a, b F ,
a b = b a, a, b F ,
a + 0 = 0 + a = a, a F ,
a 1 = 1 a = a, a F ,
a F, (a) F tal que a + (a) = (a) + a = 0,
(a + b) + c = a + (b + c), a, b, c F ,
(a b) c = a (b c), a, b, c F ,
a b = a c b = c a, b, c F, a 6= 0,
a (b + c) = (a b) + (a c), a, b, c F .

Os primeiros computadores adotaram sistemas de representao de ponto-flutuante com


diferentes bases, tamanho da palavra, nmero de dgitos significativos, etc. Este fato ocasionava srios problemas tais como dificuldade de raciocinar em torno de provas relacionadas
com algoritmos que geravam nmeros de ponto-flutuante, porque os resultados aritmticos
eram dependentes da mquina. Alm disso, a ausncia de um padro que especificasse de
modo detalhado as operaes bsicas e os formatos de dados acarretava a falta de portabilidade dos softwares. O esforo para produzir um padro para ponto-flutuante originou o
IEEE 7541 (Cody 1988, Goldberg 1991, Stevenson 1991).
Exemplo A.1.2: Seja F (b, l, emin , emax ).
(a) Quantos expoentes F tem, ou qual a excurso do expoente?
emax emin + 1
(b) Quantas so as mantissas positivas de F ?
(b 1)bl1 (emax emin + 1)
(c) Qual o maior elemento de F , ou qual o mximo do conjunto F ?
xmax = 0.(b 1)(b 1) . . . (b 1) bemax
(d) Qual o menor elemento de F , ou qual o mnimo do conjunto F ?
xmax
(e) Qual o menor elemento positivo de F ?
xmin = 0.(b 1)0 . . . 0 bemin
(f ) Qual o maior elemento negativo de F ?
xmin
1

IEEE Standard for Binary Floating-Point Arithmetic

Campos, Rgo & Mendona

A.1. NMEROS DE PONTO-FLUTUANTE

324

Este exemplo alm de exibir elementos de F enfatiza a impossibilidade de F representar


todos os nmeros reais. Seja m R IR o conjunto dos reais representveis em qualquer
computador onde os nmeros reais sejam representados pelos nmeros de ponto-flutuante.
Portanto,
R = [xmax , xmin ] {0.0 . . . 0 bemin } [xmin , xmax ],
onde
[xmax , xmin ] = {x IR : xmax x xmin }
e
[xmin , xmax ] = {x IR : xmin x xmax }.
Nem todos os elementos de R so representveis em F e qualquer real fora de R no
representvel em F . Os reais no representveis esto nas regies de underflow
(xmin , 0.0 . . . 0 bemin ) (0.0 . . . 0 bemin , xmin )
e overflow,
(, xmax ) (xmax , +)
Exemplo A.1.3: Seja F (10, 3, 2, 2).
(a) Qual a representao do 0?
+0.000 102
(b)
xmin = 0.100 102
(c)
xmax = 0.999 102
(d) Qual a representao do 1?
0.100 101
(f ) Quantos expoentes entre e inclusive os expoentes 2 e 1?
1 (2) + 1 = 4
(g) Quantas mantissas entre e inclusive os expoentes 2 e 1?
(2 (2)) 9 102 + 1 = 3601
Quantos elementos entre e inclusive os expoentes 2 e 1?
(2 emin )(b 1)bl1 = 3600

Campos, Rgo & Mendona

APNDICE A. NMEROS DE PONTO-FLUTUANTE E ARREDONDAMENTOS 325

A.2

Arredondamentos

Arredondar um nmero real x tem o significativo prtico de transformar x em um nmero de


F . Esta transformao realizada atravs de uma funo denominada de arredondamento.
Definio A.2.1 :
definida por

Seja F = F (b, l, emin , emax ). Um arredondamento uma funo O


O:RF
Ox = xF

satisfazendo aos seguintes axiomas:


(i)
Ox = x, x F.
Isto , o arredondamento no altera os elementos de F .
(ii)
x y Ox Oy.
Portanto, a relao de ordem em R () preservada pela relao de ordem em F ().
(iii) Seja x R, x 6 F e xF = Ox. Ento, 6 yF F entre x e xF .
Este axioma afirma que xF o elemento de F mais prximo de x R.
Os arredondamentos mais comuns so:
(i) 5, arredondamento para baixo ou em direo a ,
5:RF
x R, 5x = max{yF : yF x.}
(ii) 4, arredondamento para cima ou em direo a +,
4:RF
x R, 4x = min{yF : yF x.}
(iii) , arredondamento para o mais prximo ou arredondamento simtrico,

0, x [0, bemin 1 ),
),
5x, x [5x, 5x+4x
x 0, x =
2

5x+4x
4x, x [ 2 , 4x].
x < 0, x = (x).
Campos, Rgo & Mendona

A.2. ARREDONDAMENTOS

326

Convm enfatizar que 5, 4 e  satisfazem aos axiomas da Definio A.2.1, e que 5 e


4 so exaustivamente usados na matemtica intervalar e na aritmtica de exatido mxima
(Moore (1966,1979), Kulisch e Miranker (1981)).
Santos e Silva (2010) provam que, fixado o expoente e, a distncia entre dois nmeros
de ponto-flutuante consecutivos bel+1 . Portanto, 21 bel+1 o erro de arredondamento
cometido no arredondamento, especificamente o simtrico,
| x x | = 0, x = x,
1 el+1
b
, x 6= x.

2
Os exemplos a seguir ilustram como realizar os arredondamentos 5, 4 e .
Exemplo A.2.2: Seja F (10, 4, 99, 99) e x = 0.432987. Portanto
5x = 0.4329 100 , 4x = 0.4330 100 , x = 0.4330 100

Uma forma de computar x encontrar os dois nmeros de ponto-flutuante que contm


x, x1F e x2F e atribuir a x o valor arredondado que apresentar a menor distncia, em valor
absoluto, a x.
Exemplo A.2.3: Seja F (10, 4, 99, 99) e x = 0.432987. Portanto
x1F = 0.4329 100 < 0.432987 < x2F = 0.4330 100 ,
logo, | 0.4329 0.432987 |= 0.000087 e | 0.4330 0.432987 |= 0.000013, ento x =
0.4330 100 .
Exemplo A.2.4: Seja F (10, 4, 99, 99) e x = 0.34835.
5x = 0.3493, 4x = 0.3494, x = 0.3494

Exemplo A.2.5: Este exemplo s sobre o arredondamento simtrico. A primeira coluna do quadro abaixo contm elementos de R, como, por exemplo, seriam digitados numa
calculadora ou num computador digital. Na segunda coluna o elemento posto no formato
normalizado enfatizando quais dgitos vo ser descartados, na terceira coluna tem-se o valor
em F e por ltimo, como, usualmente resultados so exibidos.
xR
232.489
16.17554
2.43456
2.43556
2.438556
0.34935
0.00012467

= 0.2324 |{z}
89 10
= 0.1617 |{z}
554 102
= 0.2434 |{z}
56 101
= 0.2435 |{z}
56 101
= 0.2438 |{z}
556 101
= 0.3493 |{z}
5 100
= 0.1246 |{z}
7 103

x
:= 0.2325 103
:= 0.1618 102
:= 0.2435 101
:= 0.2436 101
:= 0.2439 101
:= 0.3494 100
:= 0.1247 103

= 232.5
= 16.18
= 2.435
= 2.436
= 2.439
= 0.3494
= 0.0001247

Campos, Rgo & Mendona

APNDICE A. NMEROS DE PONTO-FLUTUANTE E ARREDONDAMENTOS 327

Para concluir, enfatiza-se que a tarefa de representar e operar com os nmeros reais em
computadores rdua. Inicialmente vem a escolha da representao (ponto-flutuante) em
seguida como implementar na mquina (processador aritmtico) a representao escolhida.

Campos, Rgo & Mendona

ndice
cardinalidade, 2
conjunto, 1

328

Você também pode gostar