Escolar Documentos
Profissional Documentos
Cultura Documentos
Prefcio
Este livro contempla um programa introdutrio de Probabilidade, Estatstica, Processos
Estocsticos e Estatstica Descritiva. O livro organizado de forma tal que pode ser utilizado
tanto em um curso de graduao (semestral) nas reas de exatas e tecnologia, bem como
um curso de mestrado profissionalizante destas reas. A seo Aprendendo um pouco mais
apresenta os tpicos mais tcnicos para um curso de graduao, e so mais adequados para
um estudante de ps-graduao ou para os estudantes de graduao mais curiosos.
Partes foram geradas a partir da experincia do segundo autor ministrando disciplinas
de probabilidade para graduao em diversos cursos de Engenharia e no Bacharelado em Estatstica da UFPE desde 2006 e tambm no mestrado em Estatstica da UFPE desde 2007.
Outras partes deste livro foram geradas a partir de cursos com este programa ministrados
pela primeira autora nas graduaes de Cincia da Computao e Engenharia da Computao no Centro de Informtica/UFPE desde 1998. Aplicaes de probabilidade na modelagem
de falhas de sistemas foram introduzidas pelo terceiro autor, bem como as ilustraes dessa
obra.
Como o objetivo que possa ser usado como um livro de texto, o livro contm exerccios
resolvidos e outros propostos. Respostas da alguns dos problemas propostos encontram-se
ao final de cada captulo. Muitos dos exerccios so retirados dos excelentes livros constantes
nas referncias.
Recife, novembro de 2012
Marcilia Andrade Campos, Leandro Chaves Rgo & Andre Feitoza de Mendona
iii
iv
Lista de Smbolos
IN
Z
Z+
Q
I
IR
C
I
P(A), 2A
a, b, x, y
~x
F
A
B
A, B
Ac ou A
P (A)
P (A | B)
X, Y , Z
(X1 , , Xn ) ou X1 , , Xn
iid
f
fX
F
FX
FX~
~
X
||A||
vi
<
>
6
=
:
| |
Akn , (n)k
Cnk ou nk
!
interseo
unio
e
ou
no
pertence
no pertence
menor
maior
menor ou igual
maior ou igual
incluso
incluso estrita
aproximadamente igual
diferente
equivalente
para todo ou qualquer que seja
existe
tal que
valor absoluto
arranjo de n elementos tomados k deles
combinao de n elementos tomados k deles
fatorial
Contedo
Prefcio
iii
Lista de Smbolos
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
sem reposio .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
4
5
6
7
7
8
10
10
11
12
14
15
16
17
19
23
29
31
.
.
.
.
.
.
.
.
37
37
37
38
39
39
40
41
43
viii
2.6
2.7
.
.
.
.
CONTEDO
. . . . . 43
. . . . . 44
. . . . . 45
. . . . . 47
51
51
62
67
73
73
74
75
78
78
80
81
82
83
84
94
95
Funes
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
de Fun. . . . .
. . . . .
101
101
101
103
103
104
108
115
116
120
122
128
129
130
134
CONTEDO
6.4 Esperana Matemtica de Funes e Vetores de
Variveis Aleatrias . . . . . . . . . . . . . . . .
6.4.1 Caso Discreto . . . . . . . . . . . . . . .
6.4.2 Caso Contnuo . . . . . . . . . . . . . .
6.5 Momentos . . . . . . . . . . . . . . . . . . . . .
6.5.1 Momentos Centrais. Varincia . . . . . .
6.5.2 Propriedades da Varincia . . . . . . . .
6.6 A Desigualdade de Tchebychev . . . . . . . . .
6.7 Momentos Conjuntos . . . . . . . . . . . . . . .
6.8 Aprendendo um pouco mais . . . . . . . . . . .
6.8.1 Interpretao Geomtrica da Esperana .
6.9 Exerccios . . . . . . . . . . . . . . . . . . . . .
ix
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
144
144
147
149
150
152
153
154
156
158
162
.
.
.
.
.
.
.
.
.
.
167
167
168
169
171
173
175
176
180
181
185
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
191
191
193
195
198
199
200
201
201
203
204
205
206
206
207
208
209
x
9 Confiabilidade: Probabilidade aplicada
9.1 Introduo e Definies . . . . . . . . . . . .
9.2 Distribuies para Confiabilidade . . . . . .
9.2.1 Distribuio Exponencial para Falhas
9.2.2 Distribuio Weibull para Falhas . .
9.3 Sistemas Complexos . . . . . . . . . . . . .
9.3.1 Configurao em srie . . . . . . . .
9.3.2 Configurao em paralelo . . . . . . .
9.4 Exerccios . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CONTEDO
215
. . . . . 215
. . . . . 221
. . . . . 222
. . . . . 223
. . . . . 224
. . . . . 224
. . . . . 227
. . . . . 229
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
231
231
232
234
236
237
237
238
238
238
239
.
.
.
.
.
.
.
.
.
.
.
.
245
245
246
248
248
248
250
251
251
251
253
255
259
.
.
.
.
.
.
.
263
263
264
264
265
268
271
278
. . . . . . .
observaes
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CONTEDO
13 Uma Introduo Inferncia Estatstica
xi
279
. . . . . . . . . . . . . . . . . 284
317
321
Captulo 1
Probabilidade: definies, propriedades
Que ferramentas usar, e como, analisar, entender, modelar as seguintes situaes:
(i) anlise de tempo de execuo de um algoritmo:
pior caso (worst-case);
caso mdio (average-case).
(ii) alocamento dinmico de memria;
(iii) anlise do erro de arredondamento acumulado em um algoritmo numrico;
(iv) anlise de um sistema computacional servindo a um grande nmero de usurios.
Modelagem dessas situaes so diferentes da modelagem, por exemplo, de enviar uma
aeronave ao espao e monitorar sua rbita! Lanar uma moeda e observar a face voltada
para cima, lanar um dado e observar o nmero na face voltada para cima, tirar uma carta
do baralho e ver qual o naipe, contar o nmero de usurios acessando o servidor de e-mail em
um dado instante, contar o nmero de arquivos na fila de uma impressora, entre outros, so
situaes cujo resultado foge ao controle do observador. Neste caso a modelagem matemtica
proposta denominada de probabilstica ou estocstica, a qual realizada fundamentalmente
pela Teoria da Probabilidade ou Processos Estocsticos.
Este captulo inicia o estudo de probabilidade deste livro. Para tanto, inicialmente, antes
de entrar no estudo de probabilidade, conceitos bsicos sobre conjuntos so apresentados.
1.1
Conjuntos
Definio 1.1.1:
ordenados.
Na Estatstica comum se falar de conjuntos incluindo o caso onde seus elementos no so distintos.
Por exemplo, o conjunto dos tempos de acesso a um banco de dados, o conjunto das notas de uma dada
disciplina, entre outros, pode ter valores iguais
1.1. CONJUNTOS
2
Esta definio intuitiva de um conjunto foi dada primeiramente por Georg Cantor (18451918), que criou a teoria dos conjuntos em 1895. Um conjunto pode ser especificado, listando
seus elementos dentro de chaves. Por exemplo,
A = {0, 1, 2, 3, 5, 8, 13}, B = {0, 1, 2, . . . , 1000}.
Alternativamente, um conjunto pode ser especificado por uma regra que determina seus
membros, como em:
C = {x : x inteiro e positivo} ou D = {x : x par}.
Como em um conjunto a ordem dos elementos no importa, tem-se que:
{1, 2, 3} = {2, 3, 1}.
Se um dado elemento faz parte de um conjunto, diz-se que ele pertence ao conjunto e
denota-se isso com smbolo . Por exemplo, 2 D = {x : x par} ou 3 E = {x :
primo }.
Por outro lado, se um dado elemento no faz parte de um conjunto, diz-se que ele no
pertence ao conjunto e denota-se isso com o smbolo .
/ Por exemplo, 3
/ D = {x : x par}
ou 4
/ E = {x : x primo}.
preciso ter cuidado ao distinguir entre um elemento como 2 e o conjunto contendo
somente este elemento {2}. Enquanto, tem-se 2 F = {2, 3, 5}, {2}
/ F = {2, 3, 5}, pois o
conjunto contendo somente o elemento 2 no pertence F .
Exemplo 1.1.2: Seja G = {2, {3}}. Ento, 2 G e {3} G, porm 3
/ G.
O tamanho de um conjunto A, ||A||, a quantidade de elementos que ele possui, a
qual chamada de sua . A cardinalidade pode ser finita, infinita enumervel, ou infinita
no-enumervel. Um conjunto finito quando existe uma funo bijetiva cujo domnio
igual a este conjunto e a imagem o conjunto dos inteiros no-negativos menores que um
nmero finito; seus elementos podem ser contados, sendo possvel exibir seu ltimo elemento.
Um conjunto infinito enumervel tem exatamente a mesma quantidade de elementos que os
naturais, ou seja, existe uma funo bijetiva cujo domnio igual a este conjunto e a imagem
igual ao conjunto dos naturais. Um conjunto enumervel se ele for finito ou infinito
enumervel. Um conjunto no-enumervel se ele no for enumervel. Por exemplo, os
seguintes conjuntos so enumerveis:
Nn = {0, 1, 2, . . . , n 1},
Z = {x : x um inteiro},
Z + = {x : x um inteiro positivo},
Q = {x : x racional}.
Para notar que o conjunto dos nmeros racionais enumervel considere a seguinte matriz
de nmeros racionais. (Lembrando que um nmero x racional se pode ser escrito sob a
forma pq , onde p e q so inteiros e q 6= 0.)
Campos, Rgo & Mendona
0/1
1/1
2/1
.
2/3
2/2
.
..
.
1/3
1/2
.
3/1
0/3
0/2
.
.
3/2
.
..
..
.
.
3/3
.
..
..
.
.
..
Esta matriz contm todos os racionais no-negativos. Utilizando o mtodo da diagonalizao, os elementos da matriz so ordenados, sem repetio, da seguinte forma:
0/1, 1/1, 1/2, 2/1, 1/3, 3/1, . . .
Definindo-se uma correspondncia f onde para cada racional no-negativo r, f (r) representa a posio em que r aparece na sequncia acima, tem-se que f uma correspondncia 1-1
entre os racionais no-negativos e os naturais. Por exemplo, temos que f (1/2) = 3, f (3) = 6.
Pode-se definir g no conjunto de todos os racionais tal que tal que g(r) = 2(f (r) 1) se
r > 0, e g(r) = 2f (|r|) 1 se r 0. Desse modo, g(r) um natural par se r for um racional positivo, e um natural mpar, se r for um racional no-positivo. Portanto, g(r) uma
correspondncia 1-1 entre os racionais e os naturais, o que implica que os racionais formam
um conjunto enumervel.
Por outro lado, os conjuntos abaixo so no-enumerveis:
IR = {x : x um nmero real},
(a, b) = {x : a < x < b}, onde a < b,
[a, b] = {x : a x b}, onde a < b.
Em muitos problemas o interesse estudar um conjunto definido de objetos. Por exemplo,
o conjunto dos nmeros naturais; em outros, o conjuntos dos nmeros reais; ou ainda, por
todas as peas que saem de uma linha de produo durante um perodo de 24h, etc. O
conjunto que contm todos os elementos objeto de estudo chamado de conjunto universo e
denotado por . Por outro lado, o conjunto especial que no possui elementos chamado
de conjunto vazio e denotado por . Este conjunto tem cardinalidade 0 e portanto finito.
Por exemplo,
= {} = {x : x IR e x < x} ou = (a, a).
Dois conjuntos A e B podem ser relacionados atravs da relao de incluso, denotada
por A B, e lida A um subconjunto de B ou B contm A, quando todo elemento de A
tambm elemento de B. Quando A no for subconjunto de B, denota-se por A 6 B. Diz-se
que A um subconjunto prprio de B quando se tem A B, A 6= , e B 6 A. Se A
subconjunto de B, ento B chamado um superconjunto de A. Diz-se que A e B so iguais
se e somente se A B e B A. Se A B, ento tambm pode-se dizer que B A.
Campos, Rgo & Mendona
1.1. CONJUNTOS
1.1.1
(iii) Associatividade: A (B C) = (A B) C e A (B C) = (A B) C.
Prova: Exerccio.
(iv) Distributividade: A (B C) = (A B) (A C) e A (B C) = (A B) (A C).
Prova: Exerccio.
(v) Leis de De Morgan: (A B)c = Ac B c e (A B)c = Ac B c .
Prova: Suponha que (A B)c . Ento,
/ (A B), o que por sua vez implica
c
que
/ A e
/ B. Logo, A e B c , ou seja, (Ac B c ). Ento,
(A B)c (Ac B c ). Agora suponha que (Ac B c ). Ento, Ac e B c , o
que por sua vez implica que
/Ae
/ B. Logo,
/ (A B), ou seja, (A B)c .
Ento, (Ac B c ) (A b)c . Portanto, (Ac B c ) = (A b)c .
A prova da outra Lei de De Morgan anloga e deixada como exerccio.
As Leis de De Morgan permitem que se possa expressar unies em termos de interseces
e complementos e interseces em termos de unies e complementos.
Unies e interseces podem ser estendendidas para colees arbitrrias de conjuntos.
Seja I um conjunto qualquer. Este conjunto I ser utilizado para indexar, ou seja, identificar
atravs de um nico smbolo os conjuntos na coleo arbitrria de interesse e desse modo
simplificar a notao utilizada. Por exemplo, se I = {1, 5, 7}, ento iI Ai = A1 A5 A7 ;
ou, se I = IN, ento iIN Ai = A1 A2 An .
De modo anlogo ao caso de dois conjuntos, define-se:
iI Ai = { : pertence a pelo menos um dos conjuntos Ai , onde i I, }
e
iI Ai = { : pertence a todo Ai , onde i I.}
Se I for um conjunto enumervel, diz-se que iI Ai , respectivamente, iI Ai , uma
unio, respectivamente interseco, enumervel de conjuntos.
Exemplo 1.1.5: Se Ai = [1, 2 + 1i ), i IN, ento iIN Ai = [1, 3) e iIN = [1, 2].
1.1.2
Produto Cartesiano
1.1. CONJUNTOS
1.1.3
Definio 1.1.7: Dado um conjunto qualquer A, pode-se definir um outro conjunto, conhecido como conjuntos das partes de A, e denotado por 2A , cujos elementos so subconjuntos
de A.
Exemplo 1.1.8: Seja A = {1, 2, 3}, ento
2A = {, A, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}.
Pode-se provar que a cardinalidade do conjunto das partes de qualquer conjunto dado A
maior que a cardinalidade de A.
Teorema 1.1.9: Se A um conjunto e 2A o conjunto das partes de A, no existe uma
funo f : A 2A que seja sobrejetiva.
Prova: Recorde que uma funo g : D I sobrejetiva se para todo y I, existe x D
tal que g(x) = y. Suponha por contradio, que existe uma funo sobrejetiva f : A 2A .
Defina o conjunto, B = {x A : x
/ f (x)}. Como f por suposio sobrejetiva e
A
B 2 , tem-se que existe b A tal que f (b) = B. Existem dois casos a considerar: b B
ou b B c . Se b B, ento b
/ f (b). Mas como B = f (b), tem-se que b
/ B, absurdo. Se
c
b B , ento b f (b). Mas como B = f (b), tem-se que b B, absurdo.
Campos, Rgo & Mendona
1.1.4
Partio
Intuitivamente, uma partio de um conjunto universo uma maneira de distribuir os elementos deste conjunto em uma coleo arbitrria de subconjuntos. Formalmente, tem-se a
seguinte definio:
Definio 1.1.10: Dado um conjunto universo , uma partio = {A , I} de
uma coleo de subconjuntos de (neste caso, indexados por que toma valores no
conjunto de ndices I) e satisfaz:
(i) Para todo 6= , A A = ;
(ii) I A = .
Deste modo os conjuntos de uma partio so disjuntos par a par e cobrem todo o conjunto
universo. Portanto, cada elemento pertence a um, e somente um, dos conjuntos A
de uma partio.
Exemplo 1.1.11: Se = {1, 2, 3, 4}, ento {A1 , A2 }, onde A1 = {1, 2, 3} e A2 = {4},
uma partio de .
Exemplo 1.1.12: A coleo de intervalos {(n, n + 1] : n Z} uma partio dos nmeros
reais IR.
1.1.5
Funo Indicadora
sempre conveniente representar um conjunto A por uma funo IA tendo domnio (conjunto
dos argumentos da funo) e contra-domnio (conjunto dos possveis valores da funo)
binrio {0, 1}.
Definio 1.1.13: Funo Indicadora. A funo indicadora IA : {0, 1} de um
conjunto A dada por
1, se A,
IA () =
0, se
/ A.
fcil observar que I () = 1, e que I () = 0, . Note que existe uma
correspondncia 1-1 entre conjuntos e suas funes indicadoras:
A = B ( )IA () = IB ().
Esta relao entre conjuntos e suas respectivas funes indicadoras permite usar a aritmtica de funes indicadoras para explorar propriedades de conjuntos. fcil provar as
seguintes propriedades de funes indicadoras:
IAc = 1 IA ,
A B IA IB ,
IAB = min(IA , IB ) = IA IB ,
IAB = max(IA , IB ) = IA + IB IAB ,
IAB = max(IA IB , 0) = IA IB c .
Campos, Rgo & Mendona
1.2
10
1.3
Experimento Aleatrio
1.4
Espao Amostral
O conjunto de possveis resultados de um experimento aleatrio chamado de espao amostral. Em um dado experimento aleatrio a especificao do espao amostral deve ser tal que
este (i) liste todos os possveis resultados do experimento sem duplicao e o (ii) faa em
um nvel de detalhamento suficiente para os interesses desejados, omitindo resultados que,
embora logicamente ou fisicamente possveis, no tenham qualquer implicao prtica na
sua anlise.
Por exemplo, suponha que o prmio de uma determinada aposta envolvendo um jogo de
baralho dependa somente da cor do naipe da carta retirada. Ento, o espao amostral poderia
2
http://www.sipta.org/documentation.
http://www.it.iitb.ac.in/papers/pkdd07.pdf,
http://dauns.math.tulane.edu/ mwm/ftp/darms.pdf.
4
importante ressaltar que frequentemente so encontradas situaes prticas onde no se consegue
descrever todos os possveis resultados de um experimento. Uma maneira de contornar este problema
assumir que um resultado possvel do experimento a no ocorrncia de qualquer dos resultados descritos,
contudo, em problemas prticos, tal suposio pode acarretar em dificuldades quando se tenta elicitar ou
eduzir probabilidades de especialistas.
3
11
ser dado por = {vermelho, preto} ou = {copas, ouro, espada, paus} ou ainda =
{todas as 52 cartas do baralho}. Portanto, muito mais se poderia dizer sobre o resultado de
uma retirada de carta de um baralho que os simples resultados binrios vermelho ou preto.
Informaes outras so ignoradas quando se usa a hiptese adicional que existe uma aposta
com pagamentos que dependem apenas da cor do naipe da carta retirada.
1.5
12
De acordo com Fine (2006), embora possa-se pensar que, dado um espao amostral,
necessariamente de interesse analisar todos os seus subconjuntos (e isto eventualmente
verdadeiro), tem-se trs razes para esperar que o interesse seja apenas por alguns de seus
subconjuntos. Primeiro, o espao amostral pode conter um grau de detalhamento superior
ao de interesse no problema. Por exemplo, ele pode representar uma nica jogada de um
dado mas o interesse apenas em saber se o resultado par ou mpar. Segundo, o objetivo
associar a cada evento A uma probabilidade P (A); como essas probabilidades esto baseadas
em algum conhecimento sobre a tendncia de ocorrer o evento, ou no grau de crena que
determinado evento ocorrer, o conhecimento sobre P pode no se estender para todos os
subconjuntos de . A terceira (e tcnica) razo para limitar a coleo de eventos de interesse
que condies impostas em P pelos axiomas de Kolmogorov, que sero vistos adiante,
podem no permitir que P seja definida em todos os subconjuntos de , em particular isto
pode ocorrer quando for no enumervel (fato este fora do escopo deste livro (Burrill,
1972)(Shiryayev, 1984).
Em probabilidade, o interesse em uma coleo especial A de subconjuntos do espao
amostral (A um conjunto cujos elementos tambm so conjuntos!) que so eventos de
interesse no que se refere ao experimento aleatrio E e os quais tem-se conhecimento sobre
a sua probabilidade. A chamado de uma -lgebra de eventos. O domnio de uma medida
de probabilidade uma -lgebra.
Definio 1.5.3: Uma lgebra de eventos F uma coleo de subconjuntos do espao
amostral que satisfaz:
(i) F no vazia;
(ii) F fechada com respeito a complementos (se A F, ento Ac F);
(iii) F fechada com respeito a unies finitas (se A, B F, ento A B F).
Definio 1.5.4: Uma -lgebra A uma lgebra de eventos que tambm fechada com
relao a uma unio enumervel de eventos,
(i I)Ai A iI Ai A.
Pelas Leis de De Morgan, tem-se que A tambm fechada com respeito a interseces
enumerveis.
Dado um espao amostral , a maior -lgebra o conjunto das partes de , A = P(),
e a menor A = {, }. 5
1.6
Fundamentos de Probabilidade
Raciocnio probabilstico frequente no dia a dia da humanidade e pode ser observado tanto
atravs de aes (atravessar uma rua, embarcar num avio ou navio, ligar um computador so atividades que revelam um julgamento de que a probabilidade de um acidente
5
Em geral, dada qualquer partio enumervel de , pode-se definir uma nova -lgebra de considerando
todas as possveis unies enumerveis de conjunto que formam a partio.
13
14
bolas. Considere que existem duas loteria com prmios baseados no sorteio de bolas dessas
urnas. Loteria L1 paga R$1.000,00 se uma bola azul for sorteada na urna 1, e R$0,00 caso
contrrio. Loteria L2 paga R$1.000,00 se uma bola azul for sorteada na urna 2, e R$0,00
caso contrrio. A maioria das pessoas quando questionada se prefere um bilhete da Loteria
L1 ou L2 prefere um bilhete da loteria L1 . Suponha agora que temos duas outras loterias L3
e L4 , onde a primeira paga R$1.000,00 somente se uma bola verde for sorteada da urna 1,
e a segunda para R$1.000,00 somente se uma bola verde for sorteada da urna 2. Tambm,
verificado que a maioria das pessoas que preferiram a loteria L1 loteria L2 preferem a
loteria L3 loteria L4 . Com estas preferncias, no possvel que o decisor possua uma nica
distribuio de probabilidade subjetiva sobre as cores das bolas na urna 2, pois a primeira
preferncia (L1 sobre L2 ) indica que o decisor considera que existam mais bolas verdes que
azuis na urna 2, e a segunda (L3 sobre L4 ) indica que o decisor considera que existam mais
bolas azuis que verdes na urna 2. Esse fenmeno conhecido na literatura como averso
a ambiguidade, e pode-se modelar a incerteza do decisor por um conjunto de medidas de
probabilidade ao invs de uma nica medida de probabilidade.
1.6.1
A seguir apresenta-se uma variedade de conceitos estruturais e interpretaes de probabilidade que foram descritos em Fine (2005).
Possivelmente. Possivelmente A o conceito mais rudimentar e menos preciso, e o usado
pelos antigos Gregos para distinguir entre o que era necessrio e o que era contingente.
Existe um nmero de conceitos de possibilidade que incluem os seguintes:
possibilidade lgica, no sentido que no se contradiz logicamente; ou seja, no
possvel logicamente que algo ocorra e no ocorra simultaneamente.
possibilidade epistmica, segundo a qual a ocorrncia de A no contradiz o conhecimento, que inclui, mas estende mais que mera lgica; por exemplo, no
epistemicamente possvel que ocorra uma tempestade de neve em Recife.
possibilidade fsica, a ocorrncia de A compatvel com leis fsicas, contudo pode
ser extremamente improvvel por exemplo, uma moeda parando e ficando
equilibrada na borda em uma superfcie rgida;
possibilidade prtica, a noo do dia-a-dia segundo a qual A praticamente possvel
se ele tem pelo menos uma verossimilhana no to pequena de ocorrer.
Provavelmente. Provavelmente A um fortalecimento da noo de possibilidade significando mais que provvel que no provvel. Enquanto ela pode corresponder ao caso
que a probabilidade numrica de A seja maior que 1/2, este conceito no requer qualquer comprometimento com uma probabilidade numrica nem com o preciso estado de
conhecimento que uma probabilidade numrica requer.
Probabilidade Comparativa. A pelo menos to provvel quanto B. A probabilidade
comparativa inclui provavelmente A atravs de A pelo menos to provvel quanto
Campos, Rgo & Mendona
15
Ac . Pode ser relacionada com probabilidade numrica atravs de P (A) P (B); embora como nos dois exemplos anteriores, probabilidade comparativa no requer qualquer comprometimento com probabilidade numrica.
Probabilidade Intervalar. A tem probabilidade intervalar, ou probabilidade inferior e
superior (P (A), P (A)). Isto permite um grau de indeterminao varivel sem o comprometimento de que exista um verdadeiro valor no intervalo; alm dessa probabilidade intervalar, existe outra (Campos, 1997), baseada na matemtica intervalar
(Moore, 1966 e 1979) e na aritmtica de exatido mxima (Kulisch & Miranker, 1981),
a qual consiste de um intervalo fechado de nmeros reais, [P (A), P (A)] com a preciso
(Sterbenz, 1974) to pequena quanto possvel.
Probabilidade Numrica. A probabilidade de A o nmero real P (A). Este o conceito usual e ser o enfocado neste livro. Enquanto este conceito absorveu quase toda a
ateno de pessoas envolvidas com fenmenos de chance e incerteza e provou ser frutfero na prtica cientfica, este no o nico conceito utilizado em linguagem ordinria
e no raciocnio probabilstico do dia-a-dia.
De agora em diante o foco o conceito estrutural mais utilizado que a probabilidade
numrica.
1.6.2
Interpretaes de Probabilidade
Ainda segundo Fine (2006), parece no ser possvel reduzir probabilidade a outros conceitos;
ela uma noo em si mesma. O que pode ser feito relacionar probabilidade a outros
conceitos atravs de uma interpretao. Os cinco mais comuns grupos de interpretao para
probabilidade so os seguintes:
1. Lgica: grau de confirmao da hiptese de uma proposio que A ocorre dada uma
evidncia atravs da proposio que B ocorreu. Quando as evidncias, ou premissas,
so insuficientes para deduzir logicamente a hiptese ou concluso, pode-se ainda medir quantitativamente o grau de suporte que uma evidncia d a uma hiptese atravs
de probabilidade lgica. Por exemplo, um jurado tem de utilizar julgamento que envolvem probabilidades lgicas para condenar ou no um determinado ru baseado nas
evidncias disponveis.
2. Subjetiva: se refere ao grau de crena pessoal na ocorrncia do evento A e medida
atravs da interpretao comportamental de disposio a apostar ou agir. Por exemplo,
se um torcedor de futebol acredita que seu time tem mais de 50% de chance de ganhar
o campeonato, ele dever preferir um bilhete de loteria que lhe pague um prmio L se
seu time for campeo a um outro bilhete que lhe pague um prmio L obteno de
cara no lanamento de uma moeda honesta.
3. Frequentista: se refere ao limite da frequncia relativa de ocorrncia do evento A em
repetidas realizaes no relacionadas do experimento aleatrio E. Note que limites de
frequncia relativas so uma idealizao, pois no se pode realizar infinitas realizaes
de um experimento.
Campos, Rgo & Mendona
16
1.7
Frequncia Relativa
fn (A) =
1X
Nn (A)
,
IA (i ) =
n i=1
n
i=1 fn (Ai ).
No que se segue, supe-se que existe alguma base emprica, fsica ou sobrenatural, que
garanta que fn (A) P (A), embora que o sentido de convergncia quando n cresce s
ser explicado pela Lei dos Grandes Nmeros (estudada posteriormente). Esta tendncia da
frequncia relativa de estabilizar em um certo valor conhecida como regularidade estatstica.
Deste modo, dada a interpretao frequentista de probabilidade natural que P satisfaa
propriedades similares s (i)-(v).
Campos, Rgo & Mendona
1.8
17
Axiomas de Kolmogorov
Antes de um sistema computacional ou algoritmo ser analisado, vrias distribuies de probabilidade tm de ser analisadas. De onde vm essas distribuies? Como possvel avaliar
a vazo (throughput), tempo de resposta (response time), confiabilidade (reliability) e disponibilidade (availability) de um sistema de comunicao? Estas e outras perguntas esto
ligadas a problemas de avaliao de desempenho, a qual suportada, primordialmente, por
Probabilidade, Estatstica e Processos Estocsticos.
Questes de probabilidade em situaes prticas basicamente constituem-se, como seria
o esperado, em como calcular probabilidades. A onde a situao se complica. Se o
espao amostral finito e os resultados equiprovveis, pode-se usar a definio clssica e a
complicao consiste em contar, o que implica no uso de tcnicas de anlise combinatria,
que, no so fceis. Se o problema envolve volumes de slidos, possvel, em algumas
situaes, usar as chamadas probabilidades geomtricas e o problema est resolvido. Se o
espao amostral enumervel, conhecimentos sobre progresses geomtricas adquiridos no
segundo grau resolvem alguns problemas. Uma outra forma para calcular probabilidades
usar a frequncia relativa como sendo a probabilidade para um dado evento. Nesse caso
teramos que ter um grande nmero de observaes, mas, o que grande? Portanto
a construo axiomtica da teoria da probabilidade, abstrai o clculo de probabilidades de
casos particulares e nos prov de um mtodo formal para resolver problemas probabilsticos.
Os axiomas descritos a seguir no descrevem um nico modelo probabilstico, apenas determinam quais funes matemticas podem ser usadas para se descrever as probabilidades
envolvidas em um experimento qualquer. A partir dos axiomas pode-se utilizar mtodos
matemticos para encontrar propriedades que sero verdadeiras em qualquer modelo probabilstico. A escolha de um modelo especfico satisfazendo os axiomas feita pelo probabilista,
ou estatstico, familiar com o fenmeno aleatrio sendo modelado.
Os primeiros quatro axiomas de Kolmogorov so diretamente relacionados com as propriedades de frequncia relativa.
(K1) Inicial. O experimento aleatrio descrito pelo espao de probabilidade (, A, P )
que consiste do espao amostral , de uma -lgebra A, construda a partir de e de
uma funo de valores reais P : A IR.
(K2) No-negatividade. A A, P (A) 0.
(K3) Normalizao Unitria. P () = 1.
(K4) Aditividade Finita. Se A, B so disjuntos, ento P (A B) = P (A) + P (B).
fcil provar (tente!) utilizando induo matemtica que (K4) vlida para qualquer
coleo finita de eventos disjuntos
dois a dois, ou seja, se Ai Aj = , i 6= j, com i, j =
Pn
n
1 n, ento P (i=1 Ai ) = i=1 P (Ai ).
Um quinto axioma, embora no tenha significado em espaos amostrais finitos, foi proposto por Kolmogorov para garantir continuidade da medida probabilidade.
Campos, Rgo & Mendona
18
P (An ).
P (n=1 An ) =
n=1
Teorema 1.8.1: Se P satisfaz (K1)(K4), ento P satisfaz (K5)0 se, e somente se, satisfaz
(K5).
Prova: Primeiro, ser provado que (K1)(K5) implicam o axioma da -aditividade (K5)0 .
Seja {Ai } qualquer sequncia enumervel de eventos disjuntos dois a dois, e defina para todo
n
Bn = i>n Ai ,
n
i=1 Ai = Bn (i=1 Ai ).
n
X
P (Ai ).
i=1
n
X
i=1
P (Ai ) =
P (Ai ).
i=1
(K5)0 segue-se se se mostrar que limn P (Bn ) = 0. Note que Bn+1 Bn , e que
n=1 Bn = .
Ento por (K5), o limite acima zero e K40 verdadeiro.
Agora, ser provado que (K1)(K4), (K5)0 implicam o axioma da continuidade monotnica (K5). Seja {Bn } qualquer coleo enumervel de eventos satisfazendo as hipteses do
axioma (K5): Bn+1 Bn e
n=1 Bn = . Definindo, An = Bn Bn+1 observa-se que {An }
uma coleo enumervel de eventos disjuntos dois a dois e que
Bn = jn Aj .
(K5) (ou equivalentemente (K5)0 ) uma idealizao que no aceita por alguns tratamentos subjetivistas
de probabilidade, em especial no aceita por uma escola de estatsticos liderados por deFinetti (1972).
Assumir apenas aditividade finita, embora parea mais plausvel, pode levar a complicaes inesperadas em
teoria estatstica. Portanto, neste livro, prossegue-se sob a suposio que o axioma da continuidade (K5)
vlido.
6
19
P (Aj ).
jn
P (Aj ) = P (
j=1 Aj ) 1,
j=1
ento
lim P (Bn ) = lim
n
P (Aj ) = 0,
jn
Ac ou A
AB
AB
n An
n An
1.8.1
conjunto universo
elemento
conjunto A
conjunto vazio
complemento de A
A interseco B
A unio B
interseco dos conjuntos An
unio dos conjuntos An
||A||
,
||||
(1.1)
Campos, Rgo & Mendona
20
d i bi ,
i=n
R. A. Mendoza e M. A. Campos, The Limit Probability Distribution of the First Digit of an , manuscrito
no publicado baseado em R. Raimi (1976) The first digit problem, Amer. Math. Monthly 83, pp 521-538.
7
21
22
log10 (1 + 1/k)
0.30103
0.17609
0.12385
0.09691
0.07918
0.06818
0.05690
0.05115
0.04532
Probabilidade frequentista
nA
,
n n
onde nA o nmero de ocorrncias de A em n ensaios independentes do experimento (teoria
baseada na observao).
O problema quando da aplicao desta definio para calcular a probabilidade de um
evento : quando que n suficientemente grande, isto , quando que o experimento
aleatrio foi realizado um nmero suficientemente grande de vezes, para garantir que a
frequncia relativa do evento A P (A)? A resposta formal a esta pergunta ser respondida
no estudo de teoremas limite.
P (A) = lim
Exemplo 1.8.4: Simule o lanamento de uma moeda para constatar que quando uma
moeda lanada um nmero grande de vezes as probabilidades de cara e coroa tornam-se
aproximadamente as mesmas.
Probabilidade geomtrica. Considerando o espao amostral constitudo de objetos geomtricos tais como pontos, retas e planos, a obteno de probabilidades, nesse caso,
referenciada na literatura como problemas de probabilidade geomtrica. Portanto, dado um
certo evento A, nesse contexto, de modo geral,
P (A) =
m(A)
,
m()
23
1.8.2
P (Ai )
= + . . . + (1)
P (Ai Aj )
1i<jn
n1
P (A1 A2 . . . An ).
24
25
Bn = An Acn1
Tem-se que:
n=1 An = A = n=1 Bn
e
An = nk=1 Bk .
Logo,
lim P (An ) =
lim P (nk=1 Bk )
n
P (
n=1 Bn )
P (
n=1 An )
=
=
= P (A).
(x) Como An An+1 , n 1, ento Acn Acn+1 . Do item anterior tem-se que
lim P (Acn ) = P ( Acn ) = P (Ac ).
Logo,
Campos, Rgo & Mendona
26
lim P (An ) =
lim (1 P (Acn ))
= 1 lim P (Acn )
n
= 1 P (Ac )
= P (A).
n
X
P (Ai ) (n 1).
i=1
Prova: Utilizando a Lei de De Morgan e a desigualdade de Boole para os eventos {Ac1 , . . . , Acn },
P (ni=1 Aci )
=1
P (ni=1 Ai )
n
X
i=1
P (Aci )
n
X
(1 P (Ai )).
i=1
Logo,
P (i=1 nAi )
n
X
P (Ai ) (n 1).
i=1
27
Para r = 23, essa probabilidade aproximadamente igual a 0.51. E para r = 50, 0.97.
Exemplo 1.8.10: Em uma loteria de N nmeros h um s prmio. Salvador compra n
(1 < n < N ) bilhetes para uma s extrao e Slvio compra n bilhetes, um para cada uma
de n extraes. Qual dos dois jogadores tm mais chance de ganhar algum prmio?
Soluo: A probabilidade de Salvador ganhar algum prmio Nn . O nmero total de n
extraes possveis N n . O nmero de casos onde Slvio no ganha qualquer prmio
(N 1)n , logo, o nmero de casos onde Slvio ganha algum prmio igual a N n (N 1)n .
n
.
Portanto, a probabilidade de Slvio ganhar algum prmio 1 (NN1)
n
n
,
Por induo prova-se que Salvador tem mais chance de ganhar, ou seja, Nn > 1 (NN1)
n
que equivale a
n
(N 1)n
>
1
.
Nn
N
Para n = 2:
(N 1)2
2
1
2
=
1
+
>
1
.
N2
N
N2
N
Suponha que para n = k,
(N 1)k
k
>1 .
k
N
N
Multiplicando esta expresso por
N 1
,
N
(N 1)k+1
N 1
k
1
k
k
k+1
>(
)(1 ) = 1
+ 2 >1
.
k+1
N
N
N
N
N
N
N
28
8 4
Soluo: O nmero total de divises de doze pessoas em 3 grupos de 4 12
. Para
4
4 4
contar o nmero de casos favorveis ao evento, sabe-se que existem 3 opes de escolha sobre
em qual grupo as duas pessoas determinadas podem ficar. Das 10 pessoas restantes,
tem de
10
se escolher maisduas
para estarem neste grupo, o que pode ser resolvido de 2 maneiras
8 4
diferentes. E 4 4 so maneiras diferentes de dividir as outras 8 pessoas nos dois grupos
restantes. Portanto, a probabilidade de duas determinadas pessoas ficarem no mesmo grupo
:
8 4
3 10
3
2
4 4 = .
12 8 4
11
4
4 4
Exemplo 1.8.12: Suponha que numa sala esto n mes cada uma com um filho. Suponha
que duplas sejam formadas aleatoriamente, onde cada dupla contm uma me e um filho.
Qual a probabilidade de que pelo menos uma me forme uma dupla com seu prprio filho?
Soluo: Seja Ai o evento que a i-sima me forma dupla com seu filho. O objetivo
determinar
P (ni=1 Ai ).
Calculando esta probabilidade utilizando a frmula da incluso-excluso. Note que:
1
(n 1)!
= para todo i {1, 2, . . . , n}
n!
n
(n 2)!
1
P (Ai Aj ) =
=
para i 6= j
n!
n(n 1)
P (Ai ) =
n
||I||
(n ||I||)!
.
n!
n
X
i=1
n
X
i+1 n (n i)!
=
(1)
n!
i
i=1
(1)i+1
1
i!
c
c
c
de Boole, P (
i=1 Ai )
i=1 P (Ai ) = 0. Portanto, P (i=1 Ai ) = 0 e pela Lei de DeMorgan,
c c
c
i=1 Ai = (i=1 Ai ) , tem-se que P (i=1 Ai ) = 1 P (i=1 Ai ) = 1.
Campos, Rgo & Mendona
29
(1.1)
Como P (An ) + P (Bn ) 1 p, tem-se que lim inf P (An Bn ) p. Por outro lado, como
P (An Bn ) P (Bn ) e P (Bn ) p, tem-se que lim sup P (An Bn ) p. Portanto, lim P (An
Bn ) = p.
1.9
30
Corolrio 1.9.7: Existe uma menor (no sentido de incluso) lgebra (-lgebra) contendo
qualquer famlia dada de subconjuntos de .
Prova: Seja C uma coleo qualquer de subconjuntos de . Defina A(C) como sendo o
conjunto que igual a interseco de todas as lgebras de eventos que contm C, isto :
\
A(C) =
A.
AC:A uma lgebra de eventos
Pelo Teorema 1.9.6, A(C) uma lgebra de eventos, e consequentemente a menor lgebra
de eventos contendo C. A prova no caso de -lgebras anloga.
Seja um conjunto no-vazio. Se for um espao topolgico, isto , contiver
conjuntos abertos, a nova -lgebra sobre a coleo dos abertos de denominada lgebra de Borel. Se = IR, esta -lgebra denotada por B. Os elementos de B so
chamados conjuntos de Borel, ou borelianos. Os conjuntos [x, y], (x, y] e [x, y) so conjuntos
de Borel, pois:
1
1
, y + ),
n
n
1
[x, y) =
, y),
n=1 (x
n
1
(x, y] =
).
n=1 (x, y +
n
A -lgebra de Borel B de subconjuntos de reais , por definio, a menor -lgebra
contendo todos os intervalos e a -lgebra usual quando se lida com quantidades reais
ou vetoriais. Em particular, tem-se que unies enumerveis de intervalos (por exemplo, o
conjunto dos nmeros racionais), seus complementos (por exemplo, o conjunto dos nmeros
irracionais), e muito mais esto em B. Para todos os fins prticos, pode-se considerar que B
contm todos os subconjuntos de reais que consegue-se descrever.
[x, y] =
n=1 (x
1.10
31
Exerccios
1.1 (a) Uma caixa com 6 chips contm 2 defeituosos. Descreva um espao amostral para
cada uma das situaes abaixo:
(a1) Os chips so examinados um a um sem reposio at que um defeituoso seja
encontrado.
(a2) Os chips so examinados um a um sem reposio at que todos os defeituosos
sejam encontrados.
(b) Generalize o problema. Responda s mesmas questes anteriores, supondo que se
tem N chips na caixa, dos quais n < N so defeituosos.
1.2 Coloque V ou F nas sentenas abaixo:
(a) A = P (A) = 0.
( )
(b) P (A) = 0 A = .
( )
(c) A = P (A) = 0.
( )
( )
( )
(f ) A B P (A) P (B).
( )
( )
( )
1.10. EXERCCIOS
32
33
1.10. EXERCCIOS
34
1.19 Uma coleo de 100 programas foi checada com respeito a erros de sintaxe, S, erros
de entrada e sada, I, e outros tipos de erros, E. A quantidade de vezes que os erros
ocorreram foi: S, 20 vezes; I, 10 vezes; E, 5 vezes; S I, 6 vezes; S E, 3 vezes;
I E, 2 vezes; S I E, 1 vez. Um programa selecionado aleatoriamente. Calcule
a probabilidade de que este apresente
(a) S ou I;
(b) ao menos um tipo de erro.
1.20 Dois dados so lanados. Considere os eventos
A = {a soma dos pontos sobre as duas faces um nmero par},
B = {1 aparece em pelo menos um dos dados}.
Descreva os eventos: (a) A B; (b) A B; (c) A B.
1.21 Um alvo consiste de dez crculos concntricos com raios rk , k = 1, 2, . . . 10, onde r1 <
r2 < . . . r10 . O evento Ak indica um acerto no crculo de raio k. Descreva em palavras
os eventos B = 6k=1 Ak e C = 10
k=5 Ak .
1.22 Um experimento consiste em se retirar sem reposio 3 impressoras de um lote e testlas de acordo com alguma caracterstica de interesse. Assinale D, para impressora
defeituosa e B, para perfeita. Sejam os eventos:
A1 = {a 1a. impressora foi defeituosa},
A2 = {a 2a. impressora foi defeituosa},
A3 = {a 3a. impressora foi defeituosa}.
(a) Descreva o espao amostral.
(b) Liste todos os elementos de cada um dos seguintes eventos: A1 , A2 , A1 A2 ,
A2 A3 , A1 A2 A3 , A1 A2 A3 .
(c) Explique, em palavras, o significado dos eventos acima.
1.23 Seja A o evento pelo menos um entre trs itens checados defeituoso, e B o evento
todos os trs itens so bons. Descreva os eventos: (a) A B; (b) A B; (c) A; (d) B.
1.24 H trs edies diferentes cada uma contendo pelo menos trs volumes. Os eventos A,
B e C, respectivamente indicam que pelo menos um livro escolhido da primeira, da
segunda e da terceira edio. Sejam
As = {s volumes so escolhidos da primeira edio},
Bk = {k volumes so escolhidos da segunda edio}.
Qual o significado dos eventos: (a) A B C; (b) A B C; (c) A B3 ; (d) A2 B2 ;
(e) (A1 B3 ) (A3 B1 )?
Campos, Rgo & Mendona
35
1.10. EXERCCIOS
36
Captulo 2
Mtodos de Contagem
2.1
Introduo
||A||
.
||||
2.2
Regra da Adio
38
menos uma das atividades dado por n1 + n2 + . . . + nk , supondo que as atividades sejam
excludentes.
Exemplo 2.2.1 : Seja o problema de escolher um caminho entre duas cidades A e B
dentre trs percurssos pelo interior e dois pelo litoral. Portanto existem 3 + 2 = 5 caminhos
disponveis para a viagem.
2.3
Regra da Multiplicao
39
se f (a) 6= f (b) sempre que a 6= b. Portanto, o mesmo elemento de B no pode ser imagem
de dois elementos de A, logo existem 7 6 5 4 = 840 funes injetoras.
Exemplo 2.3.4: Em uma banca h 5 exemplares iguais da Veja, 6 exemplares iguais da
poca e 4 exemplares iguais da Isto . Quantas colees no-vazias de revistas dessa banca
podem ser formadas?
Soluo: Note que cada coleo de revistas vai ser composta por a revistas Veja, b revistas
poca e c revistas Isto , onde 0 a 5, 0 b 6, 0 c 4, e pelo menos 1 de a, b,
ou c diferente de zero. Ento, tem-se 6 7 5 1 = 210 1 = 209 diferentes colees
no-vazias dessas revistas.
2.4
2.4.1
Arranjos
Dado um conjunto com n elementos distintos, o nmero (n)r de maneiras de selecionar uma
sequncia distinta de comprimento r escolhida desse conjunto com repetidas selees do
mesmo elemento no sendo permitidas, amostragem sem reposio, dado por
r1
Arn
Y
n!
= (n)r = n(n 1) . . . (n r + 1) =
=
(n i),
(n r)! i=0
2.4.2
40
Permutaes
2nn+ 2 en e 12n .
1
Ento, se conveniente, n! pode ser aproximado por 2nn+ 2 en , onde esta ltima frmula
conhecida com frmula de Stirling.
Exemplo 2.4.2: Se A um conjunto de n elementos, quantas so as funes f : A A
injetoras?
Soluo: Tem-se que garantir que cada elemento de A tem uma imagem diferente. Como A
finito e tem n elementos, f tambm sobrejetora e, portanto, bijetora. Ento, o primeiro
elemento de A tem n opes, o segundo n 1 opes, at que o ltimo elemento de A tem
somente uma opo disponvel. Portanto, existem n! funes bijetoras f : A A.
Exemplo 2.4.3: De quantos modos possvel colocar r rapazes e m moas em fila de
modo que as moas permaneam juntas?
Soluo: Primeiro tem-se r + 1 opes de se escolher o lugar das moas. Em seguida, r!
maneiras de se escolher a posio dos rapazes entre si, e m! maneiras de se escolher a posio
das moas entre si. Portanto, tem-se (r + 1)r!m! modos diferentes de escolha.
Exemplo 2.4.4: Quantas so as permutaes simples dos nmeros 1, 2, . . . , 10 nas quais
o elemento que ocupa o lugar de ordem k, da esquerda para a direita, sempre maior que
k 3?
Soluo: Inicialmente escolhem-se os nmeros da direita para esquerda. Observe que o
nmero no lugar de ordem 10, tem que ser maior que 7, portanto existem 3 opes. O
nmero no lugar de ordem 9, tem que ser maior que 6, existem, portanto, 3 opes visto
que um dos nameros maiores que 6 j foi utilizado na ltima posio. De maneira similar
pode-se ver que existem 3 opes para os nmeros que ocupam do terceiro ao oitavo lugar.
O nmero no lugar de ordem 2, tem somente 2 opes, pois oito nmeros j foram escolhidos
anteriormente. Finalmente, resta apenas um nmero para o lugar de ordem n. Portanto,
existem 2 38 permutaes deste tipo.
Exemplo 2.4.5: Com oito bandeiras diferentes, quantos sinais feitos com trs bandeiras
diferentes se podem obter?
Soluo: Neste caso a ordem acarreta diferena e por isso tem-se (8)3 = 336 sinais.
1
H. Robbins, A Remark of Stirlings Formula, Amer. Math. Monthly, Vol. 62, No. 1, pp. 26-29, 1955.
2.4.3
41
Combinaes
42
Exemplo 2.4.6 : Dentre oito pessoas, quantas comisses de trs membros podem ser
escolhidas, desde que duas comisses sejam a mesma comisso se forem constitudas pelas
mesmas pessoas (no se levando em conta a ordem em que sejam escolhidas)?
Soluo: A resposta dada por 83 = 56 comisses possveis.
Exemplo 2.4.7 : Um grupo de oito pessoas formado de cinco homens e trs mulheres. Quantas comisses de trs pessoas podem ser constitudas, incluindo exatamente dois
homens?
Soluo: Aqui deve-se escolher dois
homens (dentre cinco) e duas mulheres (dentre trs).
Portanto, o nmero procurado 52 31 = 30 comisses.
Exemplo 2.4.8: Quantas sequncias binrias de comprimento n contm no mximo trs
dgitos 1?
Soluo: Tem-se quatro casos possveis: todas as sequncias que no contm 1, todas as
que contm apenas um 1, todas as que contm dois
dgitos 1 e todas as que contm trs
dgitos 1. Para 0 r n, existem exatamente nr sequncias binrias com r nmeros 1.
Portanto, pela regra da adio existem
n
n
n
n
+
+
+
0
1
2
3
sequncias binrias de comprimento n contendo no mximo trs nmeros 1.
Exemplo 2.4.9: Quantas sequncias de cara e coroa de comprimento n contm pelo menos
1 cara?
Soluo: Neste caso, apenas uma sequncia no contm qualquer cara (a sequncia que
contm apenas coroa). Como o nmero total de sequncias de cara e coroa de comprimento
n igual a 2n , ento 2n 1 sequncias de comprimento n contm pelo menos uma cara.
Exemplo 2.4.10: Determine o coeficiente de x3 no desenvolvimento de (x4 x1 )7 .
Soluo: O termo genrico do desenvolvimento
7
1 7k
4 k
7k 7
(x ) ( )
= (1)
x5k7 .
k
x
k
Portanto, tem-se
o termo x3 se 5k 7 = 3, o que implica que k = 2. Logo, o coeficiente de
x3 (1)5 72 = 21.
Portanto, de modo geral, problemas de escolhas podem ser postos da seguinte forma: temse n objetos, entre os quais r devem ser escolhidos. Seja N o nmero de eleies possveis.
N depende de como a seleo feita e do nmero de objetos selecionados. Segue-se a soluo
para cada tipo de escolha.
(a) A ordem dos elementos relevante.
Campos, Rgo & Mendona
43
2.5
Aplicaes em Grafos
2.5.1
Grafos No Direcionados
44
Soluo: Note que o nmero de arestas o nmero possvel de maneiras de escolher pares de
de vrtices de V (a ordem dos vrtices no relevante pois o grafo no direcionado). Ento,
tem-se n2 possveis arestas em um grafo. Cada grafo corresponde a um subconjunto do
conjunto de todas as arestas. Como existem 2r subconjuntos de um conjunto de r elementos,
ento existem
n
= 2( 2 )
n
2.5.2
Grafos Direcionados
2.6
45
i
i
.
.
.
i
1 2
r
i =0 i =0
i
=0
k=1
1
onde ir = n
r1
j<r ij .
2.7
47
Exerccios
2.7. EXERCCIOS
48
2.8 Uma caixa contm 10 bolas numeradas de 1 a 10. Seleciona-se uma amostra aleatria
de 3 elementos. Determine a probabilidade de que as bolas 1 e 6 estejam entre as bolas
selecionadas.
2.9 Uma caixa contm b bolas pretas e r bolas vermelhas. Bolas so extradas sem reposio, uma de cada vez. Determine a probabilidade de se obter a primeira bola preta
na n-sima extrao.
2.10 Suponha que se extrai uma amostra de tamanho n de uma populao de r elementos. Determine a probabilidade de que nenhum de k elementos especficos estejam na
amostra se o mtodo utilizado
(a) amostragem sem reposio;
(b) amostragem com reposio.
2.11 Uma secretria descuidadamente coloca ao acaso n cartas em n envelopes. Determine
a probabilidade de que ao menos uma carta chegue ao seu destino.
2.12 Se voc possui 3 bilhetes de uma loteria para a qual se vendeu n bilhetes e existem 5
prmios, qual a probabilidade de voc ganhar pelo menos um prmio?
2.13 M mensagens so enviadas aleatoriamente atravs de N canais de comunicao, N >
M . Encontre a probabilidade do evento
A = {no mais que uma mensagem seja enviada atravs de cada canal}.
2.14 Qual a probabilidade de que os nascimentos de 12 pessoas caiam nos 12 diferentes
meses do ano (assumindo igual probabilidade para os nascimentos nos 12 meses)?
2.15 Dez livros so colocados aleatoriamente em uma prateleira. Encontre a probabilidade
de que:
(a) trs particulares livros estejam sempre juntos;
(b) k particulares livros estejam sempre juntos, 2 < k < 10.
2.16 Um conjunto de 4 chips de circuito integrado constitudo de 2 perfeitos e 2 defeituosos.
Se 3 chips so selecionados aleatoriamente do grupo, qual a probabilidade do evento
dois entre os 3 selecionados so defeituosos.
2.17 Calcule a probabilidade de que algum nmero decimal com k dgitos escolhido aleatoriamente seja um nmero vlido de k dgitos na base octal.
2.18 Suponha o alfabeto com 26 letras. Calcule a probabilidade de que no haja letras
repetidas entre todas as seqncias com 3 letras.
2.19 Se uma caixa contm 75 chips de circuito integrado perfeitos e 25 defeituosos, e so
selecionados aleatoriamente 12, calcule a probabilidade de que pelo menos um dentre
os selecionados seja defeituoso.
Campos, Rgo & Mendona
49
2.7. EXERCCIOS
50
Captulo 3
Probabilidade Condicional.
Independncia
3.1
Probabilidade Condicional
Neste captulo tem-se duas definies de suma importncia, tanto para Probabilidade e
Processos Estocsticos quanto para Estatstica, que so as definies de probabilidade condicional e eventos independentes. A importncia e nfase no conceito de independncia ficar
evidente quando voc aluno descobrir como essa palavra aparecer repetidas vezes, especialmente no contexto de varivel aleatria, ou vetores aleatrios, mais para frente. Se se tem
independncia, problemas, de modo geral, so resolvidos facilmente. Caso contrrio, so
estudos de caso.
Como visto no Captulo 1, existem vrias possveis interpretaes de probabilidade. Por
exemplo, pode-se interpretar probabilidade de um evento A como um limite das frequncias
relativas de ocorrncia do evento A em realizaes independentes de um experimento. Por
outro lado, a interpretao subjetiva de probabilidade associa a probabilidade de um evento
A com o grau de crena pessoal que o evento A ocorrer. Em ambos os casos, probabilidade
baseada em informao e conhecimento. Reviso desta base de informao ou conhecimento pode levar a reviso do valor da probabilidade. Em particular, conhecimento que
determinado evento ocorreu pode influenciar na probabilidade dos demais eventos.
Considerando-se a interpretao frequentista de probabilidade, suponha que o interesse
seja saber qual a probabilidade do evento A, visto que sabe-se que o evento B ocorreu.
Suponha que se realizasse um experimento n vezes das quais o evento A (respectivamente,
B e A B) ocorre nA (respectivamente, nB > 0 e nAB 0) vezes. Seja fn (A) = nA /n a
frequncia relativa do evento A nas n realizaes do experimento. A probabilidade condicional de A dado que sabe-se que B ocorreu segundo esta interpretao frequentista, sugere que
ela deve ser igual ao limite das frequncias relativas condicionais do evento A dado o evento
B, isto , deve ser o limite da razo nAB /nB quando n tende ao infinito. fcil provar que
esta razo igual a fn (A B)/fn (B), que por sua vez segundo a interpretao frequentista
de probabilidade aproximadamente igual a P (A B)/P (B) para valores grandes de n.
Considerando-se uma interpretao subjetiva, suponha que a incerteza de um agente
descrita por uma probabilidade P em (, A) e que o agente observa ou fica sabendo que
51
52
o evento B ocorreu. Como o agente deve atualizar sua probabilidade P (|B) de modo a
incorporar esta nova informao? Claramente, se o agente acredita que B verdadeiro,
ento parece razovel requerer que
P (B c |B) = 0.
(3.1)
Em relao aos eventos contidos em B, razovel assumir que sua chance relativa permanea inalterada se tudo que o agente descobriu foi que o evento B ocorreu, ou seja, se
A1 , A2 B com P (A2 ) > 0, ento
P (A1 )
P (A1 |B)
=
.
P (A2 )
P (A2 |B)
(3.2)
P (A B)
.
P (B)
Para um evento fixo B que satisfaz P (B) > 0, P (|B) satisfaz aos axiomas K1-K4 (Captulo 1) e realmente uma medida de probabilidade. Para provar K2, note que para todo
A A, como P (A B) 0,
P (A|B) =
P (A B)
0.
P (B)
Campos, Rgo & Mendona
53
P ( B)
P (B)
=
= 1.
P (B)
P (B)
P (i Ai |B) =
Logo, para um dado evento B fixo, tal que P (B) > 0, tem-se que P (|B) satisfaz todas
as propriedades de uma probabilidade incondicional vistas no Captulo 1.
A probabilidade condicional tambm satisfaz s seguintes propriedades facilmente provveis:
(i) P (B|B) = 1.
(ii) P (A|B) = P (A B|B).
(iii) Se A B, ento P (A|B) = 1.
(iv) P (A B|C) = P (A|B C)P (B|C).
(v) Fazendo C = na propriedade (iv) acima,
P (A B) = P (A|B)P (B).
Utilizando induo matemtica, pode-se facilmente provar que
P (A1 A2 . . . An ) = P (A1 )P (A2 |A1 ) . . . P (An |A1 . . . An1 ).
Exemplo 3.1.3: Suponha uma turma com 30 alunos dos quais 5 so mulheres e o restante
homens. 4 alunos saem da sala de aula sucessivamente. Qual a probabilidade de que sejam
2 mulheres e 2 homens, nessa ordem?
Soluo: Sejam os eventos:
M1 = {o primeiro a sair mulher},
M2 = {o segundo a sair mulher},
Campos, Rgo & Mendona
54
5 4 25 24
100
=
.
30 29 28 27
5481
Um mtodo de se obter uma probabilidade (incondicional) de uma probabilidade condicional utilizando o Teorema da Probabilidade Total.
Teorema 3.1.4:
todo A A
Prova:
Como B1 , B2 , . . . uma partio de ,
A = A = A (i Bi ) = i (A Bi ).
Como os eventos Bi s so mutuamente exclusivos, os eventos (A Bi )s tambm so
mutuamente exclusivos. Ento o axioma (K5)0 implica que
P (A) = P (i (A Bi ))
X
=
P (A Bi )
i
P (A Bi )
P (A|Bi )P (Bi ).
55
P (A|D)P (D)
P (A D)
=
.
P (A D) + P (A Dc )
P (A|D)P (D) + P (A|Dc )P (Dc )
P (A Bi )
j:P (Bj )6=0 P (A Bj )
= P
P (A|Bi )P (Bi )
.
j:P (Bj )6=0 P (A|Bj )P (Bj )
56
e
P (D|R = k) =
dk
,
m
tem-se que
1 dk
dk
P (R = k|D) = Pnn m1 di = Pn
i=1 n m
i=1
di
5
8
R = (R T ) (R T_ ),
R_ = (R_ T_ ) (R_ T ),
logo,
P (R ) = P (R | T )P (T ) + P (R | T_ )P (T_ ) =
35 13
4
+
= ,
58 38
8
23 25
4
+
= .
38 58
8
(a)
P (T | R ) =
P (R T )
3
= .
P (R )
4
Campos, Rgo & Mendona
57
(b)
P (T_ | R_ ) =
P (T_ R_ )
1
= .
P (R_ )
2
Exemplo 3.1.8: Um canal de comunicao binrio envia um dentre dois tipos de sinais,
denotados por 0 e 1. Devido ao rudo, um 0 transmitido alguma vezes recebido como um
1 e um 1 transmitido alguma vezes recebido como um 0. Para um dado canal, assuma
uma probabilidade de 0.94 que um 0 transmitido seja corretamente recebido como um 0 e
uma probabilidade de 0.91 que um 1 transmitido seja corretamente recebido como um 1.
Adicionalmente, assuma uma probabilidade de 0.45 de se transmitir um 0. Se um sinal
enviado, determine,
(a) A probabilidade de que um 1 seja recebido.
(b) A probabilidade de que um 0 seja recebido.
(c) A probabilidade de que um 1 foi transmitido, dado que um 1 foi recebido.
(d) A probabilidade de que um 0 foi transmitido, dado que um zero foi recebido.
(e) A probabilidade de um erro.
Soluo:
Sejam os eventos
T0 = {um 0 transmitido},
T1 = {um 1 transmitido},
R0 = {um 0 recebido},
R1 = {um 1 recebido}.
Logo,
P (R0 | T0 ) = 0.94 P (R1 | T0 ) = 0.06,
P (R1 | T1 ) = 0.91 P (R0 | T1 ) = 0.09,
P (T0 ) = 0.45,
P (T1 ) = 0.55.
(a)
R1 = (R1 T1 ) (R1 T0 ),
logo,
P (R1 ) = P (R1 | T1 )P (T1 ) + P (R1 | T0 )P (T0 ) = 0.91 0.55 + 0.06 0.45 = 0.5275.
Campos, Rgo & Mendona
58
(b)
R0 = (R0 T0 ) (R0 T1 ),
logo,
P (R0 ) = P (R0 | T0 )P (T0 ) + P (R0 | T1 )P (T1 ) = 0.94 0.45 + 0.09 0.55 = 0.4725,
ou,
P (R0 ) = 1 P (R1 ) = 1 0.5275 = 0.4725.
(c)
P (T1 R1 )
P (R1 )
P (R1 | T1 )P (T1 )
=
P (R1 )
0.91 0.55
= 0.9488.
=
0.5275
P (T1 | R1 ) =
(d)
P (T0 R0 )
P (R0 )
P (R0 | T0 )P (T0 )
=
P (R0 )
0.94 0.45
=
= 0.8952.
0.4725
P (T0 | R0 ) =
(e)
E = {acontece um erro}.
Logo,
E = (T1 R0 ) (T0 R1 ),
P (E) = P (R0 | T1 )P (T1 ) + P (R1 | T0 )P (T0 ) = 0.09 0.55 + 0.06 0.45 = 0.0765.
Exemplo 3.1.9: Uma urna contm 4 bolas brancas e 6 bolas pretas. Sacam-se, sucessivamente e sem reposio, duas bolas dessa urna. Determine a probabilidade da primeira bola
ser branca sabendo que a segunda bola branca.
Soluo: Sejam B1 e B2 os eventos a primeira bola branca e a segunda bola branca,
respectivamente. Queremos calcular P (B1 |B2 ). Utilizando a frmula de Bayes,
P (B1 |B2 ) =
3
9
3
9
4
10
4
10
e P (B1c ) =
4
10
+ 49
6
10
2
15
2
5
6
.
10
59
Logo,
1
= .
3
P (CD)
0.4
>
P (CD)
,
0.5
P (C D)
P (C D)
= 0.5 P (C) =
.
P (C)
0.5
Exemplo 3.1.11: Se P (E) = 0.4 e P (F ) = 0.7, o que pode-se concluir sobre P (E|F )?
Soluo: Por definio,
P (E F )
.
P (E|F ) =
P (F )
Porm,
max{P (E) + P (F ) 1, 0} P (E F ) min{P (E), P (F )}.
Logo, 0.1 P (E F ) 0.4, portanto
0.1
0.4
P (E|F )
.
0.7
0.7
Os dois prximos exemplos foram extrados de Fine (2005) e servem para ilustrar aplicaes de probabilidade condicional que desafiam nossa intuio.
Exemplo 3.1.12: (Paradoxo de Monty Hall) Monty Hall foi um popular apresentador
de programa de jogos em TV cujo jogo comeava mostrando ao participante trs portas
fechadas d1 , d2 , d3 , onde atrs de apenas uma delas havia um prmio valioso. O participante
selecionava uma porta, por exemplo, d1 , mas antes que a porta fosse aberta, Monty Hall,
que sabia em que porta estava o prmio, por exemplo, d2 , abria a porta restante d3 , que no
continha o prmio. O participante tinha ento permisso para ficar com sua porta original,
d1 , ou escolher a outra porta fechada. A pergunta se melhor ficar com a porta original
ou trocar de porta.
Soluo: A frmula de Bayes utilizada para analisar este problema. Seja G uma porta
escolhida aleatoriamente para conter o prmio; Y a porta que o participante escolhe primeiro;
e M a porta que Monty Hall abre. O participante no tem qualquer conhecimento a priori
sobre a localizao do prmio, ou seja ele considera todas as portas equiprovveis, e isto pode
ser modelado por
1
P (G = di |Y = dj ) = ,
3
Campos, Rgo & Mendona
60
isto , todas as portas tm a mesma probabilidade de conter o prmio no importa qual porta
o participante escolha. Se o participante escolher uma porta que no contm o prmio, Monty
Hall necessariamente ter de abrir a porta que no contm o prmio, isto pode ser modelado
por
P (M = di1 |Y = di2 , G = di3 ) = 1,
onde i1 , i2 , i3 {1, 2, 3} e so distintos. Se o participante escolher corretamente, por exemplo,
Y = G = di2 , ento Monty Hall escolhe aleatoriamente entre as outras duas outras portas:
1
P (M = di1 |Y = G = di2 ) = , para di1 6= di2 .1
2
Para determinar se o participante deve trocar de porta, deve-se calcular
P (G = d1 , Y = d2 , M = d3 )
P (Y = d2 , M = d3 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )P (Y = d2 )
=
P (M = d3 |Y = d2 )P (Y = d2 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )
=
P (M = d3 |Y = d2 )
1/3
=
.
P (M = d3 |Y = d2 )
P (G = d1 |Y = d2 , M = d3 ) =
61
pd
P (T P |D)P (D)
=
= 0, 02.
P (T P |D)P (D) + P (T P |Dc )P (Dc )
pd + pt (1 pd )
Exemplo 3.1.14: Suponha que todos os bytes tenham a mesma probabilidade de ocorrncia. Seja W o nmero de 1s em um byte. Considere os seguintes eventos:
A = {O primeiro e o segundo bit so iguais a 1}
e
B = {W um nmero mpar}.
Calcular P (A), P (B), P (B|A) e P (A|B).
Soluo:
||A||
26
1
P (A) =
= 8 = .
||||
2
4
8
+ 83 + 85 +
||B||
P (B) =
= 1
||||
28
P (B|A) =
onde P (A B) =
||AB||
(61)+(63)+(65)
28
8
7
1
= .
2
P (A B
,
P (A)
= 18 . Portanto,
P (B|A) =
1
8
1
4
1
= .
2
Campos, Rgo & Mendona
3.2. INDEPENDNCIA
62
P (A|B) =
P (A B)
=
B
1
8
1
2
1
= .
4
Exemplo 3.1.15: Dois dados so jogados, um aps o outro, e observa-se o evento a soma
dos dois dados igual a 9; ento, qual a probabilidade do primeiro dado ter dado resultado
4?
Soluo:
1
P (A B)
1
P (A|B) =
= 36
4 = .
P (B)
4
36
De acordo com Halpern (2003), embora probabilidade condicional seja bastante til, ela
sofre de problemas, em particular quando se quer tratar de eventos de probabilidade zero.
Tradicionalmente, se P (B) = 0, ento P (A|B) no definida. Isto leva a um nmero
de dificuldades filosficas em relao a eventos com probabilidade zero. So eles realmente
impossveis? Caso contrrio, quo improvvel um evento precisa ser antes de ele ser atribudo
probabilidade zero? Deve um evento em algum caso ser atribudo probabilidade zero? Se
existem eventos com probabilidade zero que no so realmente impossveis, ento o que
significa condicionar em eventos de probabilidade zero? Por exemplo, considere o espao de
probabilidade ([0, 1], B, ) onde B a -gebra de Borel restrita a eventos contidos em [0, 1]
e uma medida de probabilidade na qual todo intervalo em [0, 1] possui probabilidade
igual ao seu comprimento. Seja B = {1/4, 3/4} e A = {1/4}. Como P (B) = 0, P (A|B)
no definida. Porm parece razovel assumir que neste caso P (A|B) = 1/2 j que
intuitivamente implica que todos os estados so equiprovveis, mas a definio formal de
probabilidade condicional no permite obter esta concluso. Para ver uma alternativa
teoria descrita neste captulo ver Halpern (2003).
3.2
Independncia
P (A B)
P (A B) = P (A|B)P (B) = P (A)P (B).
P (B)
Como esta ltima expresso definida inclusive para o caso de P (B) = 0, ela a expresso
adotada como a definio de independncia entre dois eventos.
Campos, Rgo & Mendona
63
3.2. INDEPENDNCIA
64
Definio 3.2.6: Uma coleo de eventos {Ai }iI mutuamente independente se para
todo J I finito, {Ai }iJ so mutuamente independentes.
O seguinte exemplo, extrado de James (1996), ilustra que independncia par a par no
implica independncia mtua.
Exemplo 3.2.7: Se = {1, 2, 3, 4} e P ({w}) = 1/4, ento A = {1, 2}, B = {1, 3}, e
C = {2, 3} so eventos independentes par a par.
Soluo: Pode-se verificar isto pelo fato que
P (A B) = P ({1}) =
1
11
=
= P (A)P (B).
4
22
Exemplo 3.2.9: Se = {1, 2, 3, 4, 5, 6}, A = {1, 2, 4}, e B = {2, 3, 5}, ento construa uma
medida de probabilidade em tal que A e B sejam independentes.
Soluo: Seja pi a probabilidade do elemento i . Ento, para que A e B sejam independentes,
P (A B) = p2 = P (A)P (B) = (p1 + p2 + p4 )(p2 + p3 + p5 ).
Por exemplo, pode-se escolher p1 = p2 = p3 = p6 =
P (A B) = 14 e P (A) = P (B) = 12 .
1
4
e p4 = p5 = 0. Deste modo,
65
n
Y
P (Ai ) =
i=1
n
Y
pi .
i=1
n
Y
P (Aci ) =
i=1
n
Y
(1 pi ).
i=1
n
Y
(1 pi ).
i=1
Exemplo 3.2.12 : Joo e Jos disputam um jogo com uma moeda equilibrada. Cada
jogador lana a moeda duas vezes e vence o jogo aquele que primeiro obtiver dois resultados
iguais. Joo comea jogando e se no vencer passa a moeda para Jos e continuam alternando
jogadas. Qual a probabilidade de Joo vencer o Jogo?
Soluo: Seja Ak o evento dois resultados iguais so obtidos na k-sima tentativa. Note
que P (Ak ) = 12 . Seja Bk o evento Joo ganha na sua k-sima jogada. Ento,
B1 = A1 ; B2 = Ac1 Ac2 A3 ; B3 = Ac1 Ac2 Ac3 Ac4 A5 ,
em geral,
Bk = Ac1 Ac2 Ac2k2 A2k1 .
Portanto,
1
P (Bk ) = P (Ac1 Ac2 Ac2k2 A2k1 ) = P (Ac1 )P (Ac2 ) P (Ac2k2 )P (A2k1 ) = ( )2k1 ,
2
Campos, Rgo & Mendona
3.2. INDEPENDNCIA
66
onde a penltima igualdade se deve ao fato dos lanamentos serem independentes. Logo,
P (Joo vencer) =
P (
k=1 Bk )
X
2
1
=
P (Bk ) =
( )2k1 = .
2
3
k=1
k=1
3.3
67
Exerccios
3.1 Sabe-se que os eventos B1 , B2 e B3 so disjuntos par a par e que sua unio igual
ao espao amostral. Estes eventos tm as probabilidades P (B1 ) = 0.2 e P (B2 ) = 0.3.
Existe um outro evento A tal que P (A|B1 ) = 0.3, P (A|B2 ) = 0.4 e P (A|B3 ) = 0.1.
Calcule:
(a) P (A).
(b) P (B2 |A).
3.2 Considere os eventos A, B e C. Sendo A e B independentes, A e C independentes e
B e C mutuamente excludentes, mostre que A e B C so independentes.
3.3 Sejam A1 , A2 , . . . An eventos independentes com pk = P (Ak ), k = 1, . . . , n. Obtenha a
probabilidade de ocorrncia dos seguintes eventos, em termos das probabilidades pk :
(a) A ocorrncia de nenhum dos Ak .
(b) A ocorrncia de pelo menos um dos Ak .
(c) A ocorrncia de exatamente um dos Ak .
(d) A ocorrncia de exatamente dois dos Ak .
(e) A ocorrncia de, no mximo, n 1 dos Ak .
3.4 Numa certa cidade, 75% de seus habitantes tm menos de 30 anos, enquanto os outros
25% tm mais de 30 anos. Sabendo-se que a taxa de alfabetizao entre os jovens,
idade < 30 anos de 40% e entre os no jovens, idade 30 anos, de 30%, calcule:
(a) a probabilidade de que um habitante escolhido ao acaso seja alfabetizado;
(b) a probabilidade de que um habitante alfabetizado ter menos de 30 anos.
3.5 Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defeituoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote comprado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 defeituoso? (este item ser facilmente resolvido usando uma Binomial, a qual ser
vista posteriormente)
3.6 Um porta-nqueis contm moedas de prata e de cobre em igual nmero. Extraem-se
ao acaso e sem reposio duas moedas. Calcule a probabilidade de que:
Campos, Rgo & Mendona
3.3. EXERCCIOS
68
1
2
e P ({a}) = 41 .
69
para k = 1, , 3 mostre que eles so independentes dois a dois mas no so independentes trs a trs (a questo tambm poderia ter sido: verifique se os eventos so
mutuamente independentes).
3.13 Suponha que trs rapazes possuem bons idnticos. Cada um atira seu bon no centro
de uma mesa. Os bons so misturados e ento cada um seleciona aleatoriamente um
bon.
(a) Qual a probabilidade que nenhum dos trs tenha escolhido seu prprio bon?
(b) Resolva o mesmo problema para n.
3.14 Durante um dado perodo de tempo, um radar detecta um alvo com probabilidade p.
Sabe-se que as deteces de alvos por perodos de tempo idnticos, so independentes
umas das outras. Encontre a probabilidade que o mssel seja detectado em ao menos
um dos n perodos de tempo idnticos.
3.15 Um computador consiste de n unidades. A confiabilidade (tempo livre de falha) da
1a. unidade durante o tempo T p1 , da 2a. unidade para o tempo T p2 , e assim por
diante. As unidades falham independentemente umas das outras. Quando qualquer
unidade falha, o computador falha. Encontre a probabilidade de que o computador
falhe durante o tempo T .
3.16 Trs mensagens so enviadas atravs de trs canais de comunicao, cada uma das
quais pode ser transmitida com diferente exatido. A transmisso de uma mensagem
pode levar a um dos seguintes eventos:
A1 = { a mensagem transmitida da forma correta};
A2 = { a mensagem parcialmente distorcida};
A3 = { a mensagem completamente distorcida}.
As probabilidades dos eventos A1 , A2 e A3 so conhecidas e iguais a p1 , p2 e p3
(p1 + p2 + p3 = 1). Considerando que mensagens podem ser distorcidas ou transmitidas corretamente independentemente umas das outras, encontre a probabilidade
dos seguintes eventos:
A = {todas as trs mensagens so transmitidas da forma correta}.
B = {pelo menos uma das mensagens completamente distorcida}.
3.17 Durante um dado perodo de tempo, um software pode apresentar erros com probabilidade p0 . Assumindo independncia entre os eventos considerados, quantos perodos de
tempo so necessrios para que erros sejam detectados com probabilidade no menor
que p?
3.18 Uma mensagem que est sendo transmitida atravs de um canal de comunicao consiste de n smbolos. Durante a transmissso, a probabilidade de cada um dos smbolos
serem distorcidos independentemente uns dos outros, p. Por questes de segurana,
cada mensagem ento enviada k vezes.
Campos, Rgo & Mendona
3.3. EXERCCIOS
70
(a) Encontre a probabilidade de que pelo menos uma das mensagens que est sendo
transmitida, no seja distorcida em qualquer um dos seus smbolos.
(b) Quantas vezes uma mensagem precisa ser repetida para que a probabilidade de
que pelo menos uma das mensagens no seja distorcida no seja menor que p?
3.19 Coloque V ou F nas sentenas abaixo:
(a) A e B independentes P (A B) = P (A) + P (B).
( )
( )
( )
( )
( )
(f ) A e B so excludentes A e B so independentes.
( )
Nos itens a seguir B = {bebo}, D = {dirijo}. Voc vai responder estes itens
tendo em vista que voc um cidado brasileiro responsvel, consciente
de que o futuro do seu pas depende de voc, alis, voc o futuro do
Brasil!
(g) B D.
( )
(h) B D.
( )
(i) P (D | B) = 1.
( )
(j) P (B | D) = 0.
( )
( )
( )
71
Este problema aparece em vrios livros dentre os quais: S. M. Ross, Introduction to Probability Models.
Fifth Edition, Academic Press, 1972; R. Isaac, The Pleasures of Probability. Springer-Verlag, 1995; F.
Mosteller, Fifty Challenging Problems in Probability. Dover Publications, Inc., New York, 1965; S. Russel
and P. Norvig, Artifitial Intelligence A Modern Approach. Prentice Hall, New Jersey, 1995. Voc v alguma
semelhana entre o citado problema e o Paradoxo de Monty Hall?
3.3. EXERCCIOS
72
Captulo 4
Variveis Aleatrias Unidimensionais e
Funes
4.1
Introduo
Analisando o trfego de redes Ethernet, o interesse pode ser, por exemplo, nas variveis
nmero total de bytes, ou nmero total de pacotes, ou ainda, percentual de utilizao da
rede em determinados perodos de tempo. A Tabela 4.1 exibe variveis de interesse em uma
rede de computadores.
Tabela 4.1: Variveis aleatrias observadas na camada de aplicao de redes de computadores.
Aplicao
Vdeoconferncia
WWW
Correio eletrnico
Varivel observada
Nmero de frames por segundo
Nmero de pixels por frame
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo
Intervalo de tempo entre sesses WWW
Tamanho do documento (arquivo) WWW
Nmero de imagens embutidas em um documento
Intervalo de tempo entre chegadas de pedidos WWW
Localidade temporal do site
Popularidade do site
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo
Intervalo de tempo entre sesses de correio eletrnico
Tamanho da mensagem de e-mail
Intervalo de tempo entre chegadas de pacotes ou bytes ou bits
Nmero de pacotes ou de bytes ou de bits por intervalo de tempo
73
74
4.2
Dada uma varivel aleatria X, pode-se definir uma probabilidade, PX , no espao mensurvel
(IR, B) da seguinte maneira: para todo B B, seja PX (B) = P (X 1 (B)). Por definio
de varivel aleatria, tem-se que X 1 (B) A, ento PX est bem definida. PX satisfaz os
axiomas K2, K3, e K50 de probabilidade, pois:
(K2) PX (B) = P (X 1 (B)) = P (A) 0.
(K3) PX (IR) = P (X 1 (IR)) = P () = 1.
Campos, Rgo & Mendona
75
P (X 1 (Bn )) =
PX (Bn ).
4.3
Para uma dada varivel aleatria X, uma maneira de descrever a probabilidade induzida PX
utilizando sua funo de distribuio acumulada.
Definio 4.3.1: A funo de distribuio acumulada de uma varivel aleatria X, representada por FX , definida por
FX (x) = P (X x) = PX ((, x]), x IR.
A funo de distribuio acumulada FX satisfaz s seguintes propriedades:
(F1) Monotonicidade. Se x y, ento FX (x) FX (y).
x y (, x] (, y] PX ((, x]) PX ((, y]) FX (x) FX (y).
(F2) Continuidade direita. Se xn x, ento FX (xn ) FX (x).
Se xn x, ento os eventos (, xn ] so no-crescentes e n (, xn ] = (, x].
Logo, pela continuidade da probabilidade, tem-se que PX ((, xn ]) P ((, x]), ou
seja, FX (xn ) FX (x).
(F3) Se xn , ento FX (xn ) 0, e se xn , ento FX (xn ) 1.
Se xn , ento os eventos (, xn ] so no-crescentes e n (, xn ] = . Logo,
pela continuidade da probabilidade, tem-se que PX ((, xn ]) P (), ou seja, FX (xn )
0. Similarmente, se xn , ento os eventos (, xn ] so no-decrescentes e
n (, xn ] = IR. Logo, pela continuidade da probabilidade, tem-se que PX ((, xn ])
P (), ou seja, FX (xn ) 1.
Teorema 4.3.2: Uma funo real F satisfaz F1F3 se e somente se F uma funo de
distribuio acumulada.
Prova: A prova de que se F for uma funo de distribuio acumulada, ento F satisfaz
F1-F3 foi dada acima. A prova de que toda funo real que satisfaz F1-F3 uma funo
acumulada est fora do escopo deste livro (Burrill, 1982)(Shryayev, 1984).
Uma funo de distribuio acumulada pode corresponder a vrias variveis aleatrias
no mesmo espao de probabilidade (, A, P ). Por exemplo, seja X tal que P (X = 1) =
P (X = 1) = 21 . Logo, P (X = 1) = P (X = 1) = 12 . Portanto, X e X tm a mesma
distribuio. Consequentemente, FX = FX .
Campos, Rgo & Mendona
76
+
0 FX (x
1 ) FX (x1 ) FX (x2 ) FX (x2 ) FX (xn ) FX (xn ) 1.
P
1
1
FX (xi ) FX (xi ) > n para todo xi An . Portanto, nk=1 (FX (x+
k ) FX (xk )) > n n > 1,
absurdo. Logo, An contm menos que n pontos.
Exemplo 4.3.4: Este exemplo mostra como usar a funo de distribuio acumulada para
calcular probabilidades. Lembrando que
FX (x) = P (X x) = PX ((, x]).
(a)
(, b] = (, a] (a, b], a b
P ((, b]) = P ((, a]) + P ((a, b])
P ((a, b]) = P ((, b]) P ((, a]) = FX (b) FX (a)
PX ((a, b]) = P (a < X b) = FX (b) FX (a).
(4.1)
lim P (In )
1
1
<X a+ )
n
n
n
1
1
= lim (FX (a + ) (FX (a ))
n
n
n
1
1
= lim FX (a + ) lim FX (a )
n
n
n
n
=
lim P (a
77
(4.2)
(4.3)
(4.4)
(4.5)
(4.6)
4.4
78
4.4.1
Definio 4.4.1: Uma varivel aleatria X discreta se assume valores num conjunto
enumervel com probabilidade 1, ou seja, se existe um conjunto enumervel {x1 , x2 , . . .} IR
tal que P (X = xi ) 0, i 1 e P (X {x1 , x2 , . . .}) = 1.
A funo p() definida por
p(xi ) = PX ({xi }), i = 1, 2, . . .
e
p(x) = 0, x
/ {x1 , x2 , . . .},
chamada de funo probabilidade (de massa) de X. Toda funo probabilidade uma
funo real e assume
P valores entre 0 e 1, sendo positiva para uma quantidade enumervel de
pontos e tal que i p(xi ) = 1. De modo geral escreve-se
0 p(xi ) 1,
X
p(xi ) = 1.
i
O conjunto de pontos
(xi , p(xi )), i = 1, 2, . . . ,
usualmente denotado na literatura por distribuio de probabilidade da varivel aleatria
X.
Para esta varivel aleatria tem-se que
X
p(xi ),
FX (x) =
i:xi x
1
), k = 1, 2, ,
2k
79
Exemplo 4.4.3 : Este exemplo mostra como calcular a funo de distribuio acumulada para uma varivel aleatria discreta. Seja X assumindo os valores 0, 1, 2 com igual
probabilidade. Portanto,
x < 0 FX (x) = 0,
1
0 x < 1 FX (x) = P (X = 0) = ,
3
1 1
2
1 x < 2 FX (x) = P (X = 0) + P (X = 1) = + = ,
3 3
3
x 2 FX (x) = P (X = 0) + P (X = 1) + P (X = 2) = 1.
Assim,
0,
1
,
3
FX (x) =
2
,
3
1,
x < 0,
0 x < 1,
1 x < 2,
x 2.
Figura 4.2: Grfico de funo de distribuio acumulada para uma varivel aleatria discreta
Exemplo 4.4.4: Este exemplo mostra como calcular a funo probabilidade de X a partir
do conhecimento da funo de distribuio acumulada. Seja
0, x < 1,
1
, 1 x < 1,
6
FX (x) =
2
, 1 x < 3,
3
1, x 3.
logo,
P (X = 1) = FX (1) FX (1 ) =
1
1
0= ,
6
6
Campos, Rgo & Mendona
80
1
2 1
= ,
3 6
2
2
1
P (X = 3) = FX (3) FX (3 ) = 1 =
3
3
P (X = 1) = FX (1) FX (1 ) =
P (X = k) = 0, k 6= 1, 1, 3.
4.4.2
Definio 4.4.5: Uma varivel aleatria X contnua se existe uma funo real fX (x) 0
tal que
Z x
FX (x) =
fX (t)dt, x R.
s condies F1, F2, e F3. Portanto, pelo Teorema 4.3.2, F uma funo de distribuio
acumulada. Ento, para varivel aleatria contnua, a distribuio de uma varivel aleatria
contnua X pode ser determinada tanto pela funo de distribuio acumulada FX quanto
pela sua funo densidade fX .
Uma varivel aleatria X tem densidade se FX a integral (de Lebesgue) de sua derivada;
sendo, neste caso, a derivada de FX uma funo densidade para X. Em quase todos os casos
encontrados na prtica, uma varivel aleatria X tem densidade se FX (i) contnua e (ii)
derivvel por partes, ou seja, se FX derivvel no interior de um nmero finito ou enumervel
de intervalos cuja unio IR.
Por exemplo, seja
0, se x < 0,
x2 , se 0 x < 1,
FX (x) =
1, se x 1.
Ento X tem densidade pois FX contnua e derivvel em todos os pontos da reta exceto
em {0, 1}.
Quando X uma varivel aleatria contnua,
P (X < b) =
=
=
=
FX (b) P (X = b)
FX (b) (FX (b) FX (b ))
FX (b)
P (X b).
Campos, Rgo & Mendona
81
m2 + m(k + 1) + (k + 1)2 = 0
p
(k + 1) (k + 1)2 4(k + 1)2
.
m=
2
Como
k IR 3(k + 1)2 0 k = 1.
Logo, m = 0. Portanto,
fX (x) =
(b)
x < 0, FX (x) = 0,
Z x
0 x < 1, FX (x) =
2tdt = x2 ,
x > 1, FX (x) = 1.
Logo,
0, x < 0,
x2 , x [0, 1),
FX (x) =
1, x 1.
4.4.3
Definio 4.4.7: Uma varivel aleatria X singular se FX uma funo contnua cujos
pontos de crescimento formam um conjunto de comprimento (medida de Lebesgue) nulo.
Na Seo 4.7 apresentado um exemplo de varivel aleatria singular.
Campos, Rgo & Mendona
82
Figura 4.3: Grfico de funo de distribuio acumulada para uma varivel aleatria contnua
4.4.4
Na prtica, a maioria das variveis aleatrias discreta ou contnua. Uma varivel aleatria
que possui apenas partes discreta e contnua conhecida como uma varivel aleatria mista.
Na prtica, pouco provvel que surja uma varivel aleatria singular. Portanto, quase todas
as variveis aleatrias so discretas, contnuas ou mistas.
Figura 4.4: Grfico de funo de distribuio acumulada para uma varivel aleatria mista
Exemplo 4.4.8: Exemplo de clculo de probabilidades com uma varivel aleatria mista.
Seja
0,
x < 1,
1
(x
1),
1
x < 2,
4
FX (x) =
1
,
2 x < 3,
2
1,
x 3.
(a) P (X = 0.5) = FX (0.5+ ) FX (0.5 ) = 0 0 = 0.
(b) P (X = 1.5) = FX (1.5+ ) FX (1.5 ) = 41 (1.5 1) 14 (1.5 1) = 0.
Campos, Rgo & Mendona
1
2
1
4
= 14 .
2
4
83
2
4
2
4
1
4
2
4
= 14 .
14 (0.5) + 0 = 0.35.
42 + ( 24 41 ) = 14 .
= 12 .
2
4
( 24 41 ) = 14 .
(k) P (X 1) = FX (1) = 41 (1 1) = 0.
(l) P (X 3) = FX (3) = 1.
4.5
Distribuies de caudas-pesadas
84
P (X > x) = x1
0.5
0.2
0.1
4.6
X, como esse fato pode ser usado para encontrar a lei de probabilidade de X, log X, X 2
ou 2X 3?
O problema determinar P (Y C), onde C um evento Boreliano. Para determinar
essa probabilidade, a imagem inversa da funo H fundamental, ou seja, a probabilidade
do evento {Y C} ser por definio igual a probabilidade do evento {X H 1 (C)},
onde H 1 (C) = {x IR : H(x) C}. Para que esta probabilidade esteja bem definida,
preciso restringir H tal que H 1 (C) seja um evento Boreliano para todo C Boreliano,
caso contrrio no possvel determinar P ({X H 1 (C)}); uma funo que satisfaz esta
condio conhecida como mensurvel com respeito a B. Note que Y tambm pode ser
vista como uma funo do espao amostral , Y () = H(X()) para todo . Vista
dessa maneira Y uma varivel aleatria definida em (, A), pois para todo Boreliano
Campos, Rgo & Mendona
85
86
PY (n Cn ) = PX (Y 1 (n Cn ))
= PX (n Bn )
X
=
PX (Bn )
n
PX (Y 1 (Cn )
PY (Cn ).
Vale ressaltar que se X for uma varivel aleatria discreta, Y = H(X) tambm o ser.
Os exemplos a seguir ilustram como calcular a distribuio de probabilidade de uma funo de varivel aleatria. Ressalta-se a importncia fundamental da funo de distribuio
acumulada, F , e de grficos para visualizar as regies C e B.
Exemplo 4.6.1: X, discreta; Y = H(X), discreta. Admita-se que X tenha os valores
possveis 1, 2, 3, . . . e que P (X = n) = (1/2)n . Seja Y = 1 se X for par e Y = 1 se X for
mpar. Determinar a distribuio de Y .
Soluo: Ento,
X
X
2n
(1/4)n =
(1/2) =
P (Y = 1) =
n=1
n=1
1/4
= 1/3.
1 1/4
Consequentemente,
P (Y = 1) = 1 P (Y = 1) = 2/3.
De modo geral, suponha que X assume os valores x1 , x2 , . . . e que H uma funo real
tal que Y = H(X) assume os valores y1 , y2 , . . .. Agrupando os valores que X assume de
acordo os valores de suas imagens quando se aplica a funo H, ou seja, denotando por
xi1 , xi2 , xi3 , . . . os valores de X tal que H(xij ) = yi para todo j, tem-se que
P (Y = yi ) = P (X {xi1 , xi2 , xi3 , . . .}) =
X
j=1
P (X = xij ) =
pX (xij ),
j=1
87
Exemplo 4.6.3: X, contnua; Y = H(X), discreta. Seja fX (x) = 2x, 0 < x < 1 e
Y = H(X) definida por Y = 0 se X < 31 , Y = 1, se 13 X < 23 e Y = 2, se X 23 .
Determinar a distribuio de Y .
Soluo: Em termos de eventos equivalentes tem-se que:
1
C1 = {Y = 0} B1 = {X < },
3
1
2
C2 = {Y = 1} B2 = { X < },
3
3
2
C3 = {Y = 2} B3 = {X }.
3
Logo,
1
P (Y = 0) = P (X < ) =
3
Z
0
1
3
1
2xdx = ,
9
Z 2
3
3
1
2
2xdx = ,
P (Y = 1) = P ( < X ) =
1
3
3
9
3
Z 1
2
5
P (Y = 2) = P (X ) =
2xdx = .
2
3
9
3
88
P (Y y)
P (eX y)
P (X ln y)
P (X ln y)
Z 1
2xdx
=
FY (y) =
=
=
=
ln y
= 1 ( ln y)2 fY (y) =
2 ln y
.
y
Logo,
fY (y) =
2 ln y
,
y
0,
y (e1 , 1),
y 6 (e1 , 1).
Exemplo 4.6.5: Se fX (x) = 1, 0 < x < 1, e zero para quaisquer outros valores, qual a
distribuio de Y = log(X)?
Soluo: Como
0<Y <0<X<1
e P (0 < X < 1) = 1, tem-se FY (y) = 0, y 0. Se y > 0, ento
P (Y y) = P ( log(X) y) = P (X ey ) = 1 ey ,
ou seja, Y Exp(1), isto , uma Exponencial (que ser vista depois) de parmetro 1.
No exemplo a seguir X contnua e H(X) contnua. A nfase deste exemplo mostrar
o cuidado na busca dos eventos equivalentes.
Exemplo 4.6.6: Seja fX (x) = 31 x2 , 1 < x < 2 e zero para quaisquer outros valores de x.
Encontrar a funo densidade da varivel aleatria Y = X 2 .
Soluo: Portanto, como pode ser visto na figura abaixo,
1 < x < 1 0 < y < 1
e
1 x < 2 1 y < 4.
Ento,
P (Y y)
P (X 2 y)
P ( y X y)
FX ( y) FX ( y) + P (X = y)
=
FX ( y),
1 y < 4.
FY (y) =
=
=
=
89
fY (y) =
y
,
3
y
,
6
0,
y (0, 1),
y [1, 4).
y 6 (0, 4).
FY (y) =
=
=
=
P (Y y)
P (H(X) y)
P (X H 1 (y))
FX (H 1 (y)).
Campos, Rgo & Mendona
90
Logo,
d
d
dFX (H 1 (y)) dx
FY (y) = FX (H 1 (y)) =
,
dy
dy
dx
dy
onde x = H 1 (y).
Mas,
d
FY (y) = FY0 (y) = fY (y).
dy
Portanto,
dFX (H 1 (y)) dx
dH 1 (y)
= FX0 (H 1 (y))
.
dx
dy
dy
Logo,
fY (y) = fX (H 1 (y))
dH 1 (y)
, y H(I).
dy
FY (y) =
=
=
=
=
P (Y y)
P (H(X) y)
P (X H 1 (y))
1 FX (H 1 (y)) + P (X = H 1 (y))
1 FX (H 1 (y)).
dH 1 (y)
dy
e assim
fY (y) = fX (H
dH 1 (y)
(y))
, y H(I).
dy
Tambm pode-se utilizar o mtodo acima em outros casos em que a funo H no seja
nem crescente nem decrescente em I. Para tanto suponha que I possa ser dividido em uma
quantidade enumervel I1 , I2 , I3 , . . . de subintervalos tal que H seja crescente ou decrescente
em cada um deles, PX (Ij Ik ) = 0 e H(Ij ) = H(Ik ) para todo j 6= k. Neste caso, seja Hj1
a funo inversa de H restrita ao subintervalo Ij . Portanto,
Campos, Rgo & Mendona
91
FY (y) = P (Y y)
= P (H(X) y)
X
X
=
P (X Hj1 (y)) +
P (X Hj1 (y)).
j:Hj1 crescente
j:Hj1 decrescente
Logo, pelos resultados anteriores,
fY (y) =
fX (Hj1 (y))|
d 1
H (y)|, y H(I).
dy j
P (Y y)
P (X 2 y)
P ( y X y)
FX ( y) FX ( y) + P (X = y)
FX ( y) FX ( y),
porque P (X = y) = 0. Logo,
d
d
d
d
dFX ( y) dx1
d
FX ( y) =
, x1 = y,
dy
dx1
dy
dFX ( y)
= fX ( y),
dx1
dx1
1
= ,
dy
2 y
dFX ( y) dx2
d
FX ( y) =
, x2 = y,
dy
dx2
dy
dFX ( y)
= fX ( y),
dx2
dx2
1
= .
dy
2 y
Campos, Rgo & Mendona
92
Logo,
(f ( y)
2 y X
fY (y) =
0,
+ fX ( y)), y 0,
y < 0,
Alternativamente, poderia ter sido usado o procedimento descrito anteriormente e particionar IR nos subintervalos I1 = (, 0] e I2 = [0, +). Note que PX (I1 I2 ) = 0,
fY (y) = fX ( y) + fX ( y) , y 0.
2 y
2 y
Exemplo 4.6.9: Este exemplo mostra diversos mtodos de resolver um problema sobre
como calcular a densidade, ou distribuio acumulada, para uma dada varivel aleatria.
Seja
1
, 1 < x < 1,
2
fX (x) =
0, x
/ (1, 1),
e Y = H(X) = X 2 . O objetivo calcular fY (y).
Como 1 < x < 1 e y = x2 , ento 0 < y < 1.
(a)
FY (y) =
=
=
=
=
P (Y y)
P (X 2 y)
P ( y X y)
FX ( y) FX ( y) + P (X = y)
FX ( y) FX ( y)
Mas,
dFY (y)
= fY (y)
dy
dFX ( y) d( y) dFX ( y) d( y)
dFY (y)
=
dy
d( y)
dy
d( y)
dy
Logo,
1
1
fX ( y) + fX ( y)
2 y
2 y
1 1
1 1
=
+
2 y2 2 y2
1
= , 0 < y < 1.
2 y
fY (y) =
93
(b)
P (Y y)
P (X 2 y)
P ( y X y)
FX ( y) FX ( y) + P (X = y)
FX ( y) FX ( y)
Z y
=
fX (x)dx
FY (y) =
=
=
=
=
=
( y + y)
2
=
y.
Portanto, como fY (y) = FY0 (y), ento,
1
fY (y) = , 0 < y < 1.
2 y
(c) Usando o Teorema 4.6.7.
1 1 1
1
1
FX (x) =
0,
x+1
,
2
1,
Mas,
FX ( y) =
x < 1,
1 x < 1,
x 1.
y+1
,
2
y+1
FX ( y) =
.
2
Logo,
FY (y) =
0,
y+1
2
1,
y+1
2
y < 0,
= y, 0 y < 1,
y 1.
Portanto, derivando,
1
fy (y) = , 0 < y < 1.
2 y
4.7
94
O exemplo de uma varivel aleatria singular a funo de Cantor, cuja construo segue-se.
Exemplo 4.7.1: Seja
F0 (x) =
0, x < 0,
1, x > 1.
0, x < 0,
1
, 1 < x < 23 ,
F1 (x) =
2 3
1, x > 1.
Cada tero do intervalo (0, 1) sendo dividido em trs partes equivale a dividir (0, 1) em
0+ 1
nove partes. Para o intervalo ( 91 , 29 ), o valor da F 2 2 = 14 ; para o intervalo ( 79 , 89 ), o valor
1
+1
da F 2 2 = 34 .
Este processo constri uma sequncia de funes Fn (x), n = 1, 2, , cuja funo limite,
F (x), satisfaz s propriedades F1, F2, F3. Alm disso, F uma funo contnua onde o
conjunto de pontos onde a funo cresce tem comprimento nulo. Portanto, F uma funo de
distribuio, entretanto no nem discreta, nem contnua, uma varivel aleatria singular.
Pode ser visto (James, 1981) que toda varivel aleatria uma combinao dos trs tipos:
discreta, contnua e singular; entretanto, as variveis aleatria que so comuns no mundo
real ou so discretas, ou contnuas, ou uma combinao entre esses dois tipos (mistas).
O exemplo a seguir mostra como decompor F em suas partes discreta, contnua e singular.
Exemplo 4.7.2: Suponha que X tenha densidade fX (x) = 1 para 0 < x < 1 e 0 para
quaisquer outros valores. Seja Y = min{X, 1/2}. Note que
0, x < 0,
x, 0 x < 1/2,
FY (x) =
1, x 1/2.
FY tem apenas um salto em x = 1/2 e p1 = 1/2. Logo, Fd (x) = 0 se x < 1/2 e
Fd (x) = 1/2 se x 1/2. Diferenciando FY , tem-se
0, x < 0 x > 1/2,
0
FY (x) =
1, 0 < x < 1/2.
Portanto,
x < 0,
0,
x,
0 x 1/2,
Fac (x) =
f (t)dt =
4.8
95
Exerccios
x < 0,
0,
1,
x 1.
Faa o grfico de FX (). Determine a funo densidade de probabilidade e faa seu
grfico.
4.4 Para cada uma das funes abaixo, faa seu grfico; verifique se uma funo densidade
de probabilidade para uma dada varivel aleatria X. Se for, encontre a funo de
distribuio acumulada e faa seu grfico.
(a) fX (x) = 6x(1 x), 0 x 1.
(b)
1 + x, 1 x 0,
1 x, 0 x 1,
fX (x) =
0,
quaisquer outros valores.
(c)
x/2,
1/2,
fX (x) =
x/2 + 3/2,
0,
0 x 1,
1 x 2,
2 x 3,
quaisquer outros valores.
4.5 Uma varivel aleatria contnua X tem funo densidade fX (x) = ex , x > 0 e
> 0.
(a) Determine a funo de distribuio acumulada de X.
Campos, Rgo & Mendona
4.8. EXERCCIOS
96
P (X
P (X
P (X
P (X
3).
> 2).
< 1).
> 1).
4.6 Um ponto escolhido ao acaso sobre uma reta de comprimento L. Qual a probabilidade de que a razo do segmento mais curto para o mais longo seja menor que
1/2?
4.7 Uma varivel aleatria X tem densidade
x,
(1 x),
fX (x) =
0,
fX () dada por
0 x < 0.5,
0.5 x < 1,
quaisquer outros valores.
97
(a) P (X x).
(b) P (a X b).
(c) P (a X < b).
(d) P (a < X < b).
Sugestes: (, a] = (, a) {a}, (, a] (a, b) = (, b).
4.12 Seja fU (u) = eu , u 0. Mostre que f uma funo densidade. Encontre
R
0
ufU (u)du.
4.13 Suponhamos que dez cartas estejam numeradas de 1 at 10. Das dez cartas, retirase uma de cada vez, ao acaso e sem reposio, at retirar-se o primeiro nmero par.
Conta-se o nmero de retiradas necessrias. Exiba um bom modelo probabilstico para
este experimento.
4.14 Seja X uma varivel aleatria com densidade
2
cx , 1 x 1,
fX (x) =
0,
caso contrrio.
(a) Determine o valor da constante c.
(b) Determine a funo de distribuio acumulada e esboe seu grfico.
(c) Ache o valor tal que FX () = 1/4. ( o primeiro quartil da distribuio de X.)
(d) Ache o valor tal que FX () = 1/2. ( a mediana da distribuio de X.)
4.15 Uma varivel aleatria X tem funo distribuio
1, x > 1,
x3 , 0 x 1,
FX (x) =
0, x < 0.
Qual a densidade de X?
4.16 Uma varivel X tem funo de distribuio
0,
x /2,
3/4,
FX (x) =
(1/4)(x + 1),
1,
x < 0,
0 x < 1,
1 x < 2,
2 x < 3,
x 3.
Determine o seguinte:
(a) P (X = 1/2);
(b) P (X = 1);
(c) P (X < 1);
Campos, Rgo & Mendona
4.8. EXERCCIOS
98
(d) P (X 1);
(e) P (X > 2);
(f ) P (1/2 < X < 5/2).
4.17 Calcule
(a) P (X > 2);
(b) P (X 0);
(c) P (X = 0);
(d) P (X < 0);
(e) P (X 0.5).
para uma varivel X que tem funo de distribuio
1 0.75ex , se x 0,
FX (x) =
0,
se x < 0.
R
4.18 Seja a probabilidade da varivel aleatria X definida por P (A) = A fX (x)dx, onde
fX (x) = cx/9, para 0 < x < 3. Sejam A1 = {x | 0 < x < 1} e A2 = {x | 2 < x < 3}.
Calcule
(a) o valor da constante c,
(b) P (A1 ),
(c) P (A2 ),
(d) P (A1 A2 ),
(e) P (A1 | A2 ).
4.19 Coloque V ou F nas sentenas abaixo:
(a) Uma varivel aleatria X s assume valores no intervalo [0, 1].
( )
(b) Se X uma varivel aleatria contnua, ento X tambm uma varivel aleatria
discreta.
( )
(c) Se X uma varivel aleatria discreta ento X no pode ser contnua.
A recproca que verdadeira.
Rx
(d) Se X uma varivel aleatria contnua, FX (x) = fX (s)ds.
(e) Se X uma varivel aleatria contnua, fX (x) =
(g) limx+ FX (x) = 0.
R
(h) P (X A) = A FX (x)dx.
R
(i) P (X A) = A fX (x)dx.
d
F (x).
dx X
( )
( )
( )
( )
( )
( )
99
4.20 Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecionado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subsequentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quantidade de informao obtida, a qual pode ser expressa como um ganho financeiro de
c dlares. Seja T o custo lquido desse experimento. Estabelea a distribuio de
probabilidade de T .
4.21 Determine a densidade de Y = (b a)X + a, onde fX (x) = 1, se 0 < x < 1 e zero para
quaisquer outros valores.
4.22 Se X tem densidade fX (x) = e|x| /2, < x < +, qual a distribuio de
Y =| X |?
4.23 Uma varivel aleatria X tem uma densidade de probabilidade fX (x). Encontre a
funo densidade de probabilidade da varivel aleatria Y = aX + b, onde a e b so
constantes.
4.24 Uma varivel aleatria X tem uma densidade de probabilidade fX (x). Qual a funo
densidade de probabilidade da varivel aleatria Y =| 1 X |?
4.25 Uma varivel aleatria contnua X tem uma densidade de probabilidade fX (x). Considere a varivel Y = X. Encontre sua funo densidade fY (y).
4.26 Uma varivel aleatria contnua X tem uma densidade de probabilidade fX (x). Encontre a funo densidade fY (y) do seu mdulo, Y =| X |.
4.27 Uma varivel aleatria X tem uma funo distribuio FX (x), e uma varivel aleatria
Y relaciona-se com X por Y = 2 3X. Encontre a funo distribuio FY (y) da
varivel aleatria Y .
4.28 Dada uma varivel aleatria contnua X com funo densidade fX (x), encontre a distribuio da varivel aleatria
+1, X > 0,
0, X = 0,
Y = sinal de X =
1, X < 0.
4.29 Uma varivel aleatria X tem uma densidade de probabilidade correspondente a reta
que passa pelos pontos (1, 0) e (1, 1), para x (1, 1), e zero fora. Uma varivel
aleatria Y relacionada a X por Y = 1 X 2 . Encontre a funo densidade fY (y).
4.30 Uma varivel aleatria X tem densidade fX (x) = 1, no intervalo (0, 1) zero fora. Uma
varivel aleatria Y tem um relacionamento funcional monotonicamente crescente com
a varivel X tal que Y = (X). Encontre a funo distribuio FY (y) e a funo
densidade fY (y).
Campos, Rgo & Mendona
4.8. EXERCCIOS
100
4.35 Seja X tendo funo densidade fX (x) = 2xex , 0 < x < , e zero para quaisquer
outros valores. Determine a densidade de Y = X 2 .
4.36 Seja X uma varivel aleatria contnua com funo densidade fX (x).
(a) Encontre a funo densidade de Y = X 2 .
(b) Se fX (x) = fX (x), x, simplifique a resposta encontrada em (a).
(c) Se fX (x) = 0 quando x 0, simplifique a resposta encontrada em (a).
4.37 Uma varivel aleatria X tem funo densidade probabilidade definida por:
c + x, 1 x < 0,
c x, 0 x 1,
fX (x) =
0,
quaisquer outros casos.
(a) Calcule o valor da constante c.
(b) Seja o evento A = {x | 0.5 x 0.5}. Compute P (A).
(c) Encontre a funo de distribuio acumulada de X, FX , e usando a mesma calcule
P (X 0.5).
(d) Suponha que uma varivel Y assuma o valor 0 se X for negativa e 1, se X for
positiva ou nula. Encontre a distribuio de probabilidade dessa varivel.
Captulo 5
Vetores Aleatrios e Funes
5.1
Introduo
Muitas vezes na vida real, o interesse na descrio probabilstica de mais de um caracterstico numrico de um experimento aleatrio. Por exemplo, na distribuio de alturas e
pesos de indivduos de uma certa classe. Para tanto preciso estender a definio de varivel
aleatria para o caso multidimensional.
~ : IRn
Definio 5.1.1: Seja (, A, P ) um espao de probabilidade. Uma funo X
~ 1 (B) A.
chamada de um vetor aleatrio se para todo evento B, Boreliano,1 de IRn , X
~ pode-se definir uma probabilidade induzida P ~ no esDado um vetor aleatrio X,
X
n
n
pao mensurvel (IR , B ) da seguinte maneira: para todo B B n , define-se PX~ (B) =
~ 1 (B)). Por definio de vetor aleatrio, tem-se que X
~ 1 (B) = A A, ento P ~ est
P (X
X
bem definida.
5.2
101
102
xi
Portanto, a funo de distribuio acumulada conjunta de X1 , . . . , Xn1 pode ser facilmente determinada da funo de distribuio acumulada conjunta de X1 , . . . , Xn
fazendo xn . Observe que funes de distribuio acumuladas conjuntas de ordem
maiores determinam as de ordem menores, mas o contrrio no verdadeiro. Em
particular,
lim FX~ (~x) = 1.
~
x
103
F0 (1, 0) = P (X 1, Y 0),
F0 (0, 1) = P (X 0, Y 1),
F0 (0, 0) = P (X 0, Y 0),
Logo,
F0 (1, 1) F0 (1, 0) =
=
=
=
P (X 1, Y 1) P (X 1, Y 0)
P ({X 1, Y 1}) P ({X 1, Y 0})
P ({X 1, Y 1} {X 1, Y 0})
P (X 1, 0 < Y 1).
(5.1)
(5.2)
(5.3)
(5.4)
5.2.1
~ um vetor aleatrio discreto se existir um conjunto enumervel {~x1 , ~x2 , . . . , } tal que
X
P (~x {~x1 , ~x2 , . . . , }) = 1. Neste caso, define-se uma funo probabilidade de massa conjunta,
ou sua distribuio de probabilidade conjunta p,
P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) = p(x1 , x2 , . . . , xn ) = p(~xi ).
Logo,
p(~xi ) 0,
p(~xi ) = 1.
i=1
5.2.2
5.3
104
p(x1 , . . . , xn ).
x1
xi1 xi+1
xn
A seguir ser visto como calcular probabilidades condicionais envolvendo variveis aleatrias.
Definio 5.3.3 : Sejam X e Y variveis aleatrias com distribuio de probabilidade
conjunta P (X = xi , Y = yj ) = p(xi , yj ), (i, j) pertencente ao contradomnio de (X,Y).
Ento, a distribuio condicional de X dada Y = yj , P (X = x | Y = yj ),
P (X = xi | Y = yj ) =
P (X = xi , Y = yj )
p(xi , yj )
=
= pX|Y (xi |yj ), pY (yj ) > 0.
P (Y = yj )
pY (yj )
(5.6)
O leitor pode fazer uma analogia com a definio de probabilidade condicional vista
anteriormente. Facilmente observa-se que (5.6) uma probabilidade:
(i) P (X = xi | Y = yj ) 0, porque quociente de probabilidades.
(ii)
P (X IR, Y = yj )
P (Y = yj )
P (Y = yj )
=
= 1.
P (Y = yj )
P (X IR | Y = yj ) =
(iii)
P (
i=1 {X = xi } | Y = yj ) =
=
=
=
=
P ((
i=1 {X = xi }) {Y = yj })
P (Y = yj )
P (i=1 {X = xi , Y = yj })
P (Y = yj )
P
i=1 P (X = xi , Y = yj )
P (Y = yj )
X
P (X = xi | Y = yj ).
i=1
105
Analogamente,
P (Y = yj | X = xi ) =
P (X = xi , Y = yj )
.
P (X = xi )
P (X x, Y I)
,
P (Y I)
Rx R
RyI
yI
f (x, y)dydx
f (y)dy
f (x, y)dx
=
f (y)
f (x, y)
dx.
f (y)
f (x,y)
,
fY (y)
0,
106
(ii)
Z
f (x | y)dx =
f (x, y)dx
fY (y)
Z +
f (x, y)dx
1
fY (y)
fY (y)
= 1.
=
fY (y)
De forma similar,
(
f (y | x) =
f (x,y)
,
fX (x)
0,
0
0.202
0
0
0
1
0.174
0.099
0
0
2
0.113
0.064
0.031
0
3
0.062
0.040
0.025
0.001
4
0.049
0.031
0.018
0.002
5
0.023
0.020
0.013
0.004
6
0.004
0.006
0.008
0.011
0
0.202
0
0
0
0.202
1
0.174
0.099
0
0
0.273
2
0.113
0.064
0.031
0
0.208
3
0.062
0.040
0.025
0.001
0.128
4
0.049
0.031
0.018
0.002
0.100
5
0.023
0.020
0.013
0.004
0.06
6
0.004
0.006
0.008
0.011
0.029
P (Y = i)
0.627
0.260
0.095
0.018
1
Algumas marginais:
P (X = 0 | Y = 0) =
0.202
= 1,
0.202
Campos, Rgo & Mendona
107
0.040
= 0.312,
0.128
0.008
P (Y = 6 | X = 2) =
= 0.038,
0.208
0.006
= 0.022.
P (Y = 6 | X = 1) =
0.273
P (X = 1 | Y = 3) =
Exemplo 5.3.6: Determine as densidades marginais fX (x) e fY (y) e as densidades condicionais: de X dada Y , f (x | y), e de Y dada X, f (y | x) quando
x + y, 0 x 1, 0 y 1,
f (x, y) =
0,
caso contrrio.
Soluo: Obtendo as densidades marginais,
Z 1
1
(x + y)dy = x + , se 0 x 1,
fX (x) =
2
0
Z 1
1
(x + y)dx = y + , se 0 y 1.
fY (y) =
2
0
Logo, as densidades condicionais so:
f (x|y) =
x+y
, se 0 x 1, 0 y 1,
y + 12
f (y|x) =
x+y
, se 0 x 1, 0 y 1.
x + 12
Exemplo 5.3.7: Determine as densidades marginais fX (x) e fY (y) e as densidades condicionais: de X dada Y , f (x | y), e de Y dada X, f (y | x) quando
(x+y)
e
, x 0, y 0,
f (x, y) =
0,
caso contrrio.
Soluo: Obtendo as densidades marginais,
Z
fX (x) =
e(x+y) dy = ex , se x 0,
0
Z
fY (y) =
e(x+y) dx = ey , se y 0.
5.4
108
n
Y
P (Xi Bi ).
i=1
O prximo teorema estabelece trs critrios para provar que um conjunto de variveis
aleatrias mutuamente independente.
Teorema 5.4.2 : As seguintes condies so necessrias e suficientes para testar se um
conjunto {X1 , . . . , Xn } de variveis aleatrias mutuamente independente:
(i) FX~ (~x) =
Qn
i=1
FXi (xi ).
n
Y
pXi (xi ).
i=1
n
Y
i=1
Prova:
(i) Se {X1 , . . . , Xn } so variveis aleatrias mutuamente independentes, ento
i=1
A prova da suficincia foge ao escopo deste livro (Burrill, (1972); Shiryayev, (1984)).
Campos, Rgo & Mendona
109
i=1
P (X1 B1 , X2 B2 , . . . , Xn Bn ) =
i:x1i B1
X
i:x1i B1
n
Y
i:xni Bn
i:x1i B1
X
X
i:xni Bn
n
X Y
pXj (xji )
i:xni Bn j=1
P (Xj Bj ).
j=1
110
(iii) Se for factvel supor que todos os pontos de uma dada regio R IRn estejam uniformemente dispostos em R, ento a densidade conjunta constante em R e sendo assim
pode ser definida por
f (x1 , . . . , xn ) =
vol R
0,
, (x1 , . . . , xn ) R,
caso contrrio.
Z
fY (y) =
2y
2
15x2 ydx =
5y(2 y)3
, se 0 y 2.
8
111
P (X1 = i, X2 = j)
i , j
0
1
P (X1 = i)
P (X2 = j)
42
90
21
90
63
90
21
90
6
90
27
90
63
90
27
90
7
10
7
P (X1 = 0, X2 = 1) =
10
3
P (X1 = 1, X2 = 0) =
10
3
P (X1 = 1, X2 = 1) =
10
P (X1 = 0, X2 = 0) =
6
9
3
9
7
9
2
42
.
90
21
= .
90
21
= .
90
6
= .
90
=
P (X1 = i, X2 = j)
i , j
0
1
P (X1 = i)
P (X2 = j)
49
100
21
100
70
100
21
100
9
100
30
100
70
100
30
100
7
10
7
P (X1 = 0, X2 = 1) =
10
3
P (X1 = 1, X2 = 0) =
10
3
P (X1 = 1, X2 = 1) =
10
P (X1 = 0, X2 = 0) =
1
7
10
3
10
7
10
3
10
49
.
100
21
=
.
100
21
=
.
100
9
=
.
100
=
112
1
, i, j = 1, 2, . . . , n.
n2
1
1
= .
2
n
n
n
n1
1
n+1
+
+ + 2 =
.
2
2
n
n
n
2n
P (X + Y 3) = 1 P (X + Y < 3) = 1 P (X = 1, Y = 1) = 1
n2 1
1
=
.
n2
n2
1
1
= 1 P (X > Y ) = .
3
3
-1
0
2
6
1/9 1/27 1/27 1/9
2/9
0
1/9 1/9
0
0
1/9 4/27
Determine
Campos, Rgo & Mendona
113
(a) a probabilidade de XY = 2;
Soluo:
P (XY = 2) = P (X = 2, Y = 1) + P (X = 1, Y = 2) = 2/9.
(b) as distribuies marginais;
Soluo:
X , Y
-2
1
3
P (Y = j)
-1
0
2
6
1/9 1/27 1/27 1/9
2/9
0
1/9
1/9
0
0
1/9 4/27
3/9 1/27 7/27 10/27
P (X = i)
8/27
4/9
7/27
1
(c) X e Y so independentes?
Soluo: No porque P (X = 3, Y = 1) = 0 6= P (X = 3)(P (Y = 1).
Exemplo 5.4.9: Seja o vetor aleatrio (X, Y ) uniformemente distribudo na regio R(X,Y ) =
{(x, y) | x > 0, y > 0, x + y < 1}. Calcule
(a) a conjunta f (x, y);
Soluo:
f (x, y) =
x+1
fX (x) =
0
y+1
fY (y) =
0
114
1
,
3
(x, y) T,
0, caso contrrio.
2|x|
,
3
0 | x | 1,
1 | x | 2,
caso contrrio.
1
dx
(2y) 3
0,
1
3
fX (x) =
x
fY (y) =
0
5.5
115
~ = ~xij ) =
P (X
j=1
pX~ (~xij ),
j=1
ou seja, para calcular a probabilidade do evento {Y~ = ~yi }, acha-se o evento equivalente
~ isto , todos os valores ~xij de X
~ tal que H(~xij ) = ~yi e somam-se as
em termos de X,
~ assumir cada um desses valores.
probabilidades de X
Seja agora o caso em que (X, Y ) e Z = H(X, Y ) so contnuos. Fixado z, a soluo geral
do problema :
FZ (z) = P (Z z)
= P (H(X, Y ) z)
= P ((X, Y ) Bz )
Z Z
=
f (x, y)dxdy,
Bz
f (x, y)dxdy =
g(v)dv
Bz
ento,
g() = fZ (),
isto , g a densidade de Z, fZ ().
O que ser feito a seguir como usar este resultado para encontrar a distribuio da
soma, produto e quociente de X e Y .
Campos, Rgo & Mendona
5.5.1
116
Distribuio de Z = X + Y
Bz = {(x, y) : x + y z}
= {(x, y) : < x < +, < y z x}.
Z Z
f (x, y)dxdy
FZ (z) =
Z
Bz
+ Z zx
f (x, y)dy)dx.
Z z Z
=
(
f (x, v x)dv)dx
FZ (z) =
Logo, g(v) =
R +
f (x, v x)dx)dv.
f (x, v x)dx e
Campos, Rgo & Mendona
117
(5.7)
fX+Y (z) =
(5.8)
fX (x)fY (s x)dx, 0 x 1, 0 y 1.
Como 0 x 1 e 0 y 1 ento
0 x 1 0 s x 1 0 x 1 s 1 x s.
A Figura 5.2 ilustra as situaes possveis para s.
(a) s 1 0 0 s 1 0 s 1.
(b) 0 s 1 1 s 1 0 < s 2 s 1 1 s 2.
Campos, Rgo & Mendona
118
dx = 2 s, 1 s 2.
fS (s) =
s1
Concluindo,
0 s 1,
s,
2 s, 1 s 2,
fS (s) =
0,
quaisquer outros valores.
f (x, v x)dx.
fV (v) =
119
Soluo:
fX1 (x1 ) = x1 ex1 , x1 0,
fX2 (x2 ) = x2 ex2 , x2 0.
Logo,
Z
fS (s) =
fS (s) =
0
s
0
s 3
e s
.
6
es s3
, s 0.
6
Exemplo 5.5.4: Sejam X e Y variveis aleatria independentes e identicamente distribudas com densidade f (t) = et , t 0. Encontre a densidade de S = X + Y .
Soluo:
fX (x) = ex , x 0,
fY (y) = ey , y 0,
logo,
+
fX (x)fY (s x)dx, s 0.
fS (s) =
0
ex e(sx) dx = ses .
Logo,
fS (s) = ses , s 0.
120
5.5.2
Distribuio de Z = XY
z
,
x
z
x < 0, xy z y .
x
x > 0, xy z y
Logo,
Bz = {(x, y) : < x < 0 y
z
z
} {(x, y) : 0 < x < + y } = B1 B2 .
x
x
121
f (x, y)dxdy
Bz
f (x, y)dy)dx +
z
x
Z
(
z
x
f (x, y)dy)dx.
1
v
dy = dv.
x
x
Substituindo o valor de y em B1 e B2 ,
v
z
v z z v < +,
x
x
v
z
v z < v z.
x
x
Logo,
Z
Z + Z z
v 1
v 1
(
f (x, ) dv)dx +
(
f (x, ) dv)dx
x x
x x
z
0
Z 0 Z z
Z 0 Z z
1
v
1
v
(
( )f (x, )dv)dx +
(
f (x, )dv)dx
x
x
x
x
Z + Z z
1
v
(
| | f (x, )dx)dv
x
x
Z z Z +
1
v
(
| | f (x, )dx)dv.
x
x
Z
FZ (z) =
=
=
=
Portanto,
Campos, Rgo & Mendona
fXY (z) =
122
1
z
| f (x, )dx, < z < +.
x
x
(5.9)
z
1,
y
0y10y=
z
1
x
e portanto, z x 1. Logo,
1
Z
fZ (z) =
z
Distribuio de Z =
5.5.3
Seja Z =
Y
X
1
z
f (x, )dx = lnz, 0 < z < 1.
x
x
Y
X
e z fixo. Logo
Bz = {(x, y) :
y
z}.
x
Se,
y
z y xz,
x
y
x < 0, z y xz.
x
x > 0,
Portanto,
Bz = {(x, y) : < x < 0 y xz} {(x, y) : 0 < x < + y xz}
= B1 B2 .
Ento,
Campos, Rgo & Mendona
123
Z Z
Fz (z) =
f (x, y)dxdy
Bz
f (x, y)dy)dx +
xz
Z
(
xz
f (x, y)dy)dx.
124
Assim,
Z + Z z
Z
xf (x, xv)dv)dx
(
xf (x, xv)dv)dx +
(
0
z
Z + Z z
Z 0 Z z
(
(x)f (x, xv)dv)dx +
(
xf (x, xv)dv)dx
0
Z + Z z
(
| x | f (x, xv)dv)dx
Z z Z +
(
| x | f (x, xv)dx)dv
Z
FZ (z) =
=
=
=
Logo,
Z
f Y (z) =
X
Se X e Y forem independentes,
Z
f Y (z) =
X
f Y (z) =
0
Z
| y | f (uy, y)dy =
fX/Y (u) =
yey(1+u) dy =
1
, u 0.
(1 + u)2
Exemplo 5.5.7: Duas pessoas marcam um encontro em determinado lugar entre 12:00
e 13:00. Cada uma chega, na hora marcada, ao encontro independentemente e com uma
densidade constante. Ficou acertado entre ambas que nenhuma delas esperar mais do que
15 minutos pela outra. Determinar a probabilidade de se encontrarem.
Soluo: Este problema ser resolvido de trs formas distintas. A figura a seguir ilustra a
regio de encontro, E, de ambas.
Campos, Rgo & Mendona
125
Z Z
P (E) =
f (x, y)dxdy
Z
ZE
Z Z
Z Z
f (x, y)dxdy +
R1
f (x, y)dxdy +
R2
f (x, y)dxdy.
R3
Portanto,
Campos, Rgo & Mendona
126
Z Z
1
4
Z
f (x, y)dxdy =
R1
Z Z
f (x, y)dxdy =
dy)dx =
4
,
16
dy)dx =
3
.
32
x 41
1
Z
f (x, y)dxdy =
(
3
4
R1
3
,
32
x+ 14
Z
(
1
4
R2
dy)dx =
0
3
4
Z Z
x+ 14
Z
(
x 41
Logo,
P (E) =
3
4
3
7
+
+
= .
32 16 32
16
fX (x)fY (x z)dx
Campos, Rgo & Mendona
127
pois z = x y y = x z.
De acordo com os dados do problema, o integrando ser no nulo quando
0 x 1 0 x z 1.
(5.10)
0x1 z xz+1
(5.11)
1dx = 1 + z, 1 z 0,
fZ (z) =
0
1dx = 1 z, 0 z 1.
fZ (z) =
z
Portanto,
1 + z, 1 z 0,
1 z, 0 < z 1,
fZ (z) =
0,
quaisquer outros valores.
fcil ver
R1
1
7
=
.
16
5.5.4
128
..
.
J = ...
yn
x1
y1
xn
..
.
yn
xn
Z
g(y1 , . . . , yn )dy1 dyn =
f 1 (A)
zy
f (x, y)dxdy.
Logo,
5.6
129
H 1 (B)
Z
=
~ H 1 (G)) = P (X
~ G0 ) = 1, ento, para todo Boreliano B
Como P (Y~ G) = P (X
n
no IR ,
P (Y~ B) = P (Y~ B G) =
BG
Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
f (H11 (y1 , . . . , yn ), . . . , Hn1 (y1 , . . . , yn ))|J| para ~y G, e zero no caso contrrio. Portanto,
pela definio de densidade,
fY~ (y1 , . . . , yn ) =
Observaes
(i) Note que J o Jacobiano da funo inversa H 1 . Em alguns casos pode ser til obter
J a partir do Jacobiano J 0 da funo H atravs da relao J = J10 |~x=H 1 (~y) .
~ quando a dimenso de Y~ menor que a
(ii) Para obter a distribuio de Y~ = H(X)
~ muitas vezes possvel definir outras variveis aleatrias Y 0 , . . . , Y 0 ,
dimenso de X
1
m
utilizar o mtodo do Jacobiano para determinar a densidade conjunta de Y~ , Y10 , . . . , Ym0
e, finalmente, obter a densidade marginal conjunta de Y~ . Considere o seguinte exemplo:
Exemplo 5.6.1: Suponha que X1 , X2 tem densidade conjunta dada por f (x, y) e que
o objetivo seja a distribuio de Y1 = X12 + X2 . Como esta no uma transformao
1-1, ela no possui inversa. Definindo uma nova varivel Y2 = X1 de modo que a
funo (Y1 , Y2 ) = H(X1 , X2 ) = (X12 + X2 , X1 ) possua uma funo inversa diferencivel,
(X1 , X2 ) = H 1 (Y1 , Y2 ) = (Y2 , Y1 Y22 ). Deste modo,
Campos, Rgo & Mendona
x1
y2
x2
y2
x1
y1
x2
y1
J = det
130
!
=
0
1
1 2y2
= 1
Ento, fY1 ,Y2 (y1 , y2 ) = f (y2 , y1 y22 ). Finalmente, para encontrar fY1 integra-se sobre
todos os possveis valores da varivel Y2 introduzida:
Z
fY1 (y1 ) =
l=1
0,
f (H|1
y G,
Gl (y1 , . . . , yn ))|Jl |, se ~
caso contrrio.
~ possua
Para a utilizao do mtodo do jacobiano, foi necessrio assumir que o vetor X
densidade conjunta. Na prxima seo ser visto como estender este mtodo para um caso
mais geral.
5.6.1
~ que absolutamente
A extenso supe apenas que existe pelo menos uma varivel no vetor X
~
contnua dado os valores das demais variveis em X.
m
~
z
Para um dado vetor ~z IR , sejam G0 e G regies abertas do IRn , e g : G0 {~z}
G~z {~z} uma funo bijetiva. Seja fX|
~ Z
~ a densidade condicional conjunta do vetor aleatrio
~
~ = (Z1 , . . . , Zm ), onde P ((X1 , . . . , Xn ) G0 |Z
~=
X = (X1 , . . . , Xn ) dado o vetor aleatrio Z
~ o qual pode ter partes
~z) = 1. No assume-se qualquer hiptese sobre o tipo do vetor Z,
discreta, contnua ou singular diferentes de zero.
~ e Z,
~ i.e., Yi =
Sejam Y1 , . . . , Yn variveis obtidas a partir de funes dos vetores X
gi (X1 , . . . , Xn , Z1 , . . . , Zm ), i = 1, 2, . . . , n. Portanto, existe funo inversa h = g 1 definida
em G~z {~z}, onde
X1 = h1 (Y1 , . . . , Yn , z1 , . . . , zm ), . . . , Xn = hn (Y1 , . . . , Yn , z1 , . . . , zm ),
e hi (Y1 , . . . , Yn , z1 , . . . , zm ) = zi , para i {n + 1, n + 2, . . . , n + m}.
Suponha que existam as derivadas parciais
Campos, Rgo & Mendona
131
Xi
hi (Y1 , . . . , Yn , z1 , . . . , zm )
=
,
Yj
Yj
para i, j {1, . . . , n} e que elas sejam contnuas em G~z {~z}. Define-se o jacobiano condi~ = ~z como J(X,
~ Y~ |Z
~ = ~z) pelo determinante:
cional dado Z
X
X1
1
Y1
Yn
..
..
~ Y~ |Z
~ = ~z) = det
J(X,
.
.
Xn
Y1
Xn
Yn
~ Y~ |Z
~ = ~z) seja diferente de zero para todo Y~ G~z . Ento para B
Suponha que J(X,
G , B boreliano, seja h(B{~z}) = {(x1 , . . . , xn ) : para algum ~y B, xi = hi (~y , ~z) para todo i =
1, . . . , n}. Utilizando o teorema de mudana de variveis, tem-se
~
z
~ = ~z) = P (X
~ h(B {~z})|Z
~ = ~z)
P (Y~ B|Z
Z
Z
= fX|
z )dx1 dxn
~ Z
~ (x1 , . . . , xn |~
h(B{~
z })
Z
=
~ = ~z)|dy1 dyn .
fX|
y , ~z), . . . , hn (~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
~ = ~z) = P (X
~ h(G~z {~z})|Z
~ = ~z) = P (X
~ G0 |Z
~ = ~z) = 1, tem-se
Como P (Y~ G~z |Z
n
que para todo boreliano B no IR ,
~ = ~z) = P (Y~ B G~z |Z
~ = ~z)
P (Y~ B|Z
Z
Z
~ = ~z)|dy1 dyn .
= fX|
y , ~z), . . . , h(n ~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
BG~z
Esta ltima integral igual a integral sobre o conjunto B da funo que toma o valor
~ = ~z)| para ~y G~z , e zero, caso contrrio. Portanto,
fX|
y , ~z), . . . , hn (~y , ~z)|~z)|J(~x, ~y |Z
~ Z
~ (h1 (~
pela definio de densidade condicional:
este conceito ser dado no prximo captulo, mas nesta seo ...
132
Z
fY~ |Z~ (y1 , . . . , yn |~z)dFZ~ (~z).
fY~ (~y ) =
~
z
Exemplo 5.6.2: Suponha que X1 uma varivel aleatria discreta que assume os valores
10, 15, 20 com probabilidades 1/4, 1/2, e 1/4, respectivamente. Sejam ainda X2 e X3 variveis
aleatrias que so condicionalmente independentes dado X1 e com distribuies condicionais
X2
).
X2 |X1 = k Exp(k) e X3 |X1 = k Exp(2k). Seja Y = X12 + X22 + X32 e Z = arctg( X
3
Determinar a densidade conjunta de (Y, Z).
Soluo: A densidade condicional conjunta de (X2 , X3 )|X1 = k dada por
2k 2 ekx2 2kx3 U (x2 )U (x3 ).
Tem-se que X1 = k,
P ((Y, Z) [k 2 , ) [0, /2]) = 1,
X2 = (
Y k2 1
) 2 sen Z,
2
Y k2 1
) 2 cos Z.
2
Portanto, o Jacobiano condicional dado que X1 = k dado por:
X3 = (
J((X2 , X3 ), (Y, Z)|X1 = k) = det
sen Z Y k2 12
( 2 )
4
cos Z Y k2 12
( 2 )
4
cos Z( Y k
)2
2
Y k2 12
sen Z( 2 )
1
= .
4
133
y100 12
1
(50
exp(10(sen
z
+
2
cos
z)(
) )),
4
2
y100 12
1
4
se (y, z) [225, 400) [0, /2);
=
1
1
4
2
4
2
0, caso contrrio.
1 225
(
2 2
1 225
(
2 2
Observaes:
~ Z)
~ assumiu(i) No desenvolvimento na seo anterior, para obter a distribuio de Y~ = g(X,
~ Quando a dimenso de Y~
se que o vetor Y~ tem dimenso igual a dimenso do vetor X.
~
menor que a dimenso de X, o tratamento anlogo ao caso da utilizao do mtodo
do Jacobiano para vetores absolutamente contnuos, ou seja, muitas vezes possvel
definir outras variveis aleatrias auxiliares Y10 , . . . , Ym0 , utilizar a extenso do mtodo
do Jacobiano para determinar a densidade condicional conjunta de Y~ , Y10 , . . . , Ym0 dado
~ e, finalmente, obter a densidade marginal condicional conjunta de Y~ dado Z.
~
Z
(ii) Tambm pode-se utilizar o mtodo do Jacobiano em outros casos em que a funo g no
~ = ~z, suponha que G~z , G~z , . . . , G~z sejam subregies
bijetiva. Para tanto, dado que Z
1
k
~ Z)
~ (k G~z ) {~z}) = 1,
abertas do IRn tais que G~z1 , . . . , G~zk sejam disjuntas e P ((X,
i=1 i
tais que a funo g|G~lz , a restrio de g a G~zl seja bijetiva entre G~zl e G~z , para l = 1, . . . , k.
Suponha que para todo l, a funo inversa de g|G~lz satisfaa as hipteses do caso
~ = ~z da inversa de g|G~z . Pode-se
anterior, e seja Jl~z o Jacobiano condicional dado que Z
l
provar que
( P
k
fY~ |Z~ (y1 , . . . , yn |~z) =
1
fX|
z )|~z)|Jl~z |, se ~y G~z ,
~ Z
~ (g|G~z (y1 , . . . , yn , ~
l
0, caso contrrio.
l=1
5.7. EXERCCIOS
5.7
134
Exerccios
5.1 Nos itens a seguir, considere que cada varivel aleatria uniformemente distribuda
na regio dada. Em cada caso, (i) esboe um grfico enfatizando a regio de interesse,
(ii) encontre a conjunta (iii) as marginais e (iv) valide3 os resultados encontrados.
(a) rea no quarto quadrante limitada por f1 (x) = x2 + 2x 1 e f2 (x) = 2x + 2;
(b) rea no primeiro quadrante limitada por f1 (x) = x1 , x 6= 0 e f2 (x) = 0.75x2 +
1.75x;
(c) rea limitada por f1 (x) = 1.5x2 + 0.5x e f2 (x) = 0.5x + 1.5;
(d) rea entre (x 1)2 + y 2 = 2 e (x 1)2 + (y 1)2 = 1;
(e) rea no primeiro quadrante limitada por f1 (x) =
2
2
x2 +1
e f2 (x) =
1
,
x2
x 6= 0;
R +
f (x, y) = 1,
R +
fX (x) = 1 e
R +
fY (y) = 1.
135
X=
Y =
5.7. EXERCCIOS
136
5.9 Sejam duas variveis aleatrias independentes X e Y , cada uma das quais com distribuio exponencial4 com diferentes parmetros. Escreva expresses para
(a) a funo densidade conjunta f (x, y) e
(b) a funo distribuio conjunta F (x, y).
5.10 Um sistema de variveis aleatrias (X, Y ) tem funo densidade conjunta f (x, y). Expresse as seguintes probabilidades em termos de f (x, y):
(a) {X > Y };
(b) {X >| Y |};
(c) {| X |> Y };
(d) {X Y > 1}.
5.11 Um sistema de variveis aleatrias (X, Y, Z) tem uma densidade conjunta f (x, y, z).
Escreva expresses para:
(a) as densidades fX (x), fY (y)
(b) a densidade conjunta fY,Z (y, z) do vetor aleatrio (X, Z);
(c) a densidade condicional fY,Z (y, z | x);
(d) a densidade condicional fY (y | x, z);
(e) a funo de distribuio conjunta F (x, y, z);
(f ) a funo de distribuio FX (x) da varivel aleatria X;
(g) a funo de distribuio F (x, y) do vetor (X, Y ).
5.12 Um sistema de variveis aleatrias (X, Y, Z) se distribui com uma densidade constante
no interior de uma bola de raio r. Encontre a probabilidade de que o ponto aleatrio
(X, Y, Z) caia numa bola concntrica de raio r/2.
5.13 Seja o vetor aleatrio (X, Y ). Sabe-se que a varivel aleatria X segue uma distribuio
exponencial com parmetro . Para um dado X = x > 0, a varivel aleatria Y
tambm segue uma distribuio exponencial com parmetro x.
(a) Escreva a densidade conjunta f (x, y) de X e Y .
(b) Encontre a densidade de Y .
(c) Encontre a densidade condicional fX|Y (x | y).
5.14 Duas pessoas marcam um encontro em um determinado lugar, entre 12:00 e 13:00
horas. Cada uma chega ao local do encontro independentemente e com uma densidade
de probabilidade constante no intervalo de tempo assinalado. Encontre a probabilidade
de que a primeira pessoa espere no menos que meia hora.
4
137
5.15 Dadas duas variveis aleatrias X e Y com uma densidade conjunta f (x, y), determine:
(a) a funo densidade do mximo das duas variveis, Z = max{X, Y };
(b) a funo densidade do mnimo das duas variveis, Z = min{X, Y };
(c) a funo densidade do mximo e a funo densidade do mnimo de n variveis
aleatrias independentes.
5.16 Sejam X e Y variveis aleatrias discretas e g e h funes tais que satisfaam a identidade P (X = x, Y = y) = g(x)h(y).
(a) Expresse P (X = x) em termos de g e h.
(b) Expresse P (Y = y) em termos de g e h.
P
P
(c) Mostre que ( x g(x))( y h(y)) = 1.
(d) Mostre que X e Y so independentes.
5.17 Sejam X1 e X2 duas determinaes independentes da varivel aleatria X. Encontre
a densidade da varivel aleatria Z = X1 /X2 , onde
1000
, x > 1000,
x2
fX (x) =
0,
quaisquer outros casos.
5.18 Suponha que as dimenses X e Y de uma chapa retangular de metal possam ser consideradas variveis aleatrias contnuas independentes com densidades, respectivamente:
1 < x 2,
x 1,
x + 3, 2 < x < 3,
fX (x) =
0,
quaisquer outros casos.
1/2, 2 < y < 4,
fY (y) =
0,
quaisquer outros casos.
Encontre a densidade da rea da chapa, A = XY .
5.19 Ao mensurar-se T , a durao da vida de uma pea, pode-se cometer um erro, o qual
se pode admitir ser uniformemente distribudo sobre (-0.01,0.01). Por isso, o tempo
registrado (em horas) pode ser representado por T + X, onde T , tem uma distribuio exponencial com parmetro 0.2 e X tem a distribuio uniforme descrita acima.
Determine a densidade de T + X, quando T e X forem independentes.
5.20 Sejam T1 e T2 variveis aleatrias independentes com distribuio exponencial de parmetros 1 e 2 , respectivamente. Encontre a densidade de M = max{T1 , T2 } e de
K = min{T1 , T2 }.
5.21 As variveis aleatrias Xi , i = 1, 2 so mutuamente independentes e seguem uma lei
de Poisson5 com parmetros i . Mostre que sua soma tambm segue uma distribuio
de Poisson, onde o parmetro a soma dos parmetros.
5
P (X = k) =
e k
k! , k
{0, 1, . . .}.
5.7. EXERCCIOS
138
5.22 A intensidade luminosa em um dado ponto dada por I = DC2 , onde C o poder
luminoso da fonte e D a distncia dessa fonte at o ponto dado. Suponha que C
seja uniformemente distribuda sobre (1,2) e D tenha densidade fD (d) = ed , d > 0.
Encontre a densidade de I admitindo que C e D sejam independentes.
5.23 Dois dados so lanados e os nmeros mostrados nas faces voltadas para cima so
anotados como um par ordenado (i, j). Sejam as variveis aleatrias X((i, j)) = i + j
e Y ((i, j)) =| i j |, para i, j = 1, . . . , 6. Determine:
(a) P (X = 4, Y = 2).
(b) Verifique se X e Y so independentes.
Captulo 6
Esperana e outros Momentos
6.1
E(X) =
140
xi p i ,
desde que
Note ento que muitas variveis aleatrias diferentes podem ter o mesmo valor esperado
ou esperana. ( s variar o valor de a no exemplo anterior.)
Exemplo 6.1.4 : Se X {1, 2, . . . , n} for uma varivel aleatria com distribuio de
probabilidade aleatria com parmetro n,
1
P (X = k) = , k = 1, 2, . . . , n,
n
sua esperana dada por:
E(X) =
n
X
k=1
kp(k) =
n
n
X
1
1X
1 n(n + 1)
n+1
k =
k=
=
.
n
n
n
2
2
k
k
Definio 6.1.5: Se X uma varivel aleatria contnua com densidade fX (x) ento,
Z +
E(X) =
xfX (x)dx
se
R +
| x | fX (x)dx < .
6.2
141
Propriedades da Esperana
XX
i
xi p(xi ) +
(xi + yj )p(xi , yj ) =
xi
yj
p(xi , yj ) = E(X) +
p(xi , yj ) +
XX
i
yj p(xi , yj )
No caso contnuo,
Z Z
E(X + Y ) = E((X, Y )) =
i=1
142
No caso discreto,
E(
n
Y
Xi ) =
i=1
...
i1
in
...
i1
i1
n
Y
n
Y
xi1 . . . xin
in
p(xij )
j=1
xi1 p(xi1 ) . . .
xin p(xin )
in
E(Xi ).
i=1
Qn
i=1
Z
Z
n
Y
E( Xi ) = x1 xn fX~ (~x)dx1 dxn
i=1
Z
=
Z Y
n
i=1
n Z
Y
i=1
n
Y
E(Xi ).
i=1
i=1
(viii) Se Y for uma varivel aleatria que assume valores inteiros no-negativos, ento
E(Y ) =
kP (Y = k) =
X
k
X
P (Y = k),
k=1 j=1
k=1
E(Y ) =
P (Y = k) =
j=1 k=j
6.3
P (Y j).
j=1
Esperana Condicional
143
Definio 6.3.1: Se (X, Y ) for um vetor aleatrio discreto, ento a esperana condicional
de X dado Y = yj
X
E(X | Y = yj ) =
xi P (X = xi | Y = yj ),
i
desde que a srie seja absolutamente convergente e onde yj um valor fixo no contradomnio
de Y .
Exemplo 6.3.2: Considere que a distribuio de probabilidade conjunta do vetor aleatrio
(X, Y ) dada por
1
p(1, 1) = , p(2, 1) = 13 , p(3, 1) =
9
1
p(1, 2) = , p(2, 2) = 0, p(3, 2) =
9
1
,
9
1
,
18
1
p(1, 3) = 0, p(2, 3) = 16 , p(3, 3) = .
9
3
X
xi P (X = xi | Y = 1) = 1
i=1
1
3
1
+ 2 + 3 = 2.
5
5
5
E(X | Y = y)
xf (x | y)dx,
144
Logo,
fY (y) =
Portanto,
f (x | y) =
6xy(2 x y)
6x(2 x y)
=
, 0 < x < 1, 0 < y < 1.
y(4 3y)
4 3y
Por fim,
Z
E(X | Y = y) =
x
0
6.4
5 4y
6x(2 x y)
dx =
, 0 < y < 1.
4 3y
8 6y
Se X for uma varivel aleatria e se Y = H(X), ento Y tambm ser uma varivel aleatria.
Consequentemente, pode-se calcular E(Y ). Existem duas maneiras equivalentes de calcular
E(Y ), quer a varivel seja discreta, quer seja contnua: (i) primeiro, encontrar a lei de
probabilidade da varivel Y = H(X) pelos mtodos j vistos anteriormente para, em seguida,
calcular a esperana da varivel Y ; (ii) calcular a esperana de Y diretamente usando a funo
H(X).
~ for um vetor aleatrio e Y = H(X)
~ os comentrios anteriores valem, isto , pode-se
Se X
~
calcular E(Y ) a partir do clculo inicial de fY (y) ou calcular E(Y ) usando H(X).
6.4.1
Caso Discreto
Definio 6.4.1: Seja X uma varivel aleatria discreta e seja Y = H(X). Se Y assumir
os seguintes valores y1 , y2 , . . . e se P (Y = yi ) = p(yi ), define-se:
E(Y ) =
yi p(yi ).
i=1
145
Exemplo 6.4.2 : Suponha X tal que P (X = k) = k2 ( 21 )k ( 12 )2k , para k = 0, 1, 2, e
Y = H(X) = X + 1. Calcular E(Y ).
Soluo. O contradomnio de Y RY = {1, 2, 3} porque X = 0 Y = 1, X = 1 Y = 2
e X = 2 Y = 3. Portanto, P (Y = 1) = P (X = 0) = 14 , P (Y = 2) = P (X = 1) = 24 e
P (Y = 3) = P (X = 2) = 14 . Assim,
E(Y ) = 1
2
1
1
+ 2 + 3 = 2.
4
4
4
Conforme visto no captulo anterior pode-se determinar as probabilidades p(yi ) dado que
sabe-se a distribuio de X. No entanto, possvel encontrar E(Y ) sem, preliminarmente,
encontrar a distribuio de probabilidade de Y , partindo-se apenas do conhecimento da
distribuio de probabilidade de X, conforme mostra o seguinte teorema.
Teorema 6.4.3: Seja X uma varivel aleatria discreta assumindo os valores x1 , x2 , . . . e
seja Y = H(X). Se p(xi ) = P (X = xi ), ento
E(Y ) = E(H(X)) =
H(xi )p(xi ).
i=1
P
Prova: Reordenando o somatrio
i=1 H(xi )p(xi ), e agrupando os termos onde xi tem a
mesma imagem de acordo com a funo H, ou seja, sejam xi1 , xi2 , . . ., todos os valores xi tal
que H(xij ) = yi para j 1, onde y1 , y2 , . . . so os possveis valores de Y , tem-se,
H(xi )p(xi ) =
i=1
X
i=1 j=1
H(xij )p(xij ) =
X
i=1
yi
X
j=1
p(xij ) =
yi p(yi ) = E(Y ).
i=1
Exemplo 6.4.4: Sejam X e Y como no Exemplo 11.4.3. Calculando E(Y ) sem encontrar
a distribuio de probabilidade de Y .
Soluo.
E(Y ) = E(X + 1) =
2
2
2
X
X
X
(k + 1)P (X = k) =
kP (X = k) +
P (X = k) = 1 + 1 = 2.
k=0
k=0
k=0
P
Lembrando que 2k=0 P (X = k) = 1.
O clculo de E(Y ) tambm poderia ter sido realizado usando propriedades da esperana,
da seguinte forma:
E(Y ) = E(X + 1) = E(X) + E(1) = E(X) + 1 = 1 + 1 = 2.
146
~ = (X1 , X2 ) com R ~ = {(1, 1), (1, 2), (2, 1), (2, 2)}, P (X1 = i, X2 =
Exemplo 6.4.6: Seja X
X
1
~
~
j) = 4 , para i, j = 1, 2 e Y = H(X) = X1 + X2 . Calcular E(Y ) = E(H(X)).
1
Soluo. RY = {2, 3, 4} e P (Y = 2) = P (X1 = 1, X2 = 1) = 4 , P (Y = 3) = P (X1 =
1, X2 = 2) + P (X1 = 2, X2 = 1) = 42 e P (Y = 4) = P (X1 = 2, X2 = 2) = 41 . Logo,
E(Y ) = 2
2
1
1
+ 3 + 4 = 3.
4
4
4
~
em que os x~i so os valores assumidos pelo vetor aleatrio X.
~ como no Exemplo 6.4.6.
Exemplo 6.4.8: Suponha X
Soluo. Ento, o clculo de E(Y ) dado por
XX
E(Y ) = E(X1 + X2 ) =
(i + j)P (X1 = i, X2 = j)
j
XX
XX
XX
(jP (X1 = i, X2 = j)
j
XX
XX
=
( (iP (X1 = i, X2 = j))) +
( (jP (X1 = i, X2 = j))
j
6.4.2
147
Caso Contnuo
yfY (y)dy,
E(Y ) =
se
R +
| y | fY (y)dy < .
1 y2 , 0 < y < 2,
0,
caso contrrio.
Portanto,
2
y
2
y(1 )dy = .
2
3
E(Y ) =
0
E(Y ) =
yfY (y)dy,
2x, 0 x 1,
0, caso contrrio,
y2
,
9
fX (x) =
e
fY (y) =
0,
0 y 3,
caso contrrio,
Campos, Rgo & Mendona
148
1
u
x x
z u
y y
z u
e ento,
z 1
2z 2
f (z, u) = fX (u)fY ( )| | = 2 .
u u
9u
Como 0 x 1 e 0 y 3 ento z3 u 1 e portanto,
Z 1 2
2z
2
fZ (z) =
du
=
z(3 z), 0 z 3.
z 9u2
9
3
Assim,
Z
E(Z) =
0
3
2
z z(3 z)dz = .
9
2
As provas dos teoremas a seguir so omitidas desde que fogem ao escopo do livro.
Teorema 6.4.13: Seja X uma varivel aleatria contnua, Y = H(X), ento
Z
Z
E(Y ) = yfY (y)dy = H(x)fX (x)dx,
desde que estas integrais existam.
Exemplo 6.4.14: Considerando a varivel aleatria do Exemplo 6.4.10, a esperana de
Y = 2X ser calculada sem usar a fY .
Soluo.
Z 1
2
E(Y ) =
2x2(1 x)dx = .
3
0
E(Y ) tambm poderia ser calculada usando propriedades da esperana, mas, neste caso seria
imprescindvel o clculo de E(X):
E(Y ) = E(2X) = 2E(X).
149
E(Z) =
0
2
3
xy xy 2 dxdy = .
9
2
1 xy
1
ye dx = , 0 < y < 2.
2
2
f (x, y)
= yexy , 0 < x < +, 0 < y < 2.
fY (y)
Z
x
X/2
E(e
| Y = 1) =
e 2 ex dx = 2.
f (x | y) =
6.5
Momentos
Informaes parciais sobre a lei de probabilidade de uma varivel aleatria X podem ser
obtidas atravs de esperanas matemticas de potncias de X, as quais so chamadas de
momentos de X.
Definio 6.5.1:
aleatria X
6.5. MOMENTOS
150
n
X
k=1
n
X
k2
n!
pk (1 p)nk
k!(n k)!
k(k 1)
k=1
= n(n 1)p
n
X
n!
n!
k
pk (1 p)nk +
pk (1 p)nk
k!(n k)!
k!(n
k)!
k=1
n
X
k=2
= n(n 1)p2
m
X
j=0
(n 2)!
pk2 (1 p)nk + np
(k 2)!(n k)!
(m)!
pj (1 p)mj + np = n(n 1)p2 + np.
(j)!(m j)!
fX (x) =
Teorema 6.5.4: Se o k-simo momento de uma varivel aleatria existir, ento todos os
momentos de ordem menores do que k tambm existem.
Prova: Por hiptese, E(|X k |) < , logo E(1 + |X k |) < . Como para qualquer j tal que
0 < j < k, |X j | 1 + |X k |, e 1 + |X k | integrvel, tem-se que |X j | tambm integrvel,
isto E(|X j |) < .
6.5.1
Definio 6.5.5: Se X uma varivel aleatria seu n-simo momento central em torno de
E(X)
E(X E(X))n ,
se esta esperana existir.
O primeiro momento central em torno da mdia zero, pois
E(X E(X)) = E(X) E(E(X)) = E(X) E(X) = 0.
Campos, Rgo & Mendona
151
E(X E(X))2
E(X 2 2XE(X) + (E(X))2 )
E(X 2 ) 2E(XE(X)) + E((E(X))2 )
E(X 2 ) 2(E(X))2 + (E(X))2
E(X 2 ) (E(X))2
E(X 2 ) E(X)2 .
1
2
1
( )2 = .
2
3
6
E(X E(X)) =
n
X
n
k=0
E(X k )(E(X))nk
1
1
E(X k ) = [(m a)k + (m + a)k ].
2
2
E(X) = m,
1
E(X 2 ) = (2m2 + 2a2 ) = m2 + a2 ,
2
V (X) = a2 .
6.5. MOMENTOS
152
6.5.2
Propriedades da Varincia
(i) V (X) 0.
Prova: Pela definio de varincia.
(ii) Se X = c, V (X) = 0.
Prova: E(X) = c, logo V (X) = E(X c)2 = E(0) = 0.
(iii) V (X + a) = V (X), onde a uma constante real.
Prova:
V (X + a) = E(X + a)2 (E(X + a))2
= E(X 2 ) + 2aE(X) + a2 (E(X))2 2aE(X) a2
= E(X 2 ) (E(X))2 = V (X).
153
6.6
A Desigualdade de Tchebychev
Corolrio 6.6.1: Desigualdade (Original) de Tchebychev. Seja X uma varivel aleatria, ento
V (X)
.
P (|X E(X)| )
2
2
Prova: Seja A = {x : |x| } e g(x) = x2 . Note que g(x) IA (x), ento, pelo Corolrio
2)
6.8.4, P (X A) = P (|X| ) E(X
. Substituindo X por X E(X), tem-se P (|X
2
V (X)
E(X)| ) 2 .
Esta desigualdade declara que a probabilidade da varivel aleatria diferir da sua mdia
2
por mais do que uma constante qualquer () menor ou igual do que 2 . Portanto, quanto
menor a varincia, mais agrupados em torno da mdia esto os dados e, consequentemente,
maior a probabilidade de se obter um valor (dos dados) prximo mdia.
A desigualdade de Tchebychev geral no sentido de que no h qualquer hiptese sobre
a lei de probabilidade de X. A nica restrio que 2 < .
Exemplo 6.6.2: Sabe-se que o nmero de itens produzidos por uma fbrica durante uma
semana uma varivel alearia com mdia 500 e varincia 100. O que pode ser dito sobre a
probabilidade de que a produo semanal esteja entre 400 e 600?
Soluo. Pela desegualdade de Tchebychev,
1
99
=
.
100
100
Portanto, a probabilidade pedida de pelo menos 0.99.
P (| X 500 |< 100) 1
6.7
154
Momentos Conjuntos
n
X
V (Xi ) + 2
i=1
cov(Xi , Xj ).
i<j
Prova:
V (X1 + + Xn ) = E(X1 + + Xn E(X1 + + Xn ))2
n
X
= E( (Xi E(Xi ))2
i=1
n
X
X
= E( (Xi E(Xi ))2 + 2
(Xi E(Xi ))(Xj E(Xj )))
i=1
n
X
i=1
V (Xi ) + 2
i<j
cov(Xi , Xj ).
i<j
n
X
V (Xi ).
i=1
155
156
Prova:
V (Y )
X E(X) Y E(Y ) 2
p
)
0 E( p
V (X)
V (Y )
X E(X) 2
Y E(Y ) 2
2
= E( p
) + E( p
) p
E((X E(X))(Y E(Y )))
V (X)
V (Y )
V (X)V (Y )
2Cov(X, Y )
V (X) V (Y )
+
p
=
= 2 2(X, Y ).
V (X) V (Y )
V (X)V (Y )
Se (X, Y ) = 1, ento
X E(X) Y E(Y ) 2
p
) = 0,
E( p
V (X)
V (Y )
o que por sua vez implica que
X E(X)
Y E(Y )
P( p
= p
) = 1,
V (X)
V (Y )
em outras palavras,
p
P (Y = E(Y ) + p
V (Y )
V (X)
(X E(X))) = 1.
6.8
157
Prova:
(X c)2 = (X + c)2 = (X )2 + 2( c)(X ) + ( c)2 ,
logo
E(X c)2 = E(X )2 + 2( c)(E(X) ) + ( c)2 = V (X) + ( c)2 .
Portanto, E(X c)2 E(X )2 , c IR.
Corolrio 6.8.3: Desigualdade de Tchebychev Generalizada. Dado um conjunto A
e uma funo g(x) tal que x, g(x) IA (x), tem-se que P (X A) min(1, E(g(X))).
Prova: Pela monotonicidade da esperana, E(g(X)) E(IA (X)) = P (X A). Mas, como
a cota superior pode exceder 1, tem-se que min(1, E(g(X))) P (X A).
Corolrio 6.8.4: Desigualdade de Markov. Seja X uma varivel aleatria, ento para
todo > 0,
E|X|
.
P (|X| )
Prova: Escolha A = {x : |x| } e g(x) =
E(|X|)
.
|x|
.
X
1
1
])
P (Z ) = 0.
n
n
n
Portanto, P (Z = 0) = 1 P (Z > 0) = 1.
Este ltimo corolrio implica que, quando V (X) = 0, ou seja E(X E(X))2 = 0, ento,
P (X = E(X)) = 1, isto , X constante com probabilidade 1.
O prximo teorema apresenta uma nova relao entre momentos conjuntos de variveis
aleatrias, sendo conhecido como Desigualdade de Hlder.
Teorema 6.8.6: Suponha que p e q satisfazem: p > 1, q > 1, e
E(|X|p ) < e E(|X|q ) < , tem-se que
1
p
1
q
= 1. Ento, se
158
|X|
(E(|X|p ))1/p
|XY |
(E(|X|p ))1/p (E(|Y |q ))1/q
e b por
p1 (
|Y |
,
(E(|Y |q ))1/q
tem-se
|X|
|Y |
)p + q 1 (
)q .
p
1/p
q
1/q
(E(|X| ))
(E(|Y | ))
p
(
)
+
q
(
)
(E(|X|p ))1/p (E(|Y |q ))1/q
(E((|X|p )))
(E(|Y |q ))
= p1 + q 1 = 1.
6.8.1
R
Por definio, E(X) = xdF (x), ou seja, E(X) a integral da diferencial xdF . Mas xdF
uma diferencial de rea. Para x > 0, xdF uma diferencial da rea da regio compreendida
entre
R as curvas x = 0, y = 1, e y = F (x) no plano Euclideano, cuja rea total dada por
(1 F (x))dx. Para x < 0, xdF uma diferencial da rea da regio compreendida
0
entre
e y = F (x) no plano
R 0 as curvas x = 0, y = 0,R
R 0 Euclideano, cuja rea total dada por
F (x)dx. Logo, E(X) = 0 (1 F (x))dx F (x)dx.
maneira. A
R Formalmente,
R prova-se isso da seguinte
R0
R 0prova dividida em duas etapas: (a)
xdF (x) = 0 (1F (x))dx e (b) xdF (x) = F (x)dx. Provando (b). Utilizando
0
integrao por partes, tem-se que a < 0,
Z 0
Z 0
Z 0
xdF (x) = aF (a)
F (x)dx =
(F (a) F (x))dx.
a
Z
xdF (x)
F (x)dx.
a
159
Z
(F (a) F (x))dx
F (x)dx,
Para a parte (a), utilizando integrao por partes, tem-se que b > 0,
Z b
Z b
Z b
(F (b) F (x))dx.
F (x)dx =
xdF (x) = bF (b)
0
(1 F (x))dx.
(F (b) F (x))dx
(F (b) F (x))dx
Z
Z
=
(F (b) 1)dx +
(1 F (x))dx
0
0
Z
= (F (b) 1) +
(1 F (x))dx,
160
P (|X| n) E|X| 1 +
n=1
P (|X| n),
n=1
n=1
P (|X| n) < .
Prova: Se x 0, seja bxc a parte inteira de x. Ento, a varivel aleatria b|X|c assume o
valor k quando k |X| < k + 1 e 0 b|X|c |X| b|X|c + 1, ento pela monotonicidade
e linearidade da esperana,
0 Eb|X|c E|X| 1 + Eb|X|c.
Como b|X|c uma varivel aleatria que s assume valores inteiros no-negativos,
Eb|X|c =
X
n=1
logo
X
n=1
P (b|X|c n) =
P (|X| n),
n=1
P (|X| n) E(|X|) 1 +
P (|X| n).
n=1
161
6.9. EXERCCIOS
6.9
162
Exerccios
(e)
x+2
,
18
fX (x) =
0,
2 < x < 4,
caso contrrio.
(f )
fX (x) =
1
(x
2
0,
(g)
fX (x) =
(h)
fX (x) =
2
,
x3
0,
1 < x < ,
6 (0, ).
(i)
0,
x,
8
FX (x) =
x2
,
16
1,
x < 0,
0 x < 2,
2 x < 4,
x 4.
6.2 Suponha que (X, Y ) seja uma varivel aleatria bidimensional tal que
4y(1 x), 0 < x < 1, 0 < y < 1,
f (x, y) =
0,
caso contrrio.
Determine
(a) E(XY ).
(b) V (X + Y ).
6.3 Seja X uma varivel aleatria tal que
x < 2,
0,
x2
, 2 x < 4,
FX (x) =
2
1,
x 4,
e Y = 3X 3. Determine a mdia e a varincia de Y ,
Campos, Rgo & Mendona
163
6.4 Usando a desigualdade de Tchebychev estime uma cota superior para a probabilidade
de que uma varivel aleatria tendo mdia e desvio padro se desvie de por
menos que 3.
6.5 Considere o cabeote de um disco movendo-se dentro de um cilindro de raio interior a
e exterior b. Suponha tambm que h um nmero muito grande de cilindros suficientemente prximos para supor continuidade. Sejam X e Y variveis aleatrias denotando,
respectivamente, a posio atual e a posio almejada do cabeote. Suponha independncia de X e Y e que ambas so uniformemente distribudas no intervalo (a,b). O
movimento do cabeote numa operao de busca modelado por uma distncia dada
por | X Y |. Calcule a distncia mdia percorrida pelo cabeote numa operao de
busca.
6.6 Uma impressora tem uma probabilidade constante de 0.5 de entrar em pane em qualquer um dos 5 dias teis da semana. Se a mquina no apresentar panes durante a
semana, um lucro S obtido. Se 1 ou 2 panes ocorrerem, obtido um lucro R (R < S).
Se 3 ou mais panes ocorrerem, um lucro L alcanado. Admita que quando a mquina entra em pane em qualquer um dos dias, ela permanece em pane o resto do
dia.
(a) Encontre a distribuio de probabilidade do lucro obtido por semana.
(b) Determine o lucro mdio obtido por semana.
6.7 A varincia da soma de duas variveis aleatrias X e Y dada por
V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ),
onde,
Cov(X, Y ) = E(XY ) E(X)E(Y ),
a covarincia entre X e Y .
(a) Calcule V (X + Y ) quando f (x, y) = 6(1 x y), 0 < y < 1 x < 1.
(b) Por que V (X + Y ) = V (X) + V (Y ) quando X e Y so independentes? Justifique
sua resposta.
6.8 Suponha que a varivel aleatria bidimensional contnua (X,Y) seja uniformemente
distribuda sobre a regio limitada pela reta y = 4 e pela parbola y = x2 .
(a) Estabelea a distribuio de probabilidade conjunta de (X,Y).
(b) Encontre fX (x) e fY (y).
(c) Mostre que E(X + Y ) = E(X) + E(Y ).
(d) Verifique se E(XY ) = E(X)E(Y ).
6.9 Suponha que a varivel aleatria bidimensional (X, Y ) seja uniformemente distribuda
sobre o tringulo de vrtices (1, 3), (0, 0) e (1, 3).
Campos, Rgo & Mendona
6.9. EXERCCIOS
164
(1.5)
6.11 Suponha que a demanda (procura) por semana de um certo produto seja uma varivel
aleatria D com distribuio de probabilidade pk = P (D = k), para k = 0, 1, 2, .
Para este produto sabe-se que o preo de custo C1 , enquanto o preo de venda
C2 . Se o produto no for vendido at o final da semana, deve ser refugado a um custo
adicional C3 . Se o fabricante decide fabricar N desses produtos no incio da semana,
pede-se:
(a) A distribuio de probabilidade da varivel aleatria lucro por semana.
(b) O lucro esperado por semana.
6.12 Sejam os inteiros de 1 a 10 e suponha que um deles seja escolhido aleatoriamente.
Considere a varivel aleatria X como sendo o nmero de divisores do nmero sorteado.
Calcule o nmero mdio de divisores do nmero sorteado.
6.13 n mensagens esto sendo enviadas atravs de um canal de comunicao. Os tempos
de durao das mensagens, Ti , i = 1 , n so aleatrios, e tm a mesma mdia , a
mesma varincia 2 e so independentes.
(a) Encontre a mdia e a varincia do tempo total T de transmisso das n mensagens.
(b) Encontre Tmax , que o tempo mximo praticamente possvel durante o qual as
mensagens podem ser transmitidas. Sugesto: X 3X , three sigma rule.
6.14 Resolva a letra (a) do problema anterior quando os comprimentos das mensagens so
dependentes e o coeficiente de correlao entre as variveis Ti e Tj rij .
6.15 A administrao de uma rede planeja o momento Y de comeo de uma operao
como sendo o tempo mximo em que duas operaes de suporte, X1 e X2 , tenham
terminado. As variveis aleatrias X1 e X2 so mutuamente independentes e tm
densidades, respectivamente, fX1 e fX2 . Encontre a mdia e a varincia da varivel Y .
6.16 Uma mensagem enviada atravs de um canal de comunicao, consiste de n dgitos 0 ou
1, sendo cada um igualmente provvel e independentes. Defina uma varivel aleatria
X como o nmero de mudanas nos dgitos.
(a) Encontre a mdia e a varincia de X.
Campos, Rgo & Mendona
165
6.9. EXERCCIOS
166
Captulo 7
Principais Variveis Aleatrias Discretas
Este captulo descreve os principais modelos de variveis aleatrias discretas, isto , as
variveis aleatrias discretas mais comumente encontradas no mundo fsico. Dentre essas
destacam-se: Bernoulli, Binomial, Poisson, Geomtrica, Pascal, Hipergeomtrica, Zeta e,
como um modelo de uma distribuio discreta multivariada, a Multinomial. Para cada uma
delas ser dada a distribuio de probabilidade, P (X = k), ou lei de probabilidade1 esperana, E(X), e varincia, V (X).
Uma explicao: parmetro da distribuio de probabilidade a entidade sem a qual
impossvel calcular probabilidades envolvendo a varivel aleatria. O k, em P (X = k), um
dos valores que a varivel aleatria assume com probabilidade diferente de zero, isto , um
dos valores do seu contradomnio. Se o ou os parmetros da distribuio de probabilidade
no so conhecidos, o que acontece em problemas prticos, a Estatstica fornece mtodo para
estim-los.
Observao: Muitos clculos ficam indicados, ficando para o leitor a tarefa de realiz-los,
mas, quando for necessrio o uso de decimais nos exemplos resolvidos ser adotado o sistema
de ponto-flutuante F (10, 3, e1 , e2 ) e o arredondamento simtrico2 (Forsythe (1977), Goldberg
(1991), Santos e Silva (2010), Sterbenz (1974), Vandergraft (1983), Wilkson (1963)).
7.1
A modelagem de uma situao do mundo fsico por uma Bernoulli envolve definir um evento
de interesse, A por exemplo, e a ele associar uma probabilidade p = P (A). Portanto, nesta
modelagem, o mundo real dicotmico, isto , ou A acontece, ou no, neste ltimo caso,
acontece seu complementar. Assim, uma Bernoulli pode ser adequada para modelar: o
estado de uma impressora, se funcionando ou no; em uma palavra de mquina um dado
bit ser 1 ou 0. Alm de modelar o mundo real, a Bernoulli bsica em desenvolvimentos
tericos como, para conjuntamente com a desigualdade de Tchebychev, provar a Lei dos
Grandes Nmeros.
1
Portanto, 0 P (X = k) 1, k e
2
Vide Apndice A
P (X = k) = 1.
167
168
P1
k=0
q, k = 0,
p, k = 1,
P (X = k) = 1.
(ii) Esperana.
E(X) = 0 q + 1 p = p.
(iii) Varincia.
E(X 2 ) = 02 p + 12 p = p,
logo
V (X) = E(X 2 ) E(X)2 = p p2 = pq.
Exemplo 7.1.1: Suponha uma nica posio de memria num computador digital. O
objetivo modelar a distribuio da varivel aleatria, X, que conta o nmero de uns (1s)
nesta posio de memria. Imagine que no haja razo para supor que o aparecimento de
0 ou 1 tenham probabilidades diferentes, portanto, assume-se que P (0) = P (1) = 21 . Ento,
P (X = 0) = P (X = 1) = 12 .
7.2
n
X
n k nk
P (X = k) =
p q
= (p + q)n = 1.
k
k=0
k=0
(a + b)n =
Pn
k=0
n
k
ak bnk .
169
(ii) Esperana.
n
n
X
n k nk X
n!
E(X) =
k
p q
=
pk q nk
k
k
k!(n
k)!
k=0
k=0
n
X
n!
(n 1)!
k nk
p q
=
pk q nk
=
n
(k
1)!(n
k)!
(k
1)!(n
k)!
k=1
k=1
n
X
n 1 k1 nk
= np
p q
= np.
k1
k=1
n
X
(iii) Varincia.
Um clculo similar ao de E(X) mostra que
E(X 2 ) = npq + n2 p2
e portanto,
V (X) = npq + n2 p2 n2 p2 = npq.
Uma varivel aleatria relacionada com uma X B(n, p) Y = n X. Neste caso, Y
conta o nmero de falhas4 nas n repeties independentes do experimento, sendo ento uma
B(n, q).
Exemplo 7.2.1: Um sistema de computao on-line tem 20 linhas de comunicao que
operam independentemente. A probabilidade que qualquer linha esteja ocupada 0.6. Qual
a probabilidade que 10 ou mais linhas estejam em operao?
Soluo: A = {a linha est ocupada}. P (A) = p = 0.6 q = 1 p = 0.4. Seja X=
nmero de linhas ocupadas, ou em operao. Logo,
20
P (X = k) =
0.6k 0.420k , k = 0, . . . , 20.
k
Portanto,
20
X
20
P (X 10) =
0.6k 0.420k .
k
k=10
7.3
Na verdade a definio do que sucesso ou falha depende de como a modelagem est sendo realizada.
170
e k
, k {0, 1, . . .}.
k!
X
xk
.
ex =
k!
k=0
Portanto,
P (X = k) =
k=0
X
e k
k=0
k!
= e
X
k
k=0
k!
= e e = 1.
(ii) Esperana.
X
X
e s+1
e k X e k
=
=
E(X) =
k
k!
(k 1)!
s!
s=0
k=1
k=0
= e
X
e s
s=0
s!
= e e = .
No clculo anterior, k 1 = s k = s + 1.
(iii) Varincia.
E(X ) =
2e
k=0
X e k
X
e s+1
=
k
=
(s + 1)
k!
(k 1)!
s!
s=0
k=1
X
e s+1 X e s+1
=
s
+
s!
s!
s=0
s=0
X
X
e s
e s
s
+
s!
s!
s=0
s=0
= 2 + .
Portanto,
V (X) = 2 + 2 = .
Exemplo 7.3.1: Se a probabilidade de 0 ftons serem emitidos no tempo [0, t) igual a
0.1, ento qual a probabilidade de que pelo menos 2 ftons serem emitidos no mesmo tempo
t?
Campos, Rgo & Mendona
171
Soluo: A = {emisso de ftons no tempo t}. Seja X= nmero de ftons serem emitidos
no tempo t. Neste problema no foi dado o parmetro , mas foi fornecida uma condio
para encontr-lo.
P (X = 0) = 0.1
e 0
= 0.1 e = 0.1 = 2.302.
0!
7.3.1
A distribuio de Poisson pode ser encontrada pelo limite de uma B(n, p), quando n vai para
infinito (isto , o experimento realizado um nmero grande de vezes), p muito pequeno
mas np, que mdia da binomial, permanece constante. A explanao a seguir5 motiva
como essa aproximao pode ser realizada.
Suponha que chamadas telefnicas cheguem em uma grande central e que em um perodo
particular de trs horas (180 minutos) um total de 270 chamadas tenham sido recebidas, ou
seja, 1.5 chamadas por minuto. O objetivo calcular a probabilidade de serem recebidas k
chamadas durante os prximos trs minutos. natural pensar que a qualquer instante pode
ocorrer uma chamada, portanto a modelagem do problema exige que aproximaes sejam
feitas.
Para comear, pode-se dividir o intervalo de 3 minutos em nove intervalos de 20 segundos
cada um e tratar cada um desses nove intervalos como um ensaio de Bernoulli, durante o
qual observa-se uma chamada (sucesso) ou nenhuma chamada (falha), com probabilidade
20
= 0.5. Desse modo, a tentao grande para afirmar
de sucesso igual a p = 1.5 60
9
. Porm, este clculo ignora a
que a probabilidade de 2 chamadas igual a 92 (0.5)9 = 128
possibilidade de que mais de uma chamada possa ocorrer em um nico intervalo. Ento, por
5
172
n(n 1) (n k + 1) k n nk
( ) (
)
k!
n
n
k
1
k1
=
((1)(1 ) (1
)(1 )nk .
k!
n
n
n
j
Fazendo n , os termos da forma (1 n ), para 1 j k 1, tendem para 1 e
como existe um nmero fixo k 1 deles, o seu produto tambm tende a 1. O mesmo ocorre
com (1 n )k . Finalmente, por definio do nmero e, tem-se que (1 n )n e quando
n . Portanto,
P (X = k) =
lim
n,p0,=np
P (X = k) =
e k
,
k!
173
Exemplo 7.3.4: Suponha que o nmero de clientes que chegam em um banco segue uma
distribuio de Poisson. Se a probabilidade de chegarem 3 clientes for o triplo da de chegarem
4 clientes em um dado perodo de 10 minutos. Determine:
(a) Qual o nmero esperado de clientes que chegam em um perodo de 1 hora neste banco?
(b) Qual o nmero mais provvel de clientes que chegam em um perodo de 1 hora neste
banco?
Soluo: Seja X10 = nmero de clientes que chegam ao banco em 10 minutos.
P (X10 = 3) = 3P (X10 = 4)
e 3
e 4
=3
= 1.333.
3!
4!
(a) Seja X60 = nmero de clientes que chegam ao banco em 60 minutos. Para t = 10 minutos
tem-se que = 1.333, logo para t = 60 minutos, = 601.333
= 7.998 e portanto
10
E(X60 ) = 7.998 8.
(b) 6.998 7.998 = 7 ou = 8. O valor de depender da regra de deciso
associada ao problema.
7.4
X
k=1
P (X = k) =
X
k=1
q k1 p = p
q k1 = 1.
k=1
174
(ii) Esperana.
E(X) =
kP (X = k) =
k=1
= p
kq k1 = p
k=1
kq k1 p
k=1
X
k=1
d k
q
dq
q
1
d X k
d
)= .
= p
q =p (
dq k=1
dq 1 q
p
(iii) Varincia. Usando a funo geratriz de momentos (Meyer, 1983) tem-se que
E(X 2 ) =
1+q
.
p2
Logo,
V (X) =
1+q
1
q
=
.
p2
p2
p2
Exemplo 7.4.1: Suponha que joga-se uma moeda independentemente at que uma coroa
ocorra. Sabe-se que probabilidade de cara igual a 0 < p < 1. Seja X o nmero de repeties
necessrias at que coroa aparea pela primeira vez na sequncia. Qual a probabilidade
do evento {X = k} para k {1, 2, 3, . . .}? Note que para que X = k necessrio que
os primeiros k 1 lanamentos sejam caras e o k-simo lanamento seja coroa, logo, pela
independncia dos lanamentos, P (X = k) = pk1 q. Ou seja, X uma varivel geomtrica
de parmetro q.
Exemplo 7.4.2: Suponha que X tenha uma distribuio geomtrica com parmetro .
Mostre que para quaisquer dois inteiros positivos s e t,
P (X > s + t|X > s) = P (X > t).
Soluo:
P (X > s + t|X > s) =
Mas
P (X > s + t) =
P (X > s + t)
P (X > s + t, X > s)
=
.
P (X > s)
P (X > s)
(1 )k1 = (1 )s+t .
k=s+t+1
(1 )s+t
= (1 )t = (X > t).
(1 )s
Como ser visto no captulo seguinte, a varivel Exponencial tambm tem essa propriedade.
7.5
175
Esta distribuio pode ser considerada como uma generalizao da distribuio geomtrica.
Suponha que o interesse seja calcular a probabilidade de que um experimento tenha de ser
repetido k vezes para que um evento A ocorra r vezes. Seja X o nmero de repeties
necessrias a fim de que um evento A possa ocorrer exatamente r vezes. X = k se, e
somente se, A ocorrer na k-sima repetio e A tiver ocorrido r 1 vezes nas (k 1)
repeties anteriores. Uma possvel realizao do experimento
. A} .
. . A} A
B=A
| . .{z
| .{z
r
kr
kr
k1
r1
. Portanto,
Z2
Zr
Ento, as variveis Zi so independentes, cada uma delas tem uma distribuio geomtrica com parmetro p e X = Z1 + Z2 + + Zr . Logo, X pode ser considerada
como uma soma de r geomtricas independentes, portanto, usando propriedades da
esperana e da varincia,
r
E(X) =
p
e
r(1 p)
V (X) =
.
p2
Campos, Rgo & Mendona
176
Observao. Pascal ou binomial negativa? Jain (1991) (pgina 492) considera Pascal
e binomial negativa distintas. A binomial negativa definida como sendo o nmero de
falhas antes de ocorrerem r sucessos. Portanto, se k = 4 e r = 3, possveis realizaes do
experimento so:
A A A A A A A,
A A A A A A A.
3 4
Cada um dos eventos acima
tem probabilidade p q . Mas, quantos so? Como a ltima
4+2
posio est fixa, tem-se 2 arrumaes. Portanto,
k + (r 1) r k
P (X = k) =
p q , k = 0, 1, . . .
r1
Grinstead e Snell (1997), pgina 186, chamam a Pascal de binomial negativa. Para Meyer
(1983), pgina 204, a distribuio de Pascal pode ser chamada de binomial negativa.
7.6
A distribuio hipergeomtrica descreve o nmero de sucessos em uma sequncia de n amostras retiradas sem reposio de uma populao finita.
Por exemplo, considere que tem-se uma carga com N objetos dos quais D so defeituosos.
A distribuio hipergeomtrica descreve a probabilidade de que em uma amostra de n objetos
distintos escolhidos da carga aleatoriamente exatamente k objetos sejam defeituosos.
(i) Distribuio de probabilidade.
P (X = k) =
D
k
N D
nk
N
n
.
177
(ii) Esperana.
E(X) =
n
X
D
k
k=0
=
=
n
nD X
k=1
n
nD X
k=1
N D
nk
N
n
=
n
X
k=1
Substituindo no somatrio D = D 1, k = k 1, n = n 1 e N = N 1,
n
nD X
E(X) =
N k =0
Se p =
D
N
D
k
N D
n k
N
=
nD
.
N
O somatrio acima igual a soma da funo probabilidade de massa de uma varivel aleatria hipergeomtrica para todos os valores que tem probabilidade positiva, e
portanto, igual a 1.
(iii) Varincia.
Campos, Rgo & Mendona
E(X 2 ) =
n
X
k=0
n
X
D
2 k
N D
nk
N
n
178
D1 N D
n
D
k1
nk
=
k2
N 1
k
N
n1
k=0
n
D1 N D
n X k1 nk
= D
k
N 1
N k=0
n1
N D
n
D1
n X
k
nk1
(k + 1)
= D
N 1
N k=0
n1
n
D1 n1
n X
k
= D (
N k=0
k N 1
n
N D
nk1
N 2
n2
N D
D2
k1
nk1
N 2
n2
= D
n (D 1)(n 1) X
(
N
N 1
k=0
= D
n (D 1)(n 1)
(
+ 1).
N
N 1
D2
k1
+
n
X
D1
k
k=0
N D
nk1
N 1
n1
)
+ 1)
Logo,
n (D 1)(n 1)
n2
2
V (X) = D (
+ 1) D 2
N
N 1
N
n (D 1)(n 1)
n
= D (
+1D )
N
N 1
N
D
D N n
(1 ).
= n
N
N 1
N
Fazendo a mesma substituio no caso de E(X) tem-se que:
V (X) = np(1 p)
N n
N n
= npq
.
N 1
N 1
Exemplo 7.6.1: Suponha que uma urna contm 20 bolas brancas e 10 bolas pretas. Se 4
bolas so retiradas da urna. Determine:
(a) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas com
reposio.
(b) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas sucessivamente e sem reposio.
(c) A probabilidade de pelo menos uma bola seja branca, se as bolas so retiradas simultaneamente.
Campos, Rgo & Mendona
179
P (X = k) =
Portanto, P (X 1) =
P4
k=1
4k
30
4
, k = 0, . . . , 4.
10
(20k )(4k
)
.
30
(4)
Exemplo 7.6.2: Por engano 3 peas defeituosas foram misturadas com boas formando um
lote com 12 peas no total. Escolhendo ao acaso 4 dessas peas, determine a probabilidade
de encontrar:
(a) Pelo menos 2 defeituosas.
(b) No mximo 1 defeituosa.
(c) No mnimo 1 boa.
Soluo: Seja X = {nmero de peas defeituosas no lote.} Logo
9
3
P (X = k) =
(a) P (X 2) = P (X = 2) + P (X = 3) =
4k
12
4
, k = 0, . . . , 4.
(32)(92) (33)(91)
+ 12 .
(124)
(4)
Campos, Rgo & Mendona
180
(30)(94) (31)(93)
+ 12 .
(124)
(4)
7.7
j=1
k
, k = 1, 2, . . . , > 1
()
(ii) Esperana.
E(X) =
X
k
1 X (1) ( 1)
k
=
k
=
, > 1.
()
()
()
k=1
k=1
(iii) Varincia.
k
1 X (2)
1
=
k
=
( 2), > 2.
E(X ) =
k
()
() k=1
()
k=1
2
Logo,
V (X) =
1
( 1) 2
( 2) (
).
()
()
Se uma varivel aleatria tem caudas-pesadas ento tem probabilidades grandes nas caudas.
1024bytes = 1kilobyte = 1KB; 1024kilobytes = 1megabyte = 1MB; 1024megabytes = 1gigabytes = 1GB;
1024gigabytes = 1terabyte = 1TB; 1024terabytes = 1petabyte = 1PB; 1024petabytes = 1exabyte = 1EB;
1024exabytes = 1zettabyte = 1ZB; 1024zettabytes = 1yottabyte = 1YB.
9
181
(b) Quanto mais provvel so tamanhos de arquivos de 1MB em comparao com tamanhos
de arquivos de 1GB?
Soluo:
(a) Seja X = {tamanho dos arquivos em KB}. Logo,
P (X = 1) = 10000P (X = 1024)
1
1024
=
= 1.329.
()
()
2
)
e P (X = 10242 ) = (1024
. Portanto, P (X = 10242 ) =
(b) P (X = 1024) = 1024
()
()
1024 P (X = 1024), sendo pouquissimo provvel pois 10241.329 9.984 105 .
7.8
Multinomial
A Multinomial uma distribuio conjunta de variveis aleatrias discretas, que pode ser
considerada como uma generalizao da distribuio binomial.
Considere um experimento aleatrio qualquer e suponha que o espao amostral deste experimento particionado em k eventos {A1 , A2 , . . . , Ak }, onde o evento Ai tem probabilidade
pi . Suponha que se repita este experimento n vezes de maneira independente e seja Xi o
nmero de vezes que o evento Ai ocorreu nestas n repeties. Ento,
P (X1 = n1 , X2 = n2 , . . . , Xk = nk ) =
n!
pn1 1 pn2 2 pnk k ,
n1 !n2 ! nk !
P
onde ki=1 ni = n.
Lembrando que o nmero de maneiras de arranjar n objetos, n1 dos quais de uma
espcie, n2 dos quais de uma segunda espcie, . . ., nk dos quais so de uma k-sima
espcie dado pelo coeficiente multinomial n1 !n2n!!nk ! , que corresponde a uma permutao
com repetio.
Exemplo 7.8.1: Uma impressora est apresentando uma mdia de 2 erros por pgina
impressa. Sabe-se que no h razo para supor que exista qualquer relao entre os erros
(ou acertos) de uma pgina para outra, e que o fenmeno obedece a uma lei de Poisson.
(a) Qual a probabilidade de que uma pgina no apresente erros?
(b) Uma amostra aleatria de 10 pginas selecionada de todas as pginas impressas pela
impressora. Qual a probabilidade de que essa amostra apresente 2 ou mais pginas
sem erro?
(c) Qual a probabilidade de que a primeira pgina sem erro aparea na dcima impresso?
(d) Suponha que pginas so impressas at que ocorram 3 sem erro. Qual a probabilidade
de que seja necessrio imprimir 5 pginas para que isto acontea?
Campos, Rgo & Mendona
7.8. MULTINOMIAL
182
(e) Cada pgina impressa classificada como excelente se no apresentar erros, boa, se
contiver de 1 a 2 erros e inaceitvel, se contiver 3 ou mais erros. Se 15 pginas so inspecionadas, qual a probabilidade de que 8, 5 e 2 pginas, respectivamente, pertencam
a cada uma das categorias acima?
Soluo:
(a) Seja Np = {nmero de erros por pgina.}. Logo,
Np P oisson( = 2)
e a probabilidade pedida
P (Np = 0) = e2 = 0.136.
(b) Seja N = {nmero de pginas sem erro.}. Logo,
N B(n = 10, p = P (Np = 0) = 0.136).
Portanto,
10 0 10
10 1 9
P (N 2) = 1 P (N 1) = 1
pq
pq .
0
1
(c) N1 = {nmero de pginas impressas at aparecer a primeira sem erro.}
N1 G(p = P (Np = 0))
e assim,
P (N1 = 10) = (1 e2 )9 e2 .
(d) N2 = {nmero de pginas que tem de ser impressas para aparecerem 3 sem erro.},
N2 P ascal(p = P (Np = 0)).
Logo,
P (N2 = 5) =
51
(e2 )3 (1 e2 )53 .
31
(e) A distribuio aqui uma Multinomial. Seja Xi , i = 1, 2, 3, nmero de pginas classificadas como excelente, boa e inaceitvel, respectivamente. Portanto,
P (X1 = 8, X2 = 5, X3 = 2) =
15! 8 5 2
ppp,
8!5!2! 1 2 3
onde
p1 = P (Np = 0), p2 = P (1 Np 2), p3 = P (Np 3).
183
1
1 3 1 3 15 0
9!
( )3 (
)( )( ).
3!3!3!0! 25 100 80 16
1
1
). Portanto, se em 1 dia, = 25
, em uma semana, isto , 7 dias,
(b) X1 P oisson( = 25
7
= 25
.. Seja Xs = {nmero de caminhes com placa do Cear trafegando em uma semana}.
Logo,
7
Xs P oisson( = ),
25
e
7
P (Xs 1) = 1 P (Xs < 1) = 1 e 25 .
(c) Seja XC = {nmero de semanas onde trafega pelo menos um caminho com placa do Cear}.
Ento
7
XC B(n = 53, p = 1 e 25 )
e
53 2
P (XC = 2) =
p (1 p)51 .
2
Campos, Rgo & Mendona
7.8. MULTINOMIAL
184
P (XC = 10) = (e 25 )9 (1 e 25 ).
(e) Distribuio de Pascal.
7
7
19
P (XC = 3) =
(1 e 25 )3 (e 25 )17 .
2
7.9
185
Exerccios
7.9. EXERCCIOS
186
(b) no menos que trs jogos de quatro ou pelo menos cinco jogos de oito?
7.8 Um centro de processamento de dados comprou um lote de 5000 chips, dos quais 1000
foram manufaturados pela fbrica A e o restante pela B. Sabe-se que 10% dos chips
produzidos por A e 5% dos produzidos por B, respectivamente, so defeituosos.
(a) Um chip escolhido aleatoriamente do lote. Qual a probabilidade de que seja
defeituoso?
(b) Um chip escolhido aleatoriamente do lote, observado, e constata-se que defeituoso. Qual a probabilidade de que tenha sido produzido por A?
(c) Suponha que uma amostra de 20 chips seja retirada aleatoriamente do lote comprado. Qual ser a probabilidade de se encontrar na amostra pelo menos 1 defeituoso?
7.9 Um nmero binrio de n dgitos escrito onde cada dgito 0 ou 1 independentemente uns dos outros. A varivel aleatria X o nmero de dgitos 1. Encontre a
probabilidade dos seguintes eventos: (a) {X = m}; (b) {X m}; (c) {X < m}.
7.10 Considere um nmero escrito na expanso b-dica
x = dn dn1 . . . d1 d0 .d1 d2 . . . =
d i bi ,
i=n
187
7.15 O nmero de mensagens que chegam em uma rede tem uma distribuio geomtrica
com parmetro p. Para p = 0.2, calcule a mdia, varincia, desvio padro, o coeficiente
de variao e plote a distribuio de probabilidade.
7.16 O nmero de pedidos de I/O recebidos por um disco durante um dado intervalo de
tempo segue uma distribuio de Poisson com parmetro . Para = 8 determine a
mdia, varincia, desvio padro e o coeficiente de variao e plote a distribuio de
probabilidade.
7.17 Dois processos (ou duas variveis aleatrias) independentes de Poisson emergem em
um disco10 . Cada um deles tem, respectivamente, parmetros x e y . Determine o
seguinte:
(a) Mdia de x + y.
(b) Varincia de x + y.
(c) Mdia de x y.
(d) Varincia de x y.
(e) Mdia de 3x 4y.
(f ) Coeficiente de variao de 3x 4y.
7.18 Um disco rgido recebe em mdia 2 pedidos de I/O a cada 17 msec, segundo uma
distribuio de Poisson.
(a) Qual a probabilidade de que o nmero de pedidos seja maior que 1, no mesmo
tempo considerado?
(b) Este disco observado durante 10 intervalos de mesmo tempo acima. Qual a
probabilidade de que em ao menos um dos 10 intervalos de tempo o nmero de
pedidos seja maior que 1?
(c) Qual ser a probabilidade de que em 34 msec o nmero de pedidos seja maior que
1?
7.19 Use a aproximao de Poisson para calcular a probabilidade de que no mximo 2 dentre
50 motoristas tenham perdido pontos na carteira de habilitao, se usualmente 5% os
perdem.
7.20 Uma companhia de erea nacional tem observado que 5% das pessoas que fazem reserva
para um determinado vo desistem. A companhia decide ento vender 20 bilhetes para
este vo quando s dispe de 18 lugares. Qual a probabilidade do avio acomodar todos
os passageiros?
10
O leitor, principalmente se aluno de graduao precisa ver uma notao diferente da que usada em
livros de probabilidade inclusive com respeito nomenclatura para variveis aleatrias.
7.9. EXERCCIOS
188
7.21 Foguetes so lanados at que o primeiro lanamento bem sucedido tenha ocorrido. Se
isso no ocorrer at 5 tentativas, o experimento suspenso e o equipamento inspecionado. Admita que exista uma probabilidade constante de 0.8 de haver um lanamento
bem sucedido e que os sucessivos lanamentos sejam independentes. Suponha que o
custo do primeiro lanamento seja k dlares, enquanto os lanamentos subseqentes
custam k/3 dlares. Sempre que ocorre um lanamento bem sucedido, uma certa quantidade de informao obtida, a qual pode ser expressa como um ganho financeiro de
c dlares. Seja T o custo lquido desse experimento.
(a) Estabelea a distribuio de probabilidade de T .
(b) Determine o custo lquido esperado.
7.22 O computador de uma fbrica, que trabalha ininterruptamente, eventualmente falha.
O nmero de falhas pode ser considerado como tendo uma distribuio de Poisson,
com nmero mdio de falhas por dia de 1.5; encontre as probabilidades dos seguintes
eventos:
(a) A = {o computador falha pelo menos uma vez durante o dia},
(a) B = {o computador falha no menos que trs vezes durante uma semana}.
7.23 Num processo de fabricao 10% das peas so consideradas defeituosas. As peas so
acondicionadas em caixas com 5 unidades cada uma.
(a) Qual a probabilidade de haver exatamente 3 peas defeituosas numa caixa?
(b) Qual a probabilidade de haver duas ou mais peas defeituosas numa caixa?
7.24 Um cubo formado com chapas de plstico de 10 10cm. Em mdia aparecem 50
defeitos a cada metro quadrado de plstico, segundo uma distribuio de Poisson.
(a) Qual a probabilidade de uma determinada face apresentar exatamente 2 defeitos?
(b) Qual a probabilidade de que pelos menos 5 faces sejam perfeitas?
(c) Qual a probabilidade de que o cubo apresente no mnimo 2 defeitos?
7.25 Um laboratrio tem 15 pcs dos quais 5 esto desligados. Um grupo de 6 estudantes
entra na sala e, aleatoriamente, cada um escolhe um pc. Qual a probabilidade de que,
entre os escolhidos
(a) exatamente dois estejam desligados?
(b) pelo menos um esteja ligado?
(c) pelo menos dois estejam desligados?
7.26 Um carro s tem 4 semforos em seu percurso. Em cada um deles, independentemente,
a probabilidade do carro parar p. Seja uma varivel aleatria X, definida como sendo
o nmero de semforos que o carro passa antes de parar pela primeira vez.
Campos, Rgo & Mendona
189
7.9. EXERCCIOS
190
(b) O administrador do sistema resolve aumentar o nmero de linhas para 30. Neste
caso, qual a probabilidade de que 9 ou mais delas estejam ocupadas?
Captulo 8
Principais Variveis Aleatrias
Contnuas
Neste captulo sero exploradas as principais variveis aleatrias contnuas. A distribuio
Normal tanto aplicada em problemas prticos quanto tericos, sendo bsica para o desenvolvimento de outras variveis aleatrias. As distribuies Exponencial, Log-normal e
Weibull so fundamentais em modelagem de desempenho de sistemas e confiabilidade. Distribuies como a t-Student, 2 e F so teis no clculo de intervalos de confiana e em
teste de hipteses. A distribuio de Pareto aplica-se em fenmenos que apresentam grande
variabilidade nas observaes, o que implica no aumento da varincia.
8.1
(i) Densidade.
fX (x) =
1
,
ba
0,
x (a, b), a, b IR
x 6 (a, b).
Z
E(X) =
a
x
a+b
dx =
.
ba
2
191
192
(iii) Varincia.
V (X) = E(X 2 ) E(X)2 =
onde E(X)2 =
(b a)2
,
12
Rb
x2
dx.
a ba
0,
Rx
FX (x) =
1,
1
dt
ba
xa
,
ba
x < a,
a x < b,
b x < +.
L
5
Z
0
1
1
dx = .
L
5
Se (b),
LX
1
4L
4L
< X>
P (X >
)=
X
4
5
5
L
4L
5
1
1
dx = .
L
5
L
4L
1 1
2
) + P (X >
)= + = .
5
5
5 5
5
8.2
193
A densidade exponencial pode ser utilizada para modelar (i) o tempo de vida de componentes
que falham sem efeito de idade, (ii) o tempo de espera entre sucessivas chegadas de ftons,
(iii) emisses de eltrons de um ctodo, (iv) chegadas de consumidores, e (v) durao de
chamadas telefnicas, entre outros.
(i) Densidade.
fX (x) =
E(X) =
xe
dx =
xex |
0
ex dx =
ex 1
| = .
0
(iii) Varincia.
Para o clculo da varincia, inicialmente ser calculado o segundo momento.
2
E(X ) =
x e
dx =
x2 ex |
0
Z
+2
xex dx =
2
.
2
Portanto,
V (X) = E(X)2 (E(X))2 =
2
1
1
2 = 2.
2
194
0,
Rx
dt = 1 e
x < 0,
, x 0.
P (X > s + t, X > s)
P (X > s + t)
=
.
P (X > s)
P (X > s)
(s+t)
ex dx = [ex ]
.
s+t = e
P (X > s + t) =
s+t
Similarmente,
P (X > s) = es .
Portanto,
P (X > s + t|X > s) = et = P (X > t).
Exemplo 8.2.1: Observa-se que um tipo particular de chip, que tem durao de vida
exponencial, igualmente provvel durar menos que 5000 horas ou mais que 5000 horas.
(a) Determine o tempo de durao mdio de um chip deste tipo.
(b) Qual a probabilidade que o chip dure menos de 1000 horas ou mais de 10000 horas?
Campos, Rgo & Mendona
195
Soluo: Seja X o tempo de durao deste chip. Para resolver o problema preciso determinar seu parmetro. Sabe-se que P (X < 5000) = P (X > 5000), e como P (X <
5000) + P (X > 5000) = 1, tem-se que P (X < 5000) = 0.5. Portanto, 1 e(5000) = 0.5, ou
log 2
. Ento, o tempo de durao mdio deste tipo de chip 5000
horas.
seja, = 5000
log 2
Para calcular a probabilidade pedida,
P ((X < 1000) (X > 10000)) = P (X < 1000) + P (X > 10000) = 1 e
log 2
5
+ e2 log 2
8.3
Normal de parmetros e 2: N (, 2)
(i) Densidade.
(x)2
1
fX (x) = e 22 , x IR IR, IR+ .
2
(x)2
1
e 22 dx =
2
1 t2
e 2 dt = I.
2
t2
2
dt
s2
2
1
ds =
2
(t2 +s2 )
2
dtds.
196
Portanto, I = 1.
Segundo Fine (2006), historicamente esta distribuio foi chamada de normal porque
era amplamente aplicada em fenmenos biolgicos e sociais. Aplicaes da distribuio
normal incluem rudo trmico em resistores e em outros sistemas fsicos que possuem
um componente dissipativo; rudos de baixa-frequncia como os encontrados em amplificadores de baixa frequncia; variabilidade em parmetros de componentes manufaturados; comportamento de variveis em organismos biolgicos como, por exemplo,
altura e peso.1
A densidade simtrica em torno do parmetro , e quanto menor o parmetro
mais concentrada a densidade em torno de . Pode-se provar que os pontos e
+ so os pontos de inflexo do grfico de fX . Ser visto adiante que e 2 so a
esperana e a varincia da distribuio, respectivamente.
Se = 0 e 2 = 1 esta densidade chamada na literatura de normal padro ou normal
reduzida.
(ii) Esperana
Z
E(X) =
Fazendo a mudana de varivel y =
Z
E(X) =
y + y2
e 2 dy =
2
(x)2
1
x e 22 dx.
2
x
,
tem-se
y y2
e 2 dy +
2
y2
e 2 dy = 0 + = .
2
(iii) Varincia.
Para o clculo do segundo momento tambm realizada a mudana de varivel y =
logo
x
,
Pode parecer estranho modelar quantidades que s assumem valores positivos por uma distribuio
normal onde valores negativos aparecem. Nestes casos o que ocorre que os parmetros e 2 devem ser
escolhidos de modo que a probabilidade da varivel assumir um valor negativo seja aproximadamente nula
o que torna a representao vlida.
197
Z
z 2
1
E(X ) =
(y + )2 e 2 dz
2
Z
Z
2
z 2
2
1
2 z
2
z e dz + 2
ze 2
=
2
2
Z
2
z
1
e 2 dz.
= +2
2
2
z 2
2
E(X ) = (ze 2 |
+
2
= 2 + 2 .
z 2
2
dz) + 2
O seguinte teorema afirma que transformaes lineares de variveis aleatrias com distribuio normal tambm so normalmente distribudas.
Teorema 8.3.1: Se X N (, 2 ) e se Y = aX + b, onde a > 0 e b IR, ento Y ter
distribuio N (a + b, a2 2 ).
Prova: Note que
FY (y) = P (Y y) = P (X
yb
yb
) = FX (
).
a
a
ou seja, Y N (a + b, a2 2 ).
Corolrio 8.3.2: Se X N (, 2 ), ento Y =
2
Pode-se provar
Pn que se Xi N (i , i ) so independentes, e ai IR, para i = 1,
P2, 3, . . .,
ento Y = c + i=1 P
ai Xi tambm tem distribuio normal com mdia E(Y ) = c + ni=1 ai i
e varincia V (Y ) = ni=1 (ai i )2 .
8.3.1
198
1 x2
e 2 dx.
2
a
Esta integral no pode ser resolvida analiticamente, contudo mtodos numricos de integrao podem ser empregados para calcular integrais da forma acima e de fato valores de
P (X z) existem em vrias tabelas. A funo de distribuio acumulada de uma normal
padro usualmente denotada por . Portanto,
Z z
1 x2
e 2 dx.
(z) =
2
P (a < X b) =
b
a
= (
) (
).
P (a < X b) = P (
P (X 2.3) = 1 P ( 2.3) = 1 (
2.3 2
) = 1 (0.75) = 1 0.7734 = 0.2266.
0.4
P (1.8 X 2.1) = (
199
Exemplo 8.3.4: Um equipamento com dois terminais com uma resistncia equivalente
de 1 Megohm opera em uma sala com temperatura de 300K. A voltagem trmica, V , que
ele gera observada na banda de 1.5GHz at 2.5GHz. Qual a probabilidade de que a
magnitude da voltagem exceda 8 milivolts? Assuma que V N (0, 2 ), onde 2 = 4T RB,
a constante de Boltzman que igual a 1.38 1023 , V medido em volts, T medido
em graus Kelvin, R medido em ohms, e B medido em Hertz.
Soluo: Das informaes calcula-se que 2 = 4(1.38 1023 )(300)(106 )(109 ) = 16.5 106 .
Logo, 0.004. Portanto,
0.008 0
0.008 0
)) + (
)
0.004
0.004
= 1 (2) + (2) = 2(1 (2)) = 2(1 0.9772) = 0.456.
8.4
(i) Densidade.
fX (x) = k x(+1) , k IR+ , x k k IR+ .
E(X) =
k( 1)1 , se > 1,
se 1.
Campos, Rgo & Mendona
200
(iii) Varincia.
V (X) =
0,
x < k,
k
1 ( x ) , x k.
A distribuio de Pareto pode ser utilizada para modelar distribuio de riquezas, atrasos
em transmisso de pacotes e durao de sesses de internet, entre outros.
8.5
Weibull de parmetros e : W (, )
(i) Densidade.
201
(ii) Esperana.
1
E(X) = 1/ ( + 1).
(iii) Varincia.
1
2
V (X) = 2/ (( + 1) (( + 1))2 ).
8.6
Log-normal de parmetros e 2: LN (, 2)
(i) Densidade.
1 (ln x )2
fX (x) = (x 2) exp
, x IR+ , , IR+ .
2
2
1
8.7
(i) Densidade.
r xr1 ex
, x IR+ , r, IR+ ,
fX (x) =
(r)
Campos, Rgo & Mendona
202
(ii) Esperana.
E(X) =
r
.
r
.
2
n
2
203
8.8
(i) Densidade.
n
x 2 1 e 2
fX (x) = n n , x IR+ , n Z + .
2 2 ( 2 )
(ii) Esperana.
E(X) = n.
(iii) Varincia.
V (X) = 2n.
A distribuio 2n tem tabeladas algumas probabilidades para determinados graus de
liberdade.
Exemplos sobre o uso da tabela
(a) P (29 16.9) = 5%.
(b) P (26 1.24) = 97.5%.
(c) P (210 x) = 98% x = 3.059.
(d) P (230 x) = 20% x = 36.250.
(e) P (220 x) = 0.05. P (220 x) = 1 P (220 x) = 0.05 P (220 x) = 0.95
x = 10.851.
(f ) P (215 x) = 10%. P (215 x) = 90% x = 8.547.
Campos, Rgo & Mendona
8.9
204
(i) Densidade.
2
)(1 + xn )(n+1)/2
( n+1
2
, x IR, n Z + .
fX (x) =
n
2( 2 )
n
, n > 2.
n2
Propriedades
(i)
N (0,1)
q
2 (n)
n
t(n).
205
8.10
(i) Densidade,
m
( m+n
( mx
)
) 2 1 m
2
n
fX (x) = m
, x IR+ , n, m Z + ,
( 2 )( n2 ) (1 + mx ) m+n
n
2
n
+
onde n e m so os parmetros, n, m Z .
n
, n > 2.
n2
(iii) Varincia.
V (X) =
2n2 (n + m 2)
, m > 4.
n(m 2)2 (m 4)
Propriedades
(i)
F (n, m) =
2 (n)/n
.
2 (m)/m
(ii)
F (m, n) =
2 (m)/m
1
=
.
2
(n)/n
F (n, m)
Campos, Rgo & Mendona
206
(iii)
F (n, m, /2) =
1
.
F (m, n, 1 /2)
Prova:
P (F (n, m) a) = /2
1
P(
a) = /2
F (m, n)
1
P ( F (m, n)) = /2
a
1
P (F (m, n) ) = /2
a
1
1 P (F (m, n) ) = /2
a
1
P (F (m, n) ) = 1 /2.
a
Logo,
1
P (F (n, m) a) = /2 P (F (m, n) ) = 1 /2.
a
Exemplos de uso da tabela
(a) P (F (5, 15) > x) = 5% x = 2.90.
(b) P (F (20, 20) > x) = 5% x = 1.66.
(c) P (F (120, 120) > x) = 5% x = 1.35.
8.11
8.11.1
(i) Densidade.
xa1 (1 x)b1
, x [0, 1], a, b IR+ ,
(a, b)
R1
onde a e b so parmetros, a, b IR+ e (a, b) = 0 xa1 (1 x)b1 dx.
fX (x) =
(ii) Esperana.
E(X) =
a
.
a+b
(iii) Varincia.
V (X) =
ab
(a +
b)2 (a
+ b + 1)
207
8.11.2
(i) Densidade.
fX (x) =
1
2
, x IR, x0 IR, IR+ .
+ (x x0 )2
Z
0
2
dx = ,
+ (x x0 )2
2
dx = .
+ (x x0 )2
Prova-se (Meyer, 1983) que a razo entre duas variveis aleatrias com distribuio normal independentes tem uma distribuio Cauchy com parmetros x0 = 0 e = 1.
Campos, Rgo & Mendona
8.11.3
208
O vetor aleatrio (X, Y ) possui distribuio normal bivariada quando tem densidade dada
por
f (x, y) =
1
x 1 2
x 1 y 2
y 2 2
1
p
[(
)
2(
)(
)
+
(
) ]},
exp{
2(1 2 )
1
1
2
2
21 2 1 2
8.12
209
Exerccios
2
2
quando
(a) X B(n, p)?
(b) X P ()?
(c) X Exp()?
(d) X N (, 2 )?
p
8.2 Compare o limite superior da probabilidade P (| X E(X) | 2 V (X)), obtido pela
desigualdade de Tchebychev, com a probabilidade exata, em cada um dos seguintes
casos:
(a) X uniformemente distribuda sobre (-1,3).
(b) X tem distribuio N (, 2 ).
(c) X tem distribuio de Poisson com parmetro 4.
(d) X tem distribuio exponencial com parmetro .
8.3 Uma varivel aleatria contnua X uniformemente distribuda no intervalo (, ).
Encontre a distribuio da varivel Y = X.
8.4 Se o nmero de sinais que, independentemente, chegam em um detector D no perodo
de 10 segundos segue uma distribuio de Poisson com mdia 20, qual a probabilidade
de que chegue pelo menos um sinal em um perodo de 5 segundos?
8.5 Dois satlites idnticos so lanados simultaneamente ao espao. A vida til dos seus
painis solares pode ser modelada por uma distribuio exponencial de parmetro 1
ano, isto , as densidades so dadas por et . O satlite A monitorado durante os
primeiros 2 anos e funciona perfeitamente; ele s tornar a ser verificado em algum
momento aps 5 anos de seu lanamento. (a) Qual a probabilidade de que ainda esteja
funcionando nesse dia? O satlite B s verificado em algum momento depois de
completar 3 anos em rbita. (b) Qual a probabilidade de que ainda esteja funcionando
nessa data? Compare essas probabilidades. (proposto por Thanius George R. Pinho)
8.6 Suponha que a durao de vida, T , de um dispositivo eletrnico, medida em horas,
seja uma varivel aleatria contnua com funo densidade de probabilidade
f (t) = 0.01e0.01t , t > 0.
10 desses dispositivos so instalados independentemente em um sistema.
Campos, Rgo & Mendona
8.12. EXERCCIOS
210
211
8.12 O comprimento de uma determinada conexo, medida em centmetros, tem uma distribuio normal. A proporo de conexes com comprimento abaixo de 25 cm 82%;
a proporo de conexes com comprimento acima de 20 cm 70%. Determine a proporo de peas que medem mais de 23 cm, sabendo-se que foram escolhidas entre
aquelas que medem mais de 21 cm.
8.13 O tempo necessrio para um estudante completar uma tarefa escolar tem distribuio
normal com mdia 90 minutos e desvio padro 15 minutos.
(a) Que proporo de estudantes termina a tarefa em 2 horas ou menos?
(b) Qual o tempo necessrio para permitir que 90% dos estudantes terminem o teste?
(c) Em uma turma de 80 alunos, quantos se espera que terminem a tarefa em menos
de 1 hora e 40 minutos, dentre os que a terminaram em mais de 1 hora e 10
minutos?
8.14 A durao de um certo tipo de pneu, em quilmetros rodados, uma varivel aleatria
normal com durao mdia 60000km e desvio padro de 10000km. Qual a probabilidade
de que um pneu escolhido ao acaso dure
(a) mais de 75000km?
(b) entre 63000 e 70000km?
(c) O fabricante deseja fixar uma garantia de quilometragem, de tal forma que, se a
durao do pneu for inferior garantia, o pneu seja trocado. De quanto deve ser
essa garantia para que a probabilidade de que o pneu seja trocado seja de 1% ?
8.15 Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma
distribuio exponencial com um valor mdio de 10 segundos.
(a) Encontre a varincia de T .
(b) Qual a probabilidade de que T no exceda 60 segundos?
(c) Exceda 90 segundos?
8.16 A durao da vida de um satlite uma varivel aleatria exponencialmente distribuda, com durao esperada de vida de 1.5 anos. Se trs desses satlites forem lanados simultaneamente, qual ser a probabilidade de que ao menos dois deles ainda
venham a estar em rbita depois de 2 anos?
8.17 Quando um computador est operando, falhas ocorrem aleatoriamente. O tempo T
at o aparecimento da primeira falha tem uma distribuio exponencial com parmetro
. Quando uma falha ocorre, necessrio corrig-la dentro de um tempo t0 , depois do
qual o computador comea a operar outra vez.
(a) Encontre a densidade e a funo de distribuio do intervalo de tempo entre sucessivas falhas.
(b) Encontre a probabilidade de que este intervalo de tempo seja maior do que 2t0 .
Campos, Rgo & Mendona
8.12. EXERCCIOS
212
8.18 Suponha que o tempo T entre chamadas em um dado sistema on-line tenha uma distribuio exponencial com um valor mdio de 10 segundos. Seja t um ponto arbitrrio
no tempo e X o tempo decorrido at a quinta chamada chegar (depois do tempo t).
Encontre o valor esperado e a varincia de X. Qual a probabilidade de que T no
exceda 60 segundos? Exceda 90 segundos?
8.19 A distribuio de Weibull,
n
F (x) = 1 ex , x > 0,
onde > 0 uma constante e n um inteiro positivo frequentemente usada como a
distribuio do tempo livre de falha de um equipamento.
(a) Encontre a funo de densidade.
(b) Encontre sua mdia e varincia.
8.20 Se X tem distribuio normal com mdia e varincia 2 , encontre b tal que
P (b < (X )/ < b) = 0.90.
8.21 Seja X N (, 2 ) e tal que P (X < 89) = 0.90 e a P (X < 94) = 0.95. Encontre e
2.
8.22 Se X N (75, 25), encontre a probabilidade de que X seja maior do que 80 relativa
hiptese de que X seja maior do que 77.
8.23 Uma varivel aleatria X tem distribuio normal com mdia e varincia 2 . Precisamos aproximar a distribuio normal por uma distribuio uniforme no intervalo
(, ) com os limites e escolhidos de tal forma que o valor mdio e a varincia de
X sejam mantidos constantes. Determine e .
8.24 O tempo de vida de lmpadas produzidas por uma certa fbrica segue uma distribuio
exponencial com vida mdia de 200 horas.
(a) Qual a probabilidade de uma lmpada escolhida ao acaso durar entre 200 e 300
horas?
(b) A fbrica deseja fixar uma garantia, de tal forma que se a durao da lmpada
for menor que a garantia, ela seja trocada. Qual deve ser a garantia do fabricante
para repor apenas 5% da produo?
8.25 O comprimento das chamadas, T , em um orelho de praia segue uma distribuio
exponencial com mdia de 4 minutos. Os banhistas tm reclamado sobre a demora na
fila, portanto a companhia telefnica resolve analisar o problema. Para tanto seleciona
uma amostra de 50 usurios e calcula as seguintes probabilidades.
(a) da mdia amostral, T , ser superior a 1 minuto;
Campos, Rgo & Mendona
213
8.12. EXERCCIOS
214
Captulo 9
Confiabilidade: Probabilidade aplicada
9.1
Introduo e Definies
Neste captulo ser vista uma aplicao dos conceitos relativos ao espao das probabilidades
apresentados anteriormente. Por meio dessa aplicao, denominada de confiabilidade,
possvel realizar uma modelagem probabilstica da forma com que um sistema falha, ou seja,
a modelagem da lei de falhas do referido sistema. Assim, a confiabilidade uma ferramenta
utilizada para, entre outros, se prever quando um sistema poder falhar pela primeira vez,
conhecimento que essencial para o planejamento de manutenes, especialmente quando o
sistema analisado crtico como um avio, por exemplo.
A Figura 1 ilustra o comportamento da incidncia de falhas em um dado sistema, onde
os intervalos de tempo em que o sistema permanece no estado ON e OFF indicam, respectivamente, a ausncia ou no de falhas.
216
rais. A observao do sistema num ambiente manipulado pode gerar dados de confiabilidade
viciados.
A forma com que um sistema falha um fenmeno aleatrio modelado por uma varivel
aleatria contnua T no negativa, que representa a durao de tempo at a sua primeira
falha. Essa varivel pode ser descrita por sua funo densidade de probabilidade, fT (t), ou
por sua funo de distribuio acumulada, FT (t). Como T contnua, ento a probabilidade
no ponto zero. Ou seja, P (T t) = P (T > t).
Definio 9.1.1: Seja S um sistema observado em operao no perodo [0, t]. Ento, a
funo confiabilidade de S, no instante t, R(t), dada por:
R(t) = P (T t).
(9.1)
Z
fT (t)dt = 1
R(t) =
fT (t)dt.
(9.2)
A funo densidade de probabilidade, fT (t), pode ser definida a partir da funo confiabilidade. Partindo da Equao (9.2), tem-se que:
d
dR(t)
=
dt
Rt
0
fT (x)dx
.
dt
Assim,
fT (t) =
dR(t)
.
dt
(9.3)
comum assumir que, para fins de clculo da confiabilidade, o sistema opera satisfatoriamente no instante t = 0. Desse modo, R(0) = 1. Por outro lado, quando t +, a
confiabilidade nula. A Figura 9.2 ilustra um exemplo de funo confiabilidade, explicitando
que R(0) = 1 e limt+ R(t) = 0.
Proposio 9.1.2: Seja T a varivel que representa o tempo para falha de um sistema e
fT (t) sua funo densidade de probabilidade. Ento, para valores t = 0 e t +, a funo
confiabilidade R(t) dada, respectivamente, por:
(a) R(0) = 1.
(b) limt+ R(t) = 0.
Prova:
Campos, Rgo & Mendona
217
Z
R(0) =
fT (t)dt.
(9.4)
Sabe-se que a T assume apenas valores no negativos, uma vez que fT (t) uma funo
densidade de probabilidade, ento:
fT (t)dt = 1.
fT (t)dt =
(9.5)
Z
R(+) = lim
t+
fT (t)dt.
(9.6)
Z
lim
t+
Z
fT (t)dt lim
fT (t)dt =
t
t+
fT (t)dt.
(9.7)
218
fT (t)dt = 1
0
fT (t)dt = 1.
lim
t+
Dessa forma,
Z
fT (t)dt = 1 1 = 0.
R(+) = lim
t+
tfT (t)dt.
(9.8)
Em (9.8) tem-se que os limites da integral so 0 e + uma vez que T assume apenas
valores no negativos.
Proposio 9.1.5 : Seja R(t) a funo confiabilidade de um determinado sistema. O
Tempo Mdio para Falha dado por:
Z
Tmed =
R(t)dt.
(9.9)
219
Tmed =
0
dR(t)
tdt.
dt
(9.10)
Tmed
+ Z
= tR(t)
+
R(t)dt.
(9.11)
Portanto,
lim tR(t) = 0
t+
e
0 R(0) = 0.
Ou seja,
Z
Tmed = 0 +
R(t)dt.
0
P (t T t + 4t|T t) =
(9.12)
A Equao (9.12) define a chance de um sistema falhar em um perodo de tempo 4t, dado
que no ocorreram falhas no intervalo de tempo [0, t]. Dessa forma, considerando (9.12), a
probabilidade condicional de falhas por unidade de tempo dada por
R(t) R(t + 4t)
.
R(t)4t
(9.13)
4t0
4t
R(t)
dR(t)
1
fT (t)
=
=
.
dt
R(t)
R(t)
(t) =
lim
(9.14)
220
Proposio 9.1.6: Seja (t) a taxa de falhas de um determinado sistema. Ento, a funo
confiabilidade do sistema em questo dada por
R(t) = e
Rt
0
(t0 )dt0
(9.15)
dR(t)
1
.
dt
R(t)
(t)dt =
dR(t)
.
R(t)
(9.16)
t
0
R(t)
(t )dt =
0
R(0)
dR(t0 )
,
R(t0 )
(9.17)
Assim,
R(t) = e
Rt
0
(t0 )dt0
(9.18)
221
(t) =
fT (t)
0.5e0.5t
= 0.5t = 0.5
R(t)
e
A Figura 9.3 ilustra graficamente o comportamento de funes que caracterizam a confiabilidade do exemplo.
9.2
9.2.1
222
fT (t)
et
= t = .
R(t)
e
0
0
Sistemas modelados com a taxa de falhas constante so denominados sem memria1 . Um
sistema denominado instantneo (sem memria), caso as suas sadas em um instante de
tempo t dependam somente de entradas geradas no mesmo instante t. Essa propriedade
pode ser demonstrada empregando confiabilidade condicional:
R(t|T0 ) =
R(t + T0 )
e(t+T0 )
et eT0
=
=
= et = R(t).
R(T0 )
eT0
eT0
Em outras palavras, o tempo para falhas de um sistema sem memria depende apenas
do tamanho do perodo de operao, no sendo afetado pela idade corrente do sistema (T0 ),
isto , R(t|T0 ) = R(t).
9.2.2
223
(t) =
t 1
( ) ,
(9.19)
> 0, > 0, t 0.
Utilizando (9.18) e considerando que T W (, ), tem-se que a funo confiabilidade :
R(t) = e[
Rt
t 1
]
0 ()
= e( ) .
(9.20)
Tmed = (1 +
onde (x) =
R +
0
Exemplo 9.2.1:
por:
1
),
(9.21)
y x1 ey dy.
Seja T W (, ) e = 4 e = 1000. Assim, a taxa de falhas dada
4
t 3
(
).
1000 1000
Nesse caso, a funo confiabilidade dada por:
(t) =
R(t) = e( 1000 ) .
Para t = 100, a confiabilidade assume o seguinte valor
100
9.3
224
Sistemas Complexos
Seja o sistema complexo L possuindo n componentes. O vetor x = (x1 , x2 , ..., xn ) representa o estado de todos os componentes de L. Assim como seus componentes, L tambm
pode se apresentar em um dos estados de operao mencionados. Dessa forma, o estado de
L, denotado por , definido com base no vetor x por meio da seguinte funo:
= (x) = (x1 , x2 , ..., xn ).
A primeira etapa do clculo da confiabilidade de sistemas complexos envolve a obteno
desses valores de confiabilidade para cada um de seus componentes. Em seguida os valores
obtidos so combinados de acordo com a configurao dos componentes, resultando no valor
da confiabilidade referente ao sistema complexo como um todo. As seguintes configuraes
sero abordadas neste captulo: srie e paralelo. Observe que, para cada uma dessas
configuraes, uma funo distinta ser definida.
Para fins de clculo, supe-se que os componentes abordados nesta seo no so reparveis, ou seja, quando um componente deixa de funcionar o modelo matemtico proposto
no considera aes de manuteno ou reparativas. Portanto, para sistemas no reparveis,
o tempo mdio para falha a durao de vida do sistema em questo.
9.3.1
Configurao em srie
225
(x) =
n
Y
xi = min(x1 , x2 , ..., xn ).
(9.22)
i=1
A Equao (9.22) indica que o sistema complexo apresenta apenas um caminho crtico.
Ou seja, caso L possua dois componentes, se apenas um deles falhar L tambm falhar.
Seja Ei o evento do i-simo componente no apresentar falhas durante um intervalo de
tempo t. Tem-se que
P (Ei ) = Ri (t),
onde Ri (t) a funo confiabilidade do i-simo componente do sistema L. A funo confiabilidade de L dada por:
R(t) = P
n
\
!
Ei
(9.23)
i=1
Assumindo que os eventos Ei so independentes, (9.23) pode ser simplificada e representada da seguinte forma:
R(t) = P (E1 ) P (E2 ) P (En )
ou
R(t) =
n
Y
Ri (t).
(9.24)
i=1
d X
d
ln[R(i) (t)].
(t) = lnR(t) =
dt
dt i=1
(9.25)
Utilizando (9.15), pode-se afirmar que a taxa de falhas para n componentes em srie
Campos, Rgo & Mendona
226
(t) =
n
X
fT (i) (t)
i=1
R(i) (t)
n
X
(i) (t),
(9.26)
i=1
onde fT (i) (t) e (i) (t) so a funo densidade de probabilidade e taxa de falhas, respectivamente, referentes ao i-simo componente.
O tempo mdio para falha para L pode ser definido utilizando a sua funo confiabilidade
R(t). Ento, o valor Tmed dado por
Z
Tmed =
R(t)dt.
(9.27)
n
X
(i) ,
i=1
Tmed = Pn
i=1
(i)
(9.28)
1
= 2.857142857142857143
1 + 2 + 3
227
9.3.2
Configurao em paralelo
A configurao paralela, tambm denominada redundante, implica que o sistema com esta
configurao falha apenas se todos os seus componentes se apresentarem em estado no
operacional. A Figura 9.6 ilustra esta configurao.
Seja o sistema L formado por n componentes conectados em paralelo. A funo que
define o estado de L dada por
n
Y
(x) = 1 (1 xi ) = max (x1 , x2 , ..., xn ).
(9.29)
i=1
A Figura 9.6 mostra que existem n caminhos crticos na configurao redundante ilustrada. Seja Ei o evento do i-simo componente no apresentar falhas durante um intervalo
de tempo t. Portanto, a probabilidade do sistema L no falhar durante um perodo de tempo
t dada por
!
n
[
P (t T ) = P
Ei .
i=1
P (t T ) = 1
n
Y
P (Eic ),
(9.30)
i=1
(9.31)
i=1
228
Seja o sistema Y com dois componentes conectados em configurao redundante, possuindo lei de falhas independentes com distribuio Exponencial com parmetros 1 e 2 .
A funo confiabilidade de tal sistema, sendo o mesmo observado por um perodo de tempo
t, denotada por
R(t) = 1 (1 e1 t ) (1 e2 t )
= e1 t + e2 t e(1 +2 )t .
(9.32)
Utilizando (9.9) e (9.32), o tempo mdio para falha de Y
Z
R(t)dt =
Tmed =
0
1 t
+
0
2 t
e(1 +2 )t
1
1
1
=
+
.
1 2 1 + 2
(9.33)
Similarmente, o tempo mdio para falha, considerando trs componentes em configurao
redundante,
1
1
1
1
1
1
1
+
+
+
.
1 2 3 1 + 2 1 + 3 2 + 3 1 + 2 + 3
No existe uma frmula fechada para o tempo mdio considerando a configurao paralela. Caso se suponha que os n componentes possuem distribuio Exponencial com parmetros idnticos, , o tempo mdio para falha dado pela seguinte equao:
Tmed =
Tmed
1X1
=
.
i=1 i
Tmed =
1
1
1
+
+
= 45.833333333333329
0.04 0.04 0.04
9.4
229
Exerccios
9.1 Considere um equipamente eletrnico com lei de falhas apresentando distribuio exponencial, tal que T E(0.01). Calcule:
(a)
(b)
(c)
(d)
R(0).
R(1.5).
R(10).
E(T ).
9.2 Suponha que uma pea mecnica possui distribuio de falhas Weibull com parmetros
= 5 e = 400. Calcule:
(a)
(b)
(c)
(d)
(e)
R(200).
(200).
R(400).
(400).
E(T )
9.3 O tempo mdio para falhas de um aparelho apresentando lei de falhas exponencial
dado por 1000 horas. Qual a confiabilidade desse equipamento aps 10 horas de
operao?
9.4 A durao da vida de um dispositivo eletrnico exponencialmente distribida. Sabe-se
que a confiabilidade desse dispositivo para um perodo de 100 horas de operao de
0.90. Quantas horas de operao devem ser levadas em conta para conseguir-se uma
confiabilidade de 0.95?
9.5 Suponha um sistema com 2 componentes. O primeiro componente possui distribuio
de falhas exponencial com taxa de falhas igual a 0.0001. O segundo possui distribuio
de falhas Weibull com parmetros = 2 e = 4000. Calcule os seguintes valores para
t = 200:
(a) R(200), considerando que os componentes esto conectados em srie.
(b) R(200), considerando que os componentes esto conectados em paralelo.
9.6 Um sistema possui 2 componentes com distribuio de falhas independentes e conectados em srie. O primeiro componente possui distribuio de falhas exponencial com
t
taxa de falhas 0.0003. O segundo possui taxa de falhas dada por (t) = 510
5 . Encontre
a confiabilidade do sistema aps 100 horas de operao.
9.7 Suponha que a lei de falhas de um componente tenha a seguinte funo densidade de
probabilidade:
f (t) =
(r + 1)Ar+1
, t > 0.
(A + t)r+2
Campos, Rgo & Mendona
9.4. EXERCCIOS
230
(a) Para quais valores de A e r, essa expresso uma funo densidade de probabilidade?
(b) Obtenha a expresso da funo confiabilidade.
Captulo 10
Teoremas Limite e Transformaes de
Variveis Aleatrias
10.1
Introduo
Quando um problema do mundo fsico deve ser resolvido num contexto de probabilidade,
torna-se imprescindvel conhecer a lei de probabilidade que rege o fenmeno que gerou o
problema. Se o fenmeno pode ser enquadrado em alguma das situaes abaixo descritas,
fcil encontrar a lei de probabilidade que o rege.
(i) Seja X uma varivel aleatria com densidade fX (x), ou distribuio FX (x), Ento,
fcil encontrar a lei de probabilidade de Y = H(X).
(ii) Supondo que se tem o vetor aleatrio (X, Y ), com as leis de probabilidade de X e Y
conhecidas. Tambm fcil encontrar as distribuies de probabilidade de X + Y ,
X Y , X Y e X/Y , tanto considerando independncia quanto dependncia. Teoricamente, se se tem (X1 , . . . , Xn ) poderia (mas no !) ser fcil encontrar a distribuio
de (. . . ((X1 + X2 ) + X3 ) + + Xn ).
(iii) Se o vetor (X1 , . . . , Xn ) uniformemente distribudo numa regio Rn de IRn , encontrar
a distribuiao de (X1 , . . . , Xn ) envolve apenas um clculo de volume (em IRn ), ficando
as dificuldades tcnicas por conta do clculo abstrato e no de probabilidade.
(iv) Existem resultados, alguns aqui descritos na seo Transformao de Variveis Aleatrias, que podem ser obtidos via o uso da funo geratriz de momentos ou funo
caracterstica.
Entretanto, se o problema a ser resolvido estrapola as situaes anteriormente descritas,
a soluo o uso de aproximaes, as quais tm de ter um suporte terico. Assim, os
resultados vistos neste captulo, portanto, tm como objetivo maior mostrar qual o suporte
para realizar aproximaes e quais as aproximaes mais usadas no mundo real.
Um lembrete: o clculo de limites na matemtica tem como resultado o limite, quando
este existe. No mundo probabilstico alm da sintaxe, o clculo efetivo de limite, tem uma semntica especfica, isto , o experimento aleatrio ou foi realizado um nmero muito grande
231
10.2.
232
10.2
fA p,
isto , fA converge para p em probabilidade.
Prova: E(fA ) = p, V (fA ) =
Tchebychev,
p(1p)
n
p(1 p)
n2
lim P (| fA p |< ) = 1.
P (| fA p |< ) 1
n
(10.1)
233
O resultado em (10.1) mostra qua a frequncia de A quando n grande pode ser uma
aproximao para p. Adicionalmente, o modo de convergncia envolvido fraca, pois
convergncia em probabilidade. Este teorema limite foi o primeiro da probabilidade
e foi publicado em 1715.
Exemplo 10.2.1: O problema do administrador de uma rede estimar a verdadeira
proporo de usurios de uma dada aplicao usando uma amostra aleatria de tamanho n. Admitindo que a populao de usurios suficientemente grande para se usar
um resultado assinttico, determine n para que o administrador possa garantir, com
pelo menos 95% de probabilidade, que a distncia entre a estimativa encontrada, p0 , e
a probabilidade terica 1/3, seja inferior a 3%.
Soluo.
P (| p0
(1/3)(2/3)
1
|< 0.03) 1
= 0.95
3
n 0.032
Logo,
(1/3)(2/3)
= 0.05 n 4938.
n 0.032
k (x) = lim
234
1
, 0 k 9.
10
Nestes termos, o teorema de Borel : exceto por um conjunto de Borel de medida nula,
todo nmero em [0,1] simplesmente normal.
Resultados para a base 2 podem ser encontrados em James (1981).
Fazendo uma analogia com nmeros de ponto-flutuante e gerador de nmeros aleatrios
em computadores, sabe-se que no intervalo [0,1] onde existem mais nmeros de pontoflutuante (veja apndice sobre o assunto) e que geradores de nmeros aleatrios geram
nmeros aleatrios entre 0 e 1. Portanto, uma aplicao prtica do teorema de Borel
pode ser checar se o gerador de nmeros aleatrios de uma determinada mquina
realmente aleatrio, isto , no limite, a frequncia de cada dgito deveria ser 12 , uma
vez que computadores trabalham internamente em binrio,
10.3
Xnp
,
npq
Isto ,
lim P (Zn z) = lim Fn (z) = FN (0,1) (z),
o que significa que Zn converge em distribuio (D) para uma N (0, 1).
Este teorema mostra que uma B(n, p) pode ser aproximada por uma N (0, 1). Ross
(1993) sugere que a aproximao seja usada quando npq 10.
Exemplo 10.3.1: Seja X o nmero de caras em 40 lanamentos independentes de
uma moeda honesta. Calcular
(a) P (X = 20).
(b) P (X 1).
Soluo. Claramente X uma binomial, porque o experimento realizado independentemente um nmero finito de vezes e a probabilidade do evento de interesse, no
caso aparecer cara, permanece constante durante a realizao do experimento. Logo,
1 20 1 4020
(a) P (X = 20) = 40
( ) (2)
.
20 2
1 0 1 40
(b) P (X 1) = 1 P (X = 0) = 1 40
(2) (2) .
0
Campos, Rgo & Mendona
235
O mesmo problema ser resolvido aproximando a binomial pela N (0, 1). Para o clculo
de P (X = 20), como a normal contnua, probabilidade no ponto zero, ento usa-se
o artifcio de somar e subtrair 0.5 ao valor de interesse, no problema 20. Lembrando
que E(X) = 20 e V (X) = 10.
10
X20
10
120
)
10
20.520
)
10
= 0.1272.
= 1 P (Z40 < 6) = 1.
Zn N (0, 1).
O teorema de DeMoivre-Laplace mostra que probabilidades envolvendo binomiais podem ser calculadas por meio de aproximao pela N (0, 1). Note que a convergncia
deste ltimo resultado tambm convergncia em distribuio. O TCL fornece um
mtodo efetivo para se calcular probabilidades quando se tem somas de variveis aleatrias independentes. Isto significa que se um fenmeno do mundo real puder ser
modelado por uma soma (Sn ) de n fatores independentes, mesmo no sendo possvel
encontrar uma frmula para a distribuio de Sn , calcula-se qualquer probabilidade
envolvendo Sn pela aproximao com a N (0, 1).
Exemplo
10.3.2:
P10
P ( 1 Xi < 7).
P
1
Soluo. Sabe-se que E(Xi ) = 21 e V (Xi ) = 12
. Seja S10 = 10
1 Xi . Logo, E(S10 ) = 5
S
7
10 5
e V (S10 ) = 10
.
Portanto,
P
(S
<
7)
=
P
(
<
=
0.9861.
10
10
10
12
12
12
10.4
236
Nesta seo sero vistos resultados1 relativos a aproximaes de variveis aleatrias por
outras, ou de transformaes de variveis aleatrias.
(i) Se X se distribui como uma Hipergeomtrica de parmetros N , n e r , se p =
N grande,
P (X = k) ' B(n, p).
r
,
N
para
i=1
n
X
i ).
i=1
n
X
nk , p).
i=1
n
X
i=1
Provas via funo geratriz de momentos ou funo caractertica (ver a ltima seo).
10.5
237
Nesta seo sero vistas as definies dos modos de convergncia e da funo caracterstica
e duas leis de grandes nmeros que ilustram convergncia em probabilidade e em quase toda
parte.
10.5.1
Modos de Convergncia
Xn X
se
P ({ : lim Xn () = X()}) = 1.
n
Este resultado significa que o conjunto dos onde Xn 6 X tem probabilidade zero.
Este o significado de converg
ncia em quase toda parte: convergncia fora de um
conjunto de probabilidade (medida) nula. Adicionalmente, convergncia em quase
toda parte convergncia pontual fora de um conjunto de medida nula.
(ii) Convergncia em probabilidade
Sejam X1 , X2 , . . . , Xn , . . . e X variveis aleatrias em (, A, P ). Xn converge para X
em probabilidade,
P
Xn X
se, > 0,
lim P ({ :| Xn () X() |> }) = 0.
Xn X
se, para todo x ponto de continuidade de FX (),
lim FXn (x) = FX (x).
238
Alm desses, existem outros modos de convergncia (por exemplo, convergncia em mdia
de ordem p, 0 < p < +), entretanto, os aqui citados so suficientes para o entendimento
de qual modo de convergncia foi usado neste captulo.
Convergncia em quase toda parte denominada de convergncia forte e em probabilidade
de fraca. O mais fraco modo de convergncia em distribuio. Pode-se mostrar que:
qtp P D.
10.5.2
Funo Caracterstica
10.5.3
10.5.4
Sejam X1 , X2 , . . . , Xn , . . . , e X variveis aleatrias independentes e identicamente distribudas tais que E(Xi ) = < , i. Seja Sn = X1 + + Xn . Ento,
Sn qtp
.
n
10.6
239
Exerccios
P10
k=1
Xk 15).
10.6. EXERCCIOS
240
10.6 48 medies so registradas com vrias casas decimais. Cada um desses 48 nmeros arredondado para o inteiro mais prximo. A soma dos 48 nmeros originais
aproximada pela soma destes inteiros. Assumindo que os erros de arredondamento
so estocsticamente independentes e tm distribuio uniforme no intervalo ( 12 , + 12 ),
compute um valor aproximado para a probabilidade de que o erro seja menor que 2
unidades.
10.7 A espessura de trilhas fotorresistivas (pastilhas) na fabricao de semicondutores tem
mdia e varincia, respectivamente, 10 micrmetros e 2 micrmetros. Considere normalidade. Tambm considere que as espessuras de diferentes pastilhas sejam independentes.
(a) Determine a probabilidade de a espessura mdia de 10 pastilhas ser maior do que
11 ou menor do que 9 micrmetros.
(b) Qual deve ser o tamanho da amostra, n, tal que, com probabilidade 0.01, a espessura mdia seja maior do que 10 micrmetros?
10.8 Em um extenso programa de computador, o programador decide manter J algarismos
significativos aps o ponto decimal, arredondando o resultado de qualquer operao
aritmtica para este nmero de algarismos. Admita que haja um total de 106 operaes
elementares envolvendo arredondamentos, que os erros de arredondamento sejam independentes e uniformemente distribudos no intervalo [0.5 10J , 0.5 10J ]. Calcule
a probabilidade de que o erro de arredondamento seja menor do que 500 10J .
10.9 O peso de um equipamento eletrnico se distribui como uma normal com mdia 10g e
desvio padro 0.5g. Este equipamento embalado em caixas contendo 120 unidades.
O peso da caixa 150g. Qual a probabilidade de que uma caixa cheia pese mais de
1360g?
P
10.10 Sejam 27 voltagens independentes V1 , , V27 recebidas por um somador V = 27
i=1 Vi .
Suponha que Vi U (0, 10), i = 1, , 27.
(a) Qual a probabilidade de que a voltagem na entrada do somador exceda 148.5
volts?
(b) Sabe-se que a capacidade mxima desse somador 200 volts. Calcule o nmero
mximo, n, de voltagens que o mesmo pode receber de modo que sua capacidade
no seja ultrapassada em pelo menos metade das vezes.
10.11 Supondo que a distribuio de probabilidade da carga til de cada passageiro, seu peso
mais sua bagagem, uma Normal de mdia 82kg e varincia 49kg 2 e que um avio de
16 lugares pode levar uma carga til total de 1360kg, calcule a probabilidade de que o
piloto tenha que tirar pelo menos 25kg de gasolina para evitar sobrecarga.
10.12 Um analista tem de entrevistar 20 programadores. Ele sabe que o tempo gasto em uma
entrevista, T , segue uma lei normal com mdia 10 minutos e desvio padro 3 minutos.
Ele comea as entrvistas s 9:00.
Campos, Rgo & Mendona
241
(a) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas?
(b) Qual a probabilidade de que ele termine as entrevistas antes das 12:30 horas, se
parou durante 15 minutos para um cafezinho?
(c) Ele comea as entrevistas s 9:00 horas e decide parar para um cafezinho no
tempo t, onde t tal que, com 99% de certeza ele ter entrevistado 50% dos
programadores. Quanto t, isto , quando ele parar?
10.13 Um produto pesa em mdia 8g com um desvio padro de 5g. embalado em caixa de
144 unidades que pesam em mdia 200g com desvio padro 10g. Calcular a probabilidade de que uma caixa cheia pese mais do que 1400g, admitindo distribuies normais
dos pesos.
10.14 A quantidade de tempo que um consumidor gasta esperando no balco de check-in
de um aeroporto uma varivel aleatria com mdia de 8.2 minutos e desvio-padro
de 1.5 minuto. Suponha que uma amostra aleatria de 49 consumidores seja observada. Encontre a probabilidade de que o tempo mdio de espera na fila para esses
consumidores esteja entre 5 e 10 minutos.
10.15 A vida efetiva de um componente usado em um motor de uma turbina de um avio a
jato uma varivel aleatria com mdia 5000 horas e desvio-padro 40 horas. Suponha
normalidade e independncia onde necessrio. O fabricante do motor introduz uma
melhoria no processo de fabricao desse componente que aumente a vida mdia para
5050 horas e diminui o desvio padro para 30 horas. Uma amostra aleatria de 16
componentes selecionada do processo antigo e outra de 25 elementos selecionada
do processo novo. Qual a probabilidade de que a diferena entre as duas mdias
amostrais seja no mnimo de 25 horas?
10.16 Um sinal, S, recebido em um detector, D, medido em microvolts, em determinado
instante t, pode ser modelado por uma N (200, 256). Realizando clculos com duas
decimais e arredondamento simtrico, responda s questes a seguir.
(a) Qual a probabilidade de que a voltagem do sinal exceda 220 microvolts?
(b) Se 10 desses sinais chegam independentemente, qual a probabilidade de que ao
menos um deles exceda 220 microvolts?
(c) Qual a probabilidade de que o primeiro sinal que exceda 220 microvolts seja o
dcimo? Os sinais so independentes.
(d) Suponha que 30 sinais chegam alternadamente e independentemente ao detector.
Qual a probabilidade de que a voltagem total, V , entre a chegada do primeiro e
o recebimento do ltimo sinal exceda 6000 microvolts?
(e) Um tcnico constata que o nmero de sinais que chegam em D no perodo de 20
segundos segue um processo de Poisson com taxa 8. Qual a probabilidade que
cheguem 5 sinais em 30 segundos?
Campos, Rgo & Mendona
10.6. EXERCCIOS
242
243
10.6. EXERCCIOS
244
Captulo 11
Introduo aos Processos Estocsticos
11.1
Introduo
245
11.2.
246
11.2
247
Exemplo 11.2.3: Tempo mdio de execuo de um job no n-simo dia da semana, {Xn , n =
1, . . . , 7.}
espao de parmetros: discreto;
espao de estados: contnuo.
248
11.3
Alguns processos estocsticos so to comuns no mundo fsico que recebem ateno especial.
11.3.1
Processo de contagem
Sejam os eventos:
uma chamada telefnica numa central de reservas de uma companhia area,
a ocorrncia de uma falha por software ou hardware em um sistema.
Tais eventos podem ser descritos por uma funo de contagem, N (t), definida para todo
t > 0 como o nmero de eventos que ocorreram depois do tempo 0 mas no mais tarde que
o tempo t.
Definio 11.3.1: {N (t), t T } constitue um processo de contagem se:
(i) N (0) = 0.
(ii) N (t) assume somente valores inteiros no-negativos.
(iii) s < t N (s) N (t).
(iv) N (t) N (s) o nmero de eventos que ocorreram em [s, t).
11.3.2
Processo de Poisson
249
A prxima definio formaliza a ideia de "uma quantidade pequena com respeito a outra".
A vantagem que torna possvel indicar esse fato sem especificar o exato relacionamento
entre as duas quantidades.
Definio 11.3.2: f o(h) se limh
f (h)
h
= 0.
et (t)k
, k = 0, 1, . . .
k!
Portanto, o nmero mdio de eventos ocorrendo em qualquer intervalo de tempo de comprimento t t e o nmero mdio de eventos ocorrendo por unidade de tempo tt = .
O prximo teorema mostra outro importante atributo do processo de Poisson, que a
sua relao com a distribuio exponencial.
Teorema 11.3.6: Seja {N (t), t 0} um processo de Poisson com taxa > 0. Sejam
0 < t1 < t2 < . . . tempos sucessivos de ocorrncias de eventos e {n , n = 1, 2, . . .} os tempos
entre as ocorrncias de eventos 2 . Ento, {n } so variveis aleatrias independentes e
identicamente distribudas segundo uma exponencial com mdia 1 .
2
1 = t1 , 2 = t2 t1 , . . .
250
11.3.3
Processo de nascimento-e-morte
A ideia intuitiva atrs de um processo de nascimento-e-morte a de algum tipo de populao que est ganhando novos membros atravs de nascimentos e perdendo velhos membros
atravs de mortes. A populao, para a maior parte das aplicaes desses processos em
computao a dos usurios em uma fila de espera. A palavra usurios genrica. Os
usurios que chegam correspondem aos nascimentos e os que partem, aps serem atendidos,
s mortes.
Definio 11.3.8: Seja um processo estocstico com parmetro contnuo {Xt , t 0} e
com espao de estados discreto 0, 1, . . .. Suponha que este processo descreve um sistema que
est no estado En , n = 0, 1, . . . no tempo t se e s se X(t) = n 3 . Ento, o processo descrito
por um processo de nascimento-e-morte se existem taxas de nascimento {n , n = 0, 1, . . .} e
taxas de morte {n , n = 0, 1, . . .} tal que os seguintes postulados so satisfeitos:
(i) As nicas mudanas de estado so:
de En para En+1 , n 1;
de En para En1 , n 1;
de E0 para E1 .
Somente um nascimento ou uma morte ocorre no tempo t e no ocorre morte se o
sistema est vazio.
(ii) Se no tempo t o sistema est no estado En , a probabilidade de que entre (t, t + h) En
mude 4 para En+1 n + o(h) e En mude para En1 n + o(h).
(iii) A probabilidade de que ocorra mais de uma transio (t, t + h) o(h) 5 .
Quando descreve-se um sistema de filas como um processo de nascimento-e-morte, o
estado En corresponde aos n usurios no sistema esperando ou recebendo servio.
3
11.3.4
251
Processo de Markov
11.4
Cadeias de Markov
11.4.1
252
.
.
.
.
.
.
.
.
.
.
.
.
P =
pij = 1, i = 0, 1, . . .
j=0
pi = P (X0 = i), i = 0, 1, . . . .
Portanto,
(0)
0 pi 1
e
(0)
pi = 1.
i=0
(0)
253
q
p 0 0 ...
q
0 p 0 ...
P =
q
0 0 p ...
... ... ... ...
As probabilidades de transio independem de n, portanto tem-se uma cadeia de Markov
homognea no tempo.
11.4.2
Agora sero definidas as probabilidades de transio em n passos, ou seja, as probabilidades de que o processo estando no estado i no instante m estaro no estado j depois de n
transies, isto ,
(n)
pij = P (Xm+n = j|Xm = i)
para n 0 e i, j 0.
Quando n = 1, p(n) (i, j) = p(i, j). Usando a definio de probabilidade condicional e o
Teorema da probabilidade total6 , tem-se que
6
Resultados do Captulo 3
254
P (X2 = j, X0 = i)
P (X0 = i)
P
z P (X2 = j, X1 = z, X0 = i)
=
P (X0 = i)
P
z P (X0 = i)P (X1 = z | X0 = i)P (X2 = j | X1 = z)
=
P (X0 = i)
X
=
p(i, z)p(z, j).
p2ij = P (X2 = j | X0 = i) =
As equaes de Chapman-Kolmogorov servem como um mtodo para calcular as probabilidades de transio de n passos e so estabelecidas observando que
X
(m+n)
P (Xn = z | X0 = i)P (Xm+n = j | X0 = i, Xn = z)
= P (Xm+n = j|X0 = i) =
pij
z
(n)
piz P (Xm+n
= j | X0 = i, Xn = z)
(n) (m)
piz pzj .
Para uma cadeia de Markov tendo um nmero finito de estados, seja P (n) a matriz
de probabilidades de transio em n passos, ento, P (n+m) = P (n) P (m) , onde P (0) = I.
Portanto,
P (n) = P P (n1) = P P P (n2) = . . . = P n
e P (n) pode ser calculada multiplicando a matriz P por ela mesma n vezes.
Exemplo 11.4.3: Considere um sistema de comunicao que transmite os dgitos 0 e 1
atravs de vrios estgios. Em cada estgio, a probabilidade de que o mesmo dgito seja
recebido ou transmitido para prximo estgio 0.75. Qual a probabilidade de que um 0
que entrou no primeiro estgio seja recebido como 0 no quinto estgio?
Soluo. O objetivo calcular p400 . A matriz de probabilidades de transio e sua quarta
potncia so, respectivamente
0.75 0.25
P =
0.25 0.75
0.53125 0.46875
4
P =
0.46875 0.53125
(4)
(n)
pj
= P (Xn = j)
255
(i)
P (Xn = j) =
P (X0 = i, Xn = j)
i
(0) (n)
pi pij .
P (Xn1 = i, Xn = j)
(1)
P (Xn1 = i)pij
i
(n1) (1)
pij .
pi
11.4.3
Definio 11.4.7 : O estado i peridico com perodo d > 0 se pii > 0 somente
para n = d, 2d, 3d, . . . onde d o maior inteiro que verifica a propriedade. Se d = 1, i
aperidico.
(n)
fi
= P (Xn = i, Xk 6= i k = 1, . . . , n 1 | X0 = i)
e
(0)
fi
= 1, i.
Campos, Rgo & Mendona
256
(n)
fi .
n=1
Se
fi < 1, i um estado transiente,
Se
fi = 1, i um estado recorrente.
Se i recorrente, o tempo mdio de recorrncia a i
i =
(n)
nfi .
n=1
Se
i = , i nulo recorrente,
Se
i < , i recorrente positivo, ou recorrente no-nulo.
Definio 11.4.9: Uma cadeia de Markov discreta dita como tendo uma distribuio de
probabilidade estacionria,
p = (p1 , p2 , . . .)
P
onde pi 0 e i pi = 1, se a equao matricial
p = pP
satisfeita.
A equao matricial p = pP pode ser escrita como o sistema de equaes lineares
X
pj =
pj pij , j = 0, 1, . . .
i
lim pj
= lim P (Xn = j) = pj , j = 0, 1, . . .
n
Definio 11.4.11: Uma cadeia de Markov discreta, irredutvel, aperidica e onde todos
os estados sejam recorrentes positivos denominada de ergdica.
Campos, Rgo & Mendona
257
pj =
pi Pij , j = 0, 1, . . .
Logo,
= 1
p0 + p1
p0 = 0.75p0 + 0.25p1
p1 = 0.25p0 + 0.75p1
A soluo deste sistema p0 = p1 = 0.5. A interpretao do resultado obtido que se os
dados passam atravs de muitos estgios, a sada independe da entrada original e cada dgito
recebido igualmente provavl de ser 0 ou 1.
Exemplo 11.4.13: Todo ano um homem troca seu carro por um carro novo. Se tem um
Palio ele o troca por um Gol. Se tem um Gol ele o troca por um sedan. Contudo, se tem
um sedan, to provvel que o troque por um novo sedan quanto por um Palio ou Gol. Em
2005 ele comprou seu primeiro carro, que foi um sedan. Calcule a probabilidade de que
(a) tenha um sedan em 2007;
(b) tenha um Palio em 2007;
(c) tenha um Gol em 2008;
(d) aps um nmero suficientemente grande de anos, com que frequncia ter tido um
sedan?
Soluo. O espao de estados
= {Palio, Gol, sedan}.
O espao de parmetros
T = {0, 1, 2, . . .}
O vetor de probabilidades iniciais
p(0) = (0, 0, 1).
A matriz de probabilidades de transio
0 1 0
P = 0 0 1
1
3
1
3
1
3
258
1 4 4
p(2) = p(0) P 2 = ( , , ).
9 9 9
(2)
(a) p3 = 49 .
(2)
(b) p1 = 19 .
(3)
4 7 18
, 27 , 27 ). Logo, p2 =
(c) p(3) = p(2) P = ( 27
7
.
27
11.5
259
Exerccios
11.1 Nas observaes feitas por Rutherford e Geiger, uma substncia radioativa emitia uma
mdia de 3.87 partculas durante 7.5 segundos.
(a) Qual a probabilidade de que a substncia emita pelo menos uma partcula por
segundo?
(b) Neste caso, isto , considerando o nmero de partculas emitidas por segundo,
escreva a expresso da densidade da varivel aleatria correspondente ao tempo
entre chegadas.
11.2 (a) Determine a distribuio de probabilidade do intervalo de tempo entre chegadas
sucessivas, T , num processo de Poisson de parmetro t. Sugesto: {T < t}
{Xt > 0}.
(b) Considere um sistema computacional onde o fluxo de chegadas de um especiffico
programa por hora, Xt , segue um processo de Poisson com taxa mdia de 60 jobs.
Determine a probabilidade de que o intervalo de tempo entre jobs sucessivos seja
menor que 8 minutos.
11.3 Prove que a distribuio dos intervalos de tempo entre sucessivos eventos num processo
de Poisson com intensidade , uma exponencial com parmetro .
11.4 A r D descansa sobre o vrtice A de um tringulo ABC. A cada minuto a r salta
do vrtice em que est para um vrtice adjacente com probabilidade p (0, 1) do salto
ser no sentido horrio e 1 p do salto ser no sentido anti-horrio. Modele o problema
por uma Cadeia de Markov.
(a) Especifique o espao de estados, E.
(b) Especifique o espao de parmetro, T .
(c) Especifique a matriz de probabilidade de transio, P .
(d) A distribuio de probabilidade inicial, p(0) .
(e) Verifique (fcil e rapidamente) que P regular.
(f ) Encontre a distribuio de probabilidade estacionria da cadeia.
(g) Considere que o tringulo equiltero e atribua um valor numrico conveniente
para p. No terceiro minuto, com que probabilidade a r D poder estar em cada
um dos vrtices do tringulo ABC? Especifique claramente sua resposta.
11.5 Trs crianas A, B e C esto arremessando uma bola uma para a outra. A sempre
arremessa a bola para B e B sempre arremessa a bola para C. to provvel que C
lance a bola para B quanto para A. Seja Xn , n = 1 . . . n a nsima pessoa a arremessar
a bola.
(a) Especifique o espao de estados do processo.
(b) Especifique a matriz de probabilidades de transio, M .
Campos, Rgo & Mendona
11.5. EXERCCIOS
260
261
a1 b 1 c 1
A = a2 b 2 0
1 0 0
uma matriz estocstica e u = (u1 , u2 , u3 ) um vetor de probabilidade.
(a) Mostre que uA tambm um vetor de probabilidade.
(b) Suponha que u seja um vetor fixo de probabilidade. Mostre que ku, k > 0 tambm
um vetor fixo de probabilidade..
11.11 O territrio de um vendedor constitudo de trs cidades, A, B e C. Ele nunca vende
na mesma cidade em dias consecutivos. Se vende na cidade A, no dia seguinte vende
na cidade B. Contudo, se vende na B ou em C, ento no dia seguinte duas vezes mais
provvel que ele venda em A do que na outra cidade.
(a) Especifique o espao de estados do processo.
(b) Especifique a matriz de probabilidade de transio M .
(c) Esta cadeia tem algum estado absorvente?
(d) Aps um nmero sufucientemente grande de dias, com que freqncia ele vende
em cada uma das cidades?
11.5. EXERCCIOS
262
Captulo 12
Anlise Exploratria de Dados
12.1
Tipos de Variveis
Quando necessrio analisar um conjunto de dados decorrentes da realizao de um experimento, ou da observao do mundo real, comum a aplicao de um conjunto de tcnicas que
servem como um indicativo de qual procedimento deve ser adotado. Estas tcnicas quando
corretamente aplicadas e interpretadas fornecem valioso suporte para a tomada de decises
quer com respeito aos dados em si, quer com respeito a qual mtodo de inferncia aplicar.
Nem todas as variveis so numricas ou quantitativas, como as que foram estudadas
nos captulos anteriores, pode-se ter uma varivel no numrica ou qualitativa como, por
exemplo, modelos distintos de sistemas operacionais, ou distintos paradigmas de liguagens
de programao, ou diferentes classes da populao com respeito ao nmero de salrios
mnimos ganhos. As variveis quantitativas podem ser discretas ou contnuas, enquanto as
qualitativas podem ser classificadas como nominais ou ordinais, dependendo se existe ou no
uma ordem natural em seus possveis resultados. Por exemplo, o tipo de sistema operacional
uma varivel qualitativa nominal, enquanto a classe da populao com respeito ao nmero
de salrios mnimos ganhos uma varivel qualitativa ordinal.
Um outro possvel critrio para classificar variveis em funo da escala de medida
adotada para se analisar o resultado do experimento. As escalas de medidas podem ser:
nominais, ordinais, intervalares, e de razo.
Uma escala nominal utilizada para classificar os resultados de um experimento, por
exemplo, se dado equipamento falhou ou no durante o perodo de estudo, a marca e o
modelo do equipamento em questo.
Uma escala ordinal alm de classificar os resultados tambm pode ser utilizada para estabelecer uma ordem entre as diferentes classes de possveis resultados, por exemplo, grau
de escolaridade de um indivduo, classe socio-econmica de um indivduo, posio que um
indivduo conclui uma certa corrida. A estrutura da escala ordinal no alterada por transformaes estritamente monotnicas.
Uma escala intervalar pode ser utilizada para alm de classificar e ordenar os resultados
tambm quantificar diferena entre as classes. Nesta escala necessrio estabelecer uma
origem arbitrria e uma unidade de medida. Por exemplo, a temperatura de um dado
equipamento em funcionamento medida em graus centgrados constitui uma medida numa
263
264
escala intervalar. Considere o caso em que tem-se trs equipamentos E1, E2, e E3, operando
em temperaturas de 40, 45 e 80 graus centgrados, respectivamente; vlido afirmar que a
diferena de temperatura entre E3 e E2 7 vezes maior que a diferena de temperatura entre
E2 e E1. Contudo, nesta escala no faz sentido afirmar que E3 tem uma temperatura 2 vezes
maior que E1, pois a origem e a unidade de graus centgrados escolhidas so arbitrrias, se
a temperatura estivesse sendo medida em graus Fahrenheits no se observaria esta relao.
Uma escala de razo podem ser utilizada para alm de classificar e ordenar os resultados
tambm estabelecer quo maior um resultado que outro. A diferena com a escala intervalar
que agora existe um zero bem definido neste escala. A altura de um indivduo, o tempo
at ocorrncia de um dado evento, o nmero de ocorrncias de certo evento em um dado
intervalo de tempo so exemplos de medidas que utilizam uma escala de razo. No caso de
dois equipamentos E1 e E2 com tempo de vida til de 100h e 200h, respectivamente, vlido
afirmar que o tempo de vida til de E2 o dobro do tempo de vida til de E1.
12.2
O que ser visto a seguir como proceder uma anlise preliminar em um conjunto de dados.
12.2.1
Representaes Grficas
Quando se procede uma anlise em um conjunto de dados resultantes de variveis quantitativas ou qualitativas o que inicialmente feito um grfico. Existem vrios tipos de grficos,
sendo os mais comumentes encontrados: barras, colunas, setores, pictograma, gantt, kiviat,
linhas, histograma, box-plot e q-q plot. O tipo de grfico a ser usado depende do tipo de
varivel do problema, se qualitativa ou quantitativa.
Para representar a distribuio dos dados de uma varivel qualitativa, os dois grficos
mais utilizados so: o grfico de barras e o grfico de setores ou pizza. Esses grficos consideram que o conjunto de dados pode ser particionado em classes.
O grfico de barras consiste em construir retngulos ou barras paralelas, uma para cada
classe, em que uma das dimenses proporcional frequncia de ocorrncia ou representatividade desta classe, e a outra dimenso arbitrria porm igual para todas as barras. As
barras podem ser horizontais ou verticais.
O grfico de setores ou pizza consiste de um crculo de raio arbitrrio, representando a
totalidade dos dados, dividido em fatias sendo que cada fatia corresponde a uma classe e
tem rea proporcional representatividade desta classe nos dados.
Para uma varivel quantitativa discreta tambm utiliza-se um grfico de barras como no
caso de variveis quantitativas, onde agora tem-se uma barra para cada possvel valor que a
varivel pode assumir. Tambm considera-se um grfico de disperso unidimensional onde
desenha-se apenas pontos no plano cartesiano da forma (xi , ni ), isto , onde a abscissa do
ponto um possvel valor da varivel e a ordenada a frequncia de ocorrncia deste valor.
Uma outra alternativa de grfico para varivel quantitativa que muito til no caso de
variveis contnuas o histograma.
Campos, Rgo & Mendona
265
12.2.2
Sumarizando Observaes
Estado Civil
S
C
C
C
S
C
S
C
C
S
Grau de Instruo
Mdio
Superior
Fundamental
Fundamental
Mdio
Mdio
Superior
Mdio
Mdio
Mdio
No. de Filhos
0
2
1
3
1
2
3
4
0
1
Salrio
3
5
4
5.5
7.3
3.5
10
6
2
3.7
Idade
34
25
46
32
23
39
50
47
21
33
Sexo
F
M
M
M
F
M
M
M
F
M
Quando o objetivo for comparar esta varivel Grau de Instruo entre diferentes empresas,
deve-se usar ou a frequncia relativa ou a porcentagem, pois possuem o mesmo total para
qualquer empresa, enquanto o nmero total de empregados varia de empresa para empresa.
Campos, Rgo & Mendona
266
Em geral, quando uma tabela de frequncia construda o objetivo resumir os resultados no que diz respeito a uma dada classe. No caso de uma varivel quantitativa, se faz
necessrio que dividam-se em intervalos os possveis resultados do experimento para esta
varivel, pois caso contrrio pode acontecer que cada resultado ocorra somente um nmero
pequeno de vezes e no se possa resumir a informao a respeito da dada varivel. Esta
situao ocorre frequentemente no caso de variveis que assumem valores reais. No exemplo
anterior, suponha que se deseje construir uma tabela de frequncia para a varivel Salrio.
Neste caso, pode-se considerar intervalos de tamanho 3 para construir a seguinte tabela:
267
1 2
9
, , , ,
10 10
10
centis ou percentis,
q(p), p =
2
99
1
,
, ,
.
100 100
100
A mdia aritmtica de uma varivel a soma dos seus valores divididos pelo nmero total
de resultados obtidos.
A moda de uma varivel definida como sendo o seu resultado que ocorreu com maior
frequncia durante o experimento. A moda no necessariamente nica. Se houver empate
entre a frequncia de ocorrncia de mais de dois possveis resultados, ento todos sero moda
da varivel em questo. A moda no necessariamente numrica, por exemplo, se a varivel
em questo for grau de instruo na populao brasileira, a moda onde tem uma maior
concentrao de indivduos. Tambm uma varivel pode no ter moda, o que acontece se
no houver valores que se repitam.
A mediana o resultado que ocupa a posio central de uma srie de observaes, quando
estas esto ordenadas. Portanto, metade dos valores so menores e metade so maiores que
5
a mediana. Note que a mediana tambm uma separatriz, corresponde a q( 42 ) = q( 10
)=
50
q( 100 ). Quando o nmero de observaes for par a mediana a mdia aritmtica entre as
duas observaes centrais.
A presena de valores ou muito pequenos ou muito grandes alteram sua mdia e no
alteram a mediana. Portanto, a mediana muitas vezes usada para representar uma medida
central de um conjunto de observaes.
Campos, Rgo & Mendona
268
As medidas de posio vistas informam sobre a posio central dos resultados mas no
sobre sua variabilidade. Para tanto so necessrias as medidas de disperso. Por exemplo,
considere dois grupos de resultados de uma certa varivel: Grupo 1 = {3, 4, 5, 6, 7} e Grupo 2
= {1, 3, 5, 7, 9}. Ambos os grupos possuem a mesma mdia e mediana que igual a 5, porm
os resultados do Grupo 1 esto mais aglutinados ao redor deste valor. Medidas de disperso
so utilizadas para mensurar esta variabilidade. Estas medidas analisam quo distante da
mdia esto os resultados. Para uma varivel, a medida de disperso mais usada o desvio
padro, e para mais de uma varivel, o coeficiente de variao.
Apenas as medidas de posio e de disperso no informam a respeito da simetria ou
assimetria da distribuio dos resultados. Os quantis ou separatrizes so medidas que servem
para informar a este respeito.
Um quantil de ordem p ou p-quantil, indicado por q(p), onde p uma proporo qualquer, 0 < p < 1, e tal que 100p% dos resultados sejam menores que q(p). Existem alguns
quantis que so usados mais frequentemente e recebem nomes particulares: q(0.25) o 1o.
quartil ou 25o. percentil; q(0.5) a mediana, 5o. decil, ou 50o. percentil; q(0.75) o terceiro
quartil ou 75o. percentil; q(0.95) o 95o. percentil.
Uma medida de disperso a distncia interquartil, dq , definida como sendo a diferena
entre o terceiro e o primeiro quartil, isto , dq = q(0.75) q(0.25).
Os cinco valores x(1) , q(0.25), q(0.5), q(0.75), e x(n) so importantes para se ter uma idia
a respeito da assimetria da distribuio dos dados. Para se ter uma distribuio aproximadamente simtrica, preciso que:
(a) q(0.5) x(1) ' x(n) q(0.5);
(b) q(0.5) q(0.25) ' q(0.75) q(0.5);
(c) q(0.25) x(1) ' x(n) q(0.75).
A questo que se coloca agora se os dados sero ou no agrupados. At antes do
computador, dependendo da quantidade de dados, agrup-los nas chamadas distribuies
de frequncias era inevitvel. Depois do computador, agrupar os dados s se for necessrio
observar algum tipo de padro de comportamento funcional deles. A seguir ser visto como
calcular os indicadores estatsticos referenciados anteriormente, para dados agrupados e no
agrupados. Neste livro as frmulas para dados agrupados no sero provadas, uma vez que
as mesmas encontram-se em vrios dos textos bsicos sobre o assunto.
12.2.3
Dados agrupados
Se os dados esto agrupados ento esto dispostos numa tabela como a Tabela 12.4, a qual
tem k classes com respectivas frequncias absolutas ni , i = 1, , k, limites inferiores li e
superiores Li . Usualmente o limite superior da classe i igual ao inferior da classe i + 1, isto
, L1 = l2 , L2 = l3 , etc.
269
Classes
l1 ` L1
l2 ` L2
l3 ` L3
lk ` Lk
Total
ni
n1
n2
n3
nk
n
Mdia aritmtica, x
k
x1 n1 + . . . + xk nk
1X
x=
=
xi n i ,
n1 + . . . + nk
n i=1
i
.
onde xi = li +L
2
Mediana, x
A mediana o valor que divide o conjunto de dados em duas partes iguais, isto , 50%
so menores ou iguais que x e 50% so maiores ou iguais que x. A mediana no nica; seu
clculo implica no clculo das frequncias acumuladas F ci . Neste caso tem-se:
Frequncias acumuladas
Classes
l1 ` L1
l2 ` L2
l3 ` L3
lk ` Lk
Total
ni
n1
n2
n3
nk
n
F ci
n1
n1 + n2
n1 + n2 + n3
n1 + n2 + nk
-
x = li + ( 2
F ci1
)(Li li ),
ni
onde,
Li , limite superior da classe da mediana,
li , limite inferior da classe da mediana,
ni , frequncia absoluta da classe da mediana,
F ci1 , somatrio das frequncis anteriores classe da mediana.
Campos, Rgo & Mendona
270
Moda, x
A moda o valor que mais se repete, portanto est associado classe de maior frequncia
absoluta. Uma distribuio pode ter mais de uma moda.
x = li + (
1
)(Li li ),
1 + 2
onde,
Li , limite superior da classe modal,
li , limite inferior da classe modal,
1 = ni ni1 ,
2 = ni ni+1 ,
1X 2
1X
(xi x)2 ni =
x (x)2 ,
=
n i=1
n i=1 i
2
i
sendo xi = li +L
.
2
Desvio padro,
= + 2.
Coeficiente de variao, cov
cov =
.
x
Separatrizes
A frmula da mediana, com as devidas modificaes, pode ser usada para calcular qualquer separatriz: mediana, quantis, decis e centis (ou percentis).
O clculo de qualquer quantil pode ser realizado atravs de uma modificao no numerador da frmula da mediana da seguinte maneira. O termo n2 pode ser lido como 12 n; essa
frao indica qual a classe da mediana atravs da observao da frequncia acumulada. Portanto, para o i-simo quartil, i = 1, , 3, j-simo decil, j = 1, , 9 ou k-simo centil,
j
k
n e 100
n.
k = 1, , 99 tem-se, respectivamente, 4i n, 10
Campos, Rgo & Mendona
12.2.4
271
Dados no-agrupados
Medidas de Tendncia Central
Mdia aritmtica, x
n
1X
x1 + . . . + xn
=
xi .
x=
n
n i=1
Mediana, x
Algoritmo:
(i) ordenar os dados:
x(1) , x(2) , , x(n)
(ii) calcular o termo central:
x =
x( n+1
2 )
se n mpar,
x( n ) +x( n +1)
2
, se n par.
Moda, x
Se os dados no esto agrupados, o valor modal o que ocorre mais vezes, se mais de um
valor ocorre com igual frequncia, ambos so modas.
Medidas de Disperso
Varincia, 2
2
Pn
i=1 (xi
x)2
1X 2
x (x)2 .
n i=1 i
Desvio padro,
= + 2.
Coeficiente de variao, cov
cov =
.
x
Separatrizes
Campos, Rgo & Mendona
272
Seja x(1) x(2) x(n) uma ordenao dos resultados em ordem crescente, conhecida
como estatstica de ordem dos resultados. Ento, em analogia com a definio da mediana,
o quantil q(1/n) definido como sendo a mdia aritmtica entre x(1) e x(2) , de modo que
exatamente 100/n% dos resultados so menores que q(1/n). Similarmente, o quantil q(2/n)
definido como sendo a mdia aritmtica entre x(2) e x(3) . Mas, como q(1/n) x(2) q(2/n),
o resultado x(2) deve corresponder a um quantil q(p), onde n1 < p < n2 . Para a definio
formal dos quantis assume-se linearidade entre os quantis da forma q(m/n), para m n.
1
2
+n
3
n
,
x
igual
ao
quantil
q(
) = q( 2n
). Em geral, seguindo o
Ento, como x(2) = q(1/n)+q(2/n)
(2)
2
2
i1
+i
1
,
x(1) ,
se p < 2n
x ,
2n1
se p > 2n ,
(n)
q(p) =
x
,
se
p = 2i1
,
(i)
2n
2(i1)1
x(i1) + (1 )x(i) , se p = 2n + (1 ) 2i1
, onde 0 < < 1.
2n
Exemplo 12.2.1: Considere que os resultados de um teste foram: 3,4,5,6, e 7. Determinar
(a) q(0.05), (b) q(0.25), e (c) q(0.75).
1
, tem-se que q(0.05) = 3. Para (b), note que 0.25 =
Soluo: Para (a), como 0.05 < 10
(0.1)+(1)0.3, se = 1/4. Portanto, q(0.25) = (1/4)3+(3/4)4 = 15/4. Finalmente, para
(c), note que 0.75 = (0.7) + (1 )0.9, se = 3/4. Portanto, q(0.75) = (3/4)6 + (1/4)7 =
25/4.
Alternativamente, Jain (1991) prope que a frmula
(n 1) + 1
seja usada para calcular a posio da desejada separatriz, q(p). Como uma posio, ento
um inteiro positivo, portanto, o valor encontrado deve ser arredondado para o inteiro mais
prximo. Por exemplo, se n = 356 e deseja-se calcular C46 , isto , o quadragsimo sexto
centil, ento a posio de q(46) no conjunto de dados dada por:
46
= 163.3
100
cujo inteiro mais prximo 163. Portanto, q(46) est na centsima sexuagsima terceira
posio.
Uma das aplicaes interessantes de separatrizes aparece em determinadas Cartas de
Recomendao usualmente exigidas para ingresso de alunos em programas de ps-graduao.
Geralmente nestas cartas pedido que a pessoa que dar a referida carta de recomendao,
(356 1)
273
o recomendante, classifique o candidato com respeito a sua aptido para realizar estudos
avanados e pesquisa dentre um total de n alunos dos ltimos k anos. Assim, o recomendante
deve escolher entre os 5% mais aptos ou 10% mais aptos ou 50% mais aptos, entre outros.
Estes valores correspondem respectivamente a q(0.95), q(0.90) e q(0.50).
Separatrizes tambm podem ser usadas para colocar conceitos de forma to justa quanto
possvel. Os conceitos geralmente so A (excelente), B (bom), C (razovel), D (inaceitvel).
Se o professor usar a classificao (9, 10], A, (8, 9], B, (7, 8], C e [0, 7] D para uma prova
(dificil!), onde nenhum aluno obteve nota maior que 8 ento os conceitos estariam entre C e D.
O professor pode usar um critrio subjetivo para atribuir os conceitos que amenize a situao.
Mas, o professor pode calcular separatrizes e colocar os conceitos justamente. Se q(0.99)
computado, este valor corresponde ao limite inferior dos 1% melhores, portanto, independe
de critrios subjetivos ou rtulos pr-estabelecidos. Ento, uma classificao indenpendente
do nvel da prova poderia ser: (q(0.99), 10], A; (q(0.95), q(0.99)], B; (q(0.80), q(0.95)], C;
[0, q(0.80)], D.
Exemplo 12.2.2: Analise os dados a seguir1 que correspondem aos tempos de CPU de
dado experimento. Utilize duas casas decimais e arredondamento simtrico2 .
3.1
3.9
3.4
3.2
4.2
2.7
3.3
4.1
2.8
4.1
2.8
5.1
5.1
3.6
4.5
3.2
2.8
3.1
4.9
3.9
4.4
4.5
5.3
4.8
5.6
3.8
1.9
5.9
3.9
2.9
4.2
4.2
2.7
3.2
3.9
4.8
2.8
3.3
4.1
4.9
2.8
3.4
4.1
5.1
2.8
3.6
4.2
5.1
2.9
3.7
4.2
5.3
3.1
3.8
4.4
5.6
3.1
3.9
4.5
5.9
DADOS AGRUPADOS
Frequncias para os tempos de CPU (ms)
Classes frequncias
1.4 ` 2.4
1
2.4 ` 3.4
10
3.4 ` 4.4
11
4.4 ` 5.4
8
5.4 ` 6.4
2
Total
32
1
2
274
275
Valor
3.90ms
3.85ms
3.65ms
0.94ms2
0.97ms
3.20ms
3.26ms
5.25ms
DADOS NO-AGRUPADOS
O clculo da mdia, moda, varincia, desvio padro e coeficiente de variao no necessitam que os dados estejam ordenados, mas as separatrizes, sim.
n
x=
1X
xi = 3.89,
n i=1
3.9 + 3.8
= 3.9,
2
x = 2.8, x = 3.9,
1
1
q(0.25) = x(8) + x(9) = 3.15 3.2,
2
2
7
3
q(0.9) = x(29) + x(30) = 5.16 5.2,
10
10
q(0.25) = x(9) = 3.2, (mtodo Jain)
x =
Valor
3.89ms
3.90ms
2.80ms e 3.90ms
3.20ms ou 3.15ms
5.10ms ou 5.16ms
Campos, Rgo & Mendona
276
Frequncia relativa
3/30
6/30
6/30
7/30
5/30
3/30
277
(b)
1250 0
6 = 2.68
2800
3750 2800
6 = 10.07
q(0.75) = 6 +
1400
Portanto, o intervalo interquartil [2.68, 10.07].
q(0.25) = 0 +
12.3. EXERCCIOS
12.3
278
Exerccios
12.1 Gere k sequncias de nmeros aleatrios cada uma de tamanho n e as ordene, usando
algoritmos de ordenao tais como o QuickSort, HeapSort e BubbleSort, entre outros.
Analise os k resultados encontrados para cada algoritmo. Note que a varivel de
interesse tempo de execuo para cada algoritmo.
12.2 Analise o nmero de e-mails que chegam diaramente, semanalmente ou mensalmente
a um servidor de determinada lista de discusso.
12.3 Foi construda uma distribuio de frequncias com intervalos de classes de iguais amplitudes, sendo esta igual a 4, para 40 observaes de peso de estudantes universitrios,
como na Tabela 12.7. Complete os valores que faltam.
Tabela 12.7: Distribuio de frequncias para o peso de 40 estudantes universitrios.
Classes
ni
8
fi
F ci
xi
26
53
0.175
5
35
0.100
Total
12.4 A Tabela 12.8 representa os salrios pagos a 200 operrios de uma dada empresa em
nmero de salrios mnimos. Complete-a e calcule o salrio mdio desses operrios.
Tabela 12.8: Nmero de salrios mnimos pagos a operrios.
Classes
`
`
`
`
`
Total
ni
F ci /200 xi
0.15
1
0.35
3
0.45
5
0.5
7
9
Captulo 13
Uma Introduo Inferncia Estatstica
Neste captulo sero abordados tpicos da Estatstica, isto , tpicos onde a suposio fundamental suportada por mtodos indutivos: uma amostra aleatria retirada da populao
e, a partir desta, com um erro probabilstico fixado, asseres so realizadas sobre a populao. Este um mtodo indutivo: do particular (amostra) induz-se para o geral (populao).
Na Probabilidade quando se resolve um problema sobre variveis aleatrias, por exemplo,
no se questiona qual o valor dos parmetros de uma densidade, frases usuais so: seja uma
Uniforme em (10,30), ou uma Exponencial de parmetro . O raciocnio probabilstico
abstrato e os mtodos probabilsticos dedutivos. Entretanto, Probabilidade e Estatstica se
complementam para resolver problemas do mundo fco quando, por exemplo, o objetivo descobrir qual a distribuio de um conjunto de observaes, ento mtodos estatstico entram
em cena para especificar, com determinado erro (probabilstico!), qual a melhor distribuio
para o conjunto de observaes.
Quando modelos probabilsticos so aplicados em algum problema prtico, preciso ter
informao a respeito da distribuio de probabilidade da varivel aleatria de interesse.
Existem dois processos clssicos para a obteno da distribuio de uma varivel aleatria:
eduzir uma distribuio a priori de um especialista da rea, ou inferir a distribuio a partir
de uma anlise de dados. Neste livro, no sero tratados mtodos de eduo, e sim mtodos
de inferncia.
13.1
Populao e Amostra
280
tivamente at atingir a tenso mxima definida como sendo a tenso onde o estabilizador
queimou. Deste modo, se todos os estabilizadores fossem testados, no restaria nenhum para
ser vendido. Assim a soluo selecionar parte dos estabilizadores (amostra), analis-la e
inferir propriedades para todos os estabilizadores (populao). Esta questo, dentre outras,
objeto de estudo da rea de inferncia estatstica.
Definio 13.1.1: Populao o conjunto de todos os elementos ou resultados de interesse.
Definio 13.1.2 :
populao.
13.1.1
A fim de se ter inferncias realmente informativas a respeito de uma dada populao, precisase ter cuidado com os mtodos de seleo de uma amostra; necessrio que a amostra seja
representativa da populao. Por exemplo, ao se fazer uma pesquisa de opinio pblica a
respeito de um dado governo, se s escolhidas pessoas que vivem em uma regio beneficiada
por esse governo, a amostra pode no ser representativa de toda a populao, pois esta
contm pessoas que foram beneficiadas pelo governo, neste caso diz-se que a amostra
viesada.
Nesta seo visto apenas o caso de amostragem aleatria simples. Este procedimento
o mtodo mais simples de se selecionar uma amostra aleatria de uma populao e serve de
base para outros mtodos de amostragem mais complexos. No caso de uma populao finita,
implementa-se este mtodo numerando os elementos da populao e em seguida escolhendo
um nmero numa tabela de nmeros aleatrios ou gerando nmeros aleatrios em um computador. Neste caso, todos os elementos da populao tm a mesma probabilidade de serem
selecionados. Repete-se o processo n vezes. A amostragem com reposio, se um elemento
da populao puder ser escolhido mais de uma vez, e sem reposio, caso contrrio. Apesar
da amostragem sem reposio fornecer mais informao a respeito da populao em estudo,
a amostragem com reposio implica que cada elemento selecionado est sujeito ao mesmo
mecanismo probabilstico e de modo independente uns dos outros, o que facilita a anlise do
modelo. Por isso este livro restringe-se ao caso com reposio. Em geral, tem-se a seguinte
definio de amostra aleatria simples:
Campos, Rgo & Mendona
281
Definio 13.1.3: Dada uma populao descrita por uma varivel aleatria X, uma amostra aleatria simples de tamanho n um conjunto de n variveis aleatrias (X1 , X2 , . . . , Xn )
independentes e identicamente distribudas cada uma com a mesma distribuio de X.
Intuitivamente, Xi representa a observao do i-simo elemento sorteado. Portanto, no
caso de uma populao X contnua, com funo densidade de probabilidade f , a funo
densidade de probabilidade conjunta da amostra (X1 , X2 , . . . , Xn ), ser dada por:
fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) f (xn ).
Dependendo de como os nmeros aleatrios so gerados, so conhecidos tanto a distribuio da varivel aleatria sendo simulada quanto seus parmetros. Por exemplo, ao se gerar
50 nmeros de uma distribuio normal padro obtm-se uma amostra aleatria simples
de tamanho 50 desta populao normal. Se outra pessoa observa apenas estes 50 nmeros
gerados, ela nada conhece a respeito da distribuio que os gerou nem seus parmetros. O
objetivo da inferncia estatstica fornecer critrios para que se possa descobrir a forma da
distribuio ou os parmetros da populao que gerou a amostra sendo observada.
13.2
Estatsticas e Parmetros
Uma vez obtida a amostra de uma dada populao, muitas vezes o interesse calcular alguma
funo desta amostra. Por exemplo, a mdia da amostra (X1 , X2 , . . . , Xn ) dada por
X1 + X 2 + . . . + Xn
.
n
Como X uma funo de variveis aleatrias, tambm uma varivel aleatria.
X=
Pn
1
(
n1
i=1
Xi2 nX );
Os elementos da amostra ordenados, isto , X(1) X(2) X(n) , so conhecidos como estatsticas
de ordem da amostra.
282
13.3
Distribuies Amostrais
Suponha o interesse em algum parmetro da populao e que decide-se usar uma estatstica T de uma amostra aleatria simples (X1 , X2 , . . . , Xn ) da populao. Uma vez que a
amostragem realizada, pode-se calcular T = t0 e baseado neste valor que ser realizada
uma afirmao sobre . T sendo uma funo de variveis aleatrias tambm uma varivel
aleatria e, portanto, possui uma dada distribuio. Esta distribuio conhecida como
distribuio amostral da estatstica T .
Exemplo 13.3.1: Retiram-se com reposio todas as amostras de tamanho 2 da populao
{2, 3, 5, 7, 7}. Assim, o conjunto de todas as amostras de tamanho 2, com reposio, tm 25
elementos que so os pares (2, 2), (3, 5), entre outros. Estes pares vm do produto cartesiano
{2, 3, 5, 7, 7} {2, 3, 5, 7, 7}. A distribuio conjunta da amostra (X1 , X2 ) dada por:
2
3
5
7
2
1/25
1/25
1/25
2/25
3
1/25
1/25
1/25
2/25
5
1/25
1/25
1/25
2/25
7
2/25
2/25
2/25
4/25
2
2.5
3
3.5
4
4.5
5
6
7
1/25 2/25 1/25 2/25 2/25 4/25 5/25 4/25 4/25
Exemplo 13.3.2: Considere o lanamento de uma moeda 100 vezes, usando como estatstica X o nmero de caras obtidas, a distribuio amostral desta estatstica uma binomial
com parmetros n = 100 e p, onde p a probabilidade de cara em um lanamento qualquer desta moeda. Se o objetivo for saber se esta moeda honesta, ou seja, se p = 0.5,
e sabe-se que em 100 lanamentos ocorreram 64 caras, calcula-se, por uma B(100, 0.5),
P0.5 (X 64) = 0.0018, ou seja, se a moeda for honesta, a probabilidade de se obterem 64
ou mais caras igual a 0.0018, ento existe evidncia que p deve ser diferente de 0.5. Por
Campos, Rgo & Mendona
283
outro lado, com 56 caras, obtm-se P0.5 (X 56) = 0.0867, portanto, se a moeda for honesta
aproximadamente 1/10 das vezes observa-se um valor maior ou igual a 56, ento, neste caso,
os dados no so suficientes para descartar a hiptese que a moeda seja honesta.
Exemplo 13.3.3: Uma populao consiste de quatro nmeros 1, 3, 5, e 7. Considere todas
as possveis amostras de tamanho 2 de elementos que podem ser selecionadas com reposio
desta populao. Determine.
(a) A mdia e varincia populacionais.
(b) A distribuio da mdia e varincia amostrais.
Soluo: A mdia populacional dada por = 1+3+5+7
= 4, e a varincia populacional por
4
12 +32 +52 +72
2
2
=
4 = 5. Para se determinar a mdia a varincia amostrais, considere a
4
Tabela 13.2 onde todas as possveis amostras esto enumeradas:
Tabela 13.2: Todas as possveis amostras.
x1
1
1
1
1
3
3
3
3
5
5
5
5
7
7
7
7
x2
1
3
5
7
1
3
5
7
1
3
5
7
1
3
5
7
x s2
1
0
2
2
3
8
4 18
2
2
3
0
4
2
5
8
3
8
4
2
5
0
6
2
4 18
5
8
6
2
7
0
Como cada uma das possveis amostras tem probabilidade 1/16, a distribuio da mdia
amostral e da varincia amostral so respectivamente descritas pelas Tabelas 13.3 e 13.4:
e
Para algumas estatsticas no possvel obter analiticamente sua distribuio amostral,
ento simula-se um nmero grande de amostras diferentes e calculam-se as estatsticas de
cada uma dessas amostras para obter uma distribuio amostral emprica da estatstica de
Campos, Rgo & Mendona
284
1
2
3
4
5
6
7
1/16 2/16 3/16 4/16 3/16 2/16 1/16
0
2
8
18
4/16 6/16 4/16 2/16
interesse. Por exemplo, para obter a mediana das temperaturas de amostras de 10 municpios
retiradas da populao X N (25, 25), pode-se gerar, via qualquer software, 1000 amostras
de tamanho 10 desta populao, determinar a mediana de cada uma dessas amostras e
calcular medidas de posio e disperso dos valores das medianas obtidos com essas amostras,
bem como representao grficas destes valores.
13.3.1
2
.
n
1
(E(X1 ) + E(X2 ) + + E(Xn )) = .
n
Como X1 , X2 , . . . , Xn so independentes,
V (X) =
1
2
(V
(X
)
+
V
(X
)
+
+
V
(X
))
=
.
1
2
n
n2
n
285
Teorema 13.3.5: Para amostras aleatrias simples (X1 , X2 , . . . , Xn ), retiradas de uma populao com mdia e varincia 2 finita, a distribuio amostral da mdia X aproxima-se,
para n grande, de uma distribuio normal, com mdia e varincia 2 /n, ou seja, se
, ento, x IR
F X for a funo de distribuio acumulada de X
2
/n
2 /n
2 /n
Prova: A prova deste teorema est fora do escopo deste livro. Pode ser encontrada em B.
James (1981).
Caso a populao j possua uma distribuio normal, como X uma combinao linear de
X1 , X2 , . . . , Xn que so independentes e possuem distribuio normal, a distribuio amostral
da mdia amostral ser exatamente uma normal para qualquer valor de n, e a mdia dessa
distribuio ser igual a mdia da populao e varincia ser igual a varincia da populao
dividida por n.
Em geral o TCL afirma que para valores grandes de n, X ter uma distribuio aproximadamente normal. Quo grande precisa ser n para que a distribuio de X seja aproximada
por uma normal? Isto depende se a populao tem uma distribuio prxima a normal ou
no. Como regra emprica, para amostras de tamanho de 30 elementos, a aproximao para
a normal j pode ser utilizada.
A diferena entre a mdia amostral e a mdia da populao conhecida como
erro
n(X)
amostral da mdia,
isto , e = X . O Teorema Central do Limite indica que
ne
N (0, 1), ou seja, N (0, 1).
Exemplo 13.3.6: Suponha que uma mquina est regulada para produzir lmpadas com
tempo de vida til mdio de 10000horas. De uma amostra de 50 lmpadas produzidas por
esta mquina verifica-se o tempo de vida til de cada uma delas. Determine a probabilidade
de que o tempo de vida til mdio seja menor ou igual a 8000horas.
Soluo: Sabe-se que o tempo de vida til de uma lmpada distribudo de acordo com
uma exponencial. Portanto, como o tempo de vida til mdio de 10000horas, a mdia
populacional 10000horas e a varincia populacional igual a 108 horas2 . Alm disso, como
a amostra maior que 30, utiliza-se o TCL para afirmar que a mdia amostral tem uma
8
distribuio N (104 , 10
). Portanto,
50
P (X 8000) = P (Z
13.3.2
50(8000 10000)
) = ( 2) = 0.0793.
10000
286
S2 =
1 X
(Xi X)2 .
n 1 i=1
Ento,
E(S 2 ) = 2
e
n1 2
)S 2n1 ,
2
desde que a populao de onde foi retirada a amostra seja normalmente distribuda.
(
13.3.3
Suponha que a proporo de indivduos de uma populao que so portadores de uma determinada caracterstica seja igual a p. Logo, pode-se definir uma varivel aleatria X que
a funo indicadora desta caracterstica. Portanto, X tem uma distribuio Bernoulli de
parmetro p. Considere agora uma amostra aleatria simples de tamanho n desta populao
e seja Sn o nmero total de indivduos na amostra que possuem a caracterstica de interesse.
Ento, Sn tem uma distribuio binomial com parmetros n e p. A proporo de indivduos
portadores da caracterstica dada por
p =
Sn
.
n
13.4
287
Estimadores e Estimativas
chamada de uma
tambm uma varivel aleatria. Uma particular realizao de
estimativa pontual para .
Os parmetros populacionais mais comuns que se desejam estimar so:
(i) A mdia da populao, .
(ii) A varincia, 2 , ou desvio-padro , da populao.
(iii) A proporo de itens populacionais que pertencem a uma classe de interesse, p.
(iv) A diferena de mdias de duas populaes, 1 2 .
(v) A diferena de propores de duas populaes, p1 p2 .
Estimadores para esses parmetros so, respectivamente:
(i) A mdia amostral, X.
(ii) A varincia amostral S 2 =
1
n1
Pn
i=1 (Xi
X)2 .
13.4.1
Propriedades de Estimadores
288
Exemplo 13.4.2: A mdia amostral X um estimador no-viesado para mdia populacional , pois
n
1X
E(X) =
E(Xi ) = .
n i=1
Exemplo 13.4.3: A proporo amostral p um estimador no-viesado para a proporo
populacional p pois chamando de Yi a varivel aleatria que igual a 1 se o i-simo indivduo
da amostra possui a caracterstica de interesse, e igual a zero, em caso contrrio, tem-se que
n
1X
E(
p) =
E(Yi ) = p.
n i=1
Exemplo
P 13.4.4: Considere uma populao com N elementos, com mdia populacional
= N1 N
i=1 Xi , e varincia populacional
N
1 X
=
(Xi )2 .
N i=1
2
2 =
1X
(Xi X)2 .
n i=1
n
X
i=1
n
n
X
X
(Xi ) 2
(Xi )(X ) +
(X )2
2
i=1
n
X
i=1
i=1
(Xi )2 n(X )2 .
i=1
Portanto,
n
1 X
E(
) =
(
E(Xi )2 nE(X )2 )
n i=1
2
n
1 X
=
(
V (Xi ) nV ar(X))
n i=1
1
2
n1 2
(n 2 n ) =
.
n
n
n
Campos, Rgo & Mendona
289
Logo, o vis de
2 igual a n1
2 2 =
. Portanto, o estimador
2 em geral
n
n
subestima o verdadeiro parmetro 2 . Por outro lado, o vis diminui quando n tende a
infinito. fcil ver que
n
S2 =
2
n1
um estimador no-viesado para 2 . Por isso, a varincia de uma amostra de tamanho n
dada por S 2 , onde o denominador igual a n1, enquanto que a varincia de uma populao
de tamanho N dada por 2 , onde o denominador igual a N .
O segundo critrio a ser analisado o critrio da consistncia de um estimador. Intuitivamente, um estimador consistente se quando aumenta-se o tamanho da amostra n, a
probabilidade de que este difira do parmetro por mais que qualquer erro pre-especificado
> 0 tende a zero. Formalmente,
Definio 13.4.5: Uma sequncia {Tn } de estimadores de um parmetro consistente
se, para todo > 0,
lim P (|Tn | > ) = 0.
n
2
0,
n2
2
P (|Tn | > ) P (|E(Tn ) | > ) + P (|Tn E(Tn )| > ).
2
2
Logo, pela desigualdade de Tchebycheff
4V (Tn )
.
P (|Tn | > ) P (|E(Tn ) | > ) +
2
2
Tomando os limites quando n :
4V (Tn )
lim P (|Tn | > ) lim P (|E(Tn ) | > ) + lim
= 0.
n
n
n
2
2
Portanto, {Tn } consistente.
Se Tn for um estimador no-viesado, ento obviamente limn E(Tn ) = , e portanto se
a varincia do estimador Tn tender a zero, ele um estimador consistente.
Campos, Rgo & Mendona
290
291
13.4.2
2
.
n
13.5
Intervalos de Confiana
292
so aleatrios. Se a afirmao acima for verdadeira o que est sendo dito que se forem
construdos vrios intervalos de confiana usando as estimativas L e U , em 100(1 )%
das vezes estar incluso no intervalo [L, U ]. Tal intervalo chamado de um intervalo de
100(1 )% de confiana para , e (1 ) conhecido como coeficiente de confiana ou
nvel de confiana do intervalo e o nvel de significncia.
importante destacar que o mtodo utilizado para determinar L e U que garante que
com probabilidade 1 , estar contido no intervalo [L, U ]. Para uma particular amostra,
o intervalo (l, u) observado pode ou no conter e no existe qualquer aleatoriedade uma
vez que l, u e so nmeros reais fixos. A afirmao correta que (l, u) contm com
100(1 )% de confiana.
Quanto maior o intervalo de confiana, mais confiana se tem que ele contenha o verdadeiro valor . Por outro lado, quanto maior for o intervalo, menos informao a respeito do
verdadeiro valor de . O ideal seria ter um intervalo pequeno com alta confiana.
O intervalo de confiana descrito acima um intervalo de confiana bilateral, pois so
especificados tanto o limite inferior quanto o superior do intervalo. Pode-se tambm obter
um intervalo de confiana unilateral inferior para com nvel de confiana , escolhendo um
limite inferior L de tal forma que
P (L ) = 1 .
Analogamente, um intervalo de confiana unilateral superior para com nvel de confiana
, pode ser obtido escolhendo um limite superior U tal que
P ( U ) = 1 .
13.5.1
n(X )
tem uma distribuio normal padro. Esta varivel facilmente usada para calcular um
intervalo de confiana para .
Seja z/2 = 1 (1 /2). Tem-se que:
Z=
P (z/2 Z z/2 ) = 1 .
Logo,
n(X )
z/2 ) = 1 .
293
z/2
n(X )
z/2 X ,
z/2
n(X )
z/2 X + .
n(X )
z
z X +
n
obtem-se o intervalo unilateral superior com 100(1 )% de confiana,
z
(, X + ).
n
De forma similar,
z
P (Z z ) = 1 X ,
n
13.5.2
294
n 1 graus de liberdade e procedendo-se de forma similar ao que foi feito da seo anterior,
tem-se que
P (t/2 T t/2 ) = 1
e portanto
t/2 S
t/2 S
(X , X + )
n
n
um intervalo de confiana bilateral com 100(1)% de confiana para a mdia da populao
. Analogamente,
t S
(, X + )
n
um intervalo unilateral superior com 100(1 )% de confiana para , e
t S
(X , )
n
um intervalo unilateral inferior com 100(1 )% de confiana para .
Exemplo 13.5.1: Seja uma populao com distribuio Bernoulli de parmetro p. Por
exemplo, p pode representar a probabilidade de um tipo de capacitor ser produzido com
defeito por uma determinada fbrica. Dada uma amostra aleatria (X1 , X2 , . . . , Xn ) de tamanho n da produo de capacitores desta fbrica, pode-se estimar um intervalo de confiana
bilateral para p. A varincia da populao dada por p(1p). Portanto, sendo p a proporo
de capacitores com defeito na amostra, como 2 = p(1 p), ento
r
r
p(1 p)
p(1 p)
1
1
(
p (( + 1)/2)
, p + (( + 1)/2)
)
n
n
um intervalo com 100% de confiana para p. Como p no conhecido, tem-se dois
possveis procedimentos para se obter seu valor:
(i) utilizar o fato de que p(1 p) 1/4, obtendo o intervalo
r
r
1
1
, p + 1 (( + 1)/2)
),
(
p 1 (( + 1)/2)
4n
4n
(ii) usar p como estimativa para p, obtendo o intervalo
r
r
p
(1
)
p(1 p)
(
p 1 (( + 1)/2)
, p + 1 (( + 1)/2)
).
n
n
O primeiro mtodo sempre correto, porm muito conservador pois, em geral, p(1 p)
pode ser bem menor que 1/4, e ento o intervalo proposto tem amplitude maior que a
necessria. O segundo mtodo vlido desde que np e n(1 p) sejam maiores que 5, pois,
caso contrrio, a distribuio normal no mais poder ser usada sendo necessrio utilizar a
binomial.
Campos, Rgo & Mendona
295
Exemplo 13.5.2: O comprimento dos eixos produzidos por uma empresa tem aproximadamente uma distribuio normal com desvio padro 4cm. Uma amostra com 16 eixos
forneceu uma mdia de 4.52cm. bach
(a) Determine um intervalo de confiana de 90% para o verdadeiro comprimento mdio dos
eixos.
(b) Com que probabilidade afirma-se que o comprimento mdio desta amostra no difere
da mdia por mais de 0.5cm?
Soluo: O intervalo de confiana dado por:
4
4
(4.52 1 (0.95) , 4.52 + 1 (0.95) ] = [2.875, 6.165).
16
16
Para o item (b), como / n = 1, ento X tem distribuio normal padro, logo
P (|X | 0.5) = P (|Z| 0.5) = 0.383.
Exemplo 13.5.3: Uma amostra de 400 domiclios mostra que 25% deles so alugados.
Qual o intervalo de confiana para o (verdadeiro) nmero de casas alugadas numa cidade,
supondo que ela tem 20000 casas? Considere um coeficiente de confiana de 98%.
Soluo: Inicialmente, determinando o intervalo de confiana para a proporo de casas
alugadas. Neste caso, p = 0.25, n = 400, e = 0.98. Utilizando p(1 p) como uma
estimativa para a varincia p(1 p), o intervalo de confiana para a populao :
r
r
0.25(0.75)
0.25(0.75)
, 0.25 + 1 (0.99)
).
(0.25 1 (0.99)
400
400
Ento, o intervalo de confiana para o nmero de casas alugadas dado por:
r
1
(20000(0.25 (0.99)
r
0.25(0.75)
0.25(0.75)
1
), 20000(0,25 + (0.99)
))
400
400
Exemplo 13.5.4: Uma pesquisa sobre renda familiar foi realizada entre as famlias que
tm rendimento de at 5 salrios mnimos. Sabe-se que o desvio padro populacional 1.2.
Uma amostra de 200 famlias foi selecionada e seus resultados aparecem na tabela abaixo:
(a) Estime, com 95% de confiabilidade, o intervalo de confiana para a mdia de renda
familiar desta populao.
Campos, Rgo & Mendona
296
13.6
Teste de Hipteses
Um teste de hiptese um mtodo para decidir se uma hiptese sobre um parmetro populacional deve ou no ser aceita com base nos dados de uma amostra selecionada desta
populao. Ao contrrio do que estudado no problema de estimao, quando deseja-se
estimar um parmetro, como visto anteriormente, muitas vezes o objetivo apenas checar
se determinado parmetro da populao satisfaz uma condio de interesse. Tal condio
conhecida como hiptese. A idia central deste procedimento assumir que a hiptese
verdadeira e verificar se a amostra observada parece razovel ou consistente, dada esta
suposio.
Definio 13.6.1 :
Uma hiptese estatstica uma condio que se quer testar sobre
determinados parmetros de uma ou mais populaes.
Campos, Rgo & Mendona
297
298
n(X 220)
n(230 220)
= P(
>
)
= P (Z >
2(10)
) = P (Z > 2.5) = 0.0062.
8
) = P (Z 2.5) = 0.0062.
4
4
Neste caso, e foram iguais devido a simetria da regio crtica em relao s hipteses
nula e alternativa. Se ao invs do valor crtico ser 230, fosse maior, ento diminuiria e
aumentaria.
Tambm seria possvel especificar um valor para a probabilidade de erro do tipo I e
verificar qual seria a regio crtica que satisfaria esta probabilidade de erro pre-especificada.
Por exemplo, suponha que se queira encontrar a regio crtica cujo seja igual a 0.01. Ento:
2(X 220)
> 2.325) = P (X > 229.3).
8
) = P (Z 2.675) = 0.0038.
4
4
Este segundo tipo de procedimento bastante utilizado, pois em geral a hiptese alternativa no contm apenas um nico valor de parmetro como no exemplo acima. Muitas
Campos, Rgo & Mendona
299
2(X 220)
| > 2.575) = 1 P (209.7 X 230.3).
8
Portanto, a regio de aceitao (209.7, 230.3) foi determinada de modo que o nvel de significncia de 0.01 fosse satisfeito. Mesmo determinada esta regra de deciso, no determina-se
, pois no existe um nico valor de na hiptese alternativa. Neste caso, considera-se uma
funo (), conhecida como funo caracterstica de operao.
Definio 13.6.2: A funo caracterstica de operao (funo CO) de um teste de hiptese
definida por:
() = P (aceitar H0 |).
Isto , () a probabilidade de aceitar H0 como funo de .
Definio 13.6.3: A funo poder do teste, dada por () = 1 ().
Portanto, esta funo a probabilidade de se rejeitar H0 como funo de . As seguintes
propriedades de () so facilmente verificadas:
(i) (0 ) = ;
(ii) No caso de hiptese alternativa bilateral (H1 : 6= 0 ), () = (+) = 1 e ()
decresce para < 0 e cresce para > 0 ;
(iii) No caso de hiptese alternativa unilateral superior (H1 : > 0 ), () = 0,
(+) = 1, e () sempre crescente;
(iv) No caso de hiptese alternativa unilateral inferior (H1 : < 0 ), () = 1, (+) =
0, e () sempre decrescente.
Na definio das hipteses, sempre estabelece-se a hiptese nula como uma igualdade, de
modo que o analista pode controlar , ao estabelecer uma regio crtica para o teste. Assim, o
analista pode controlar diretamente a probabilidade de rejeitar erroneamente H0 , implicando
que a rejeio da hiptese nula uma concluso forte. Note que quanto menor o valor de ,
quando a hiptese nula rejeitada, mais provvel a hiptese alternativa, portanto maior
ser a significncia da concluso. Por isso, chamado de nvel de significncia do teste.
Por outro lado, no constante, mas depende do verdadeiro valor do parmetro, por este
motivo a aceitao de H0 tida como uma concluso fraca, a no ser que saiba-se que
aceitavelmente pequena. Ento, a nomenclatura mais correta seria ao invs de se dizer H0
Campos, Rgo & Mendona
300
aceita deveria ser dito a amostra no apresentou evidncia suficiente para se rejeitar H0 .
Neste ltimo caso, no necessariamente afirma-se que existe uma alta probabilidade de que
H0 seja verdadeira, isto pode significar apenas que mais dados so necessrios para que uma
concluso tomada esteja mais prxima da realidade.
Na determinao de quem a hiptese nula, deve-se adotar como H0 aquela hiptese,
que se rejeitada erroneamente, conduza a um erro mais importante de se evitar, pois esta
probabilidade de erro controlvel. Ento, por exemplo, se o interesse saber se um novo
medicamento eficaz no combate a uma doena, a hiptese nula seria que ele no eficaz,
pois os danos causados por ser usado um remdio no eficaz so maiores que se um remdio
que seria eficaz no fosse usado. Ou ainda, se se deseja saber se certa substncia radioativa,
ento a hiptese nula seria que ela radioativa, pois os danos causados pela manipulao
radioativa so maiores que se uma substncia no fossse manipulada por se achar falsamente
que ela radioativa. Como a rejeio da hiptese nula que uma concluso forte, escolhe-se
como H1 a hiptese que se deseja comprovar. Por exemplo, no caso do novo medicamento
H1 ser a hiptese que o novo medicamento melhor que os existentes.
13.6.1
13.6.2
301
(1 (1 /2), 1 (1 /2)),
tem-se que P (Z0 RC| = 0 ) = .
mais fcil entender a regio crtica e o procedimento do teste quando a estatstica de
teste Z0 e no X. Entretanto, a mesma regio crtica pode ser calculada em termos do
valor da estatstica X. Neste caso, a regio de aceitao
(0 1 (1 /2) , 0 + 1 (1 /2) ).
n
n
De modo similar, obtm-se a regio crtica para o caso de um teste de hiptese unilateral
H0 : = 0 e H1 : > 0 , ou H0 : = 0 e H1 : < 0 . No primeiro caso, a regio de
aceitao para a estatstica Z0
(, 1 (1 )),
o que implica que a regio de aceitao para a estatstica X
(, 0 + 1 (1 ) ).
n
No segundo caso, a regio para a estatstica Z0
(1 (), ),
o que implica que a regio de aceitao para a estatstica X
(0 + 1 () , ).
n
13.6.3
O teste para proporo um caso particular do caso do teste para a mdia com varincia
conhecida. Cada amostra pode ser considerada como uma varivel Bernoulli com parmetro
p que representa a proporo de indivduos da populao que possuem uma determinada
caracterstica. Sabe-se que a mdia de uma Bernoulli igual ao seu parmetro p e que sua
varincia igual a p(1 p). Logo, utilizando a proporo amostral como estatstica e os
resultados gerais da seo anterior, a regio de aceitao para a proporo
(i) No caso de hiptese alternativa bilateral: H0 : p = p0 e H1 : p 6= p0 , a regio de aceitao
r
1
(p0 (1 /2)
p0 (1 p0 )
, p0 + 1 (1 /2)
n
p0 (1 p0 )
).
n
302
p0 (1 p0 )
).
n
p0 (1 p0 )
, ).
n
Exemplo 13.6.4: Um relatrio afirma que 40% de toda gua obtida atravs de poos artesianos salobra. Existem controvrsias sobre esta afirmao, alguns dizem que a proporo
maior outros que menor. Para acabar com a dvida, sorteou-se 400 poos e observou-se
que em 120 deles a gua era salobra. Qual deve ser a concluso ao nvel de significncia de
3%?
Soluo: Neste caso, H0 : p = 0.4 contra uma hiptese alternativa bilateral H1 : p 6= 0.4.
Logo, a regio de aceitao dada por:
1
(p0 + ()
r
(0.4 1 (0.985)
r
(0.4)(0.6)
(0.4)(0.6)
, 0.4 + 1 (0.985)
) = (0.4 0.053, 0,4 + 0.053)
400
400
= (0.347, 0.453).
13.6.4
13.6.5
303
Assim como no caso de intervalos de confiana, quando a amostra for pequena e 2 desconhecida, uma suposio sobre a forma da distribuio em estudo
tem de ser feita. Assume-se
n(X)
que a populao tem uma distribuio normal e portanto T =
tem uma distribuio
S
t de Student com n 1 graus de liberdade. Seja t,n1 o valor tal que P (T t,n1 ) = 1 .
Ento, utilizando um procedimento similar ao caso de varincia conhecida, se a estatstica
utilizada for a mdia amostral X,
(i) No caso de hiptese alternativa bilateral: H0 : = 0 e H1 : 6= 0 , a regio de
aceitao
S
S
(0 (t/2,n1 ) , 0 + (t/2,n1 ) ).
n
n
(ii) No caso de hiptese alternativa unilateral superior: H0 : = 0 e H1 : > 0 , a regio
de aceitao
S
(, 0 + (t/2,n1 ) ).
n
(iii) No caso de hiptese alternativa unilateral inferior: H0 : = 0 e H1 : < 0 , a regio
de aceitao
S
(0 + (t/2,n1 ) , ).
n
Exemplo 13.6.6: Uma rede de fast food pretende instalar uma nova lanchonete em certo
local se nele transitarem no mnimo 200 carros por hora durante determinados perodos do
dia. Para 20 horas selecionadas aleatoriamente durante tais perodos, o nmero mdio de
carros que transitou pelo lugar foi de 208.5 com desvio padro de 30.0. O gerente assume a
hiptese de que o volume de carro no satisfaz a exigncia de 200 ou mais carros por hora.
Para um nvel de significncia de 5% esta hiptese pode ser rejeitada?
Soluo: A hiptese nula dada por H0 : = 200 e a alternativa, H1 : > 200. Como
a amostra pequena (n < 30)) e a varincia da populao desconhecida, deve-se usar o
teste t de Student unilateral superior. Assim, a regio de aceitao dada por:
30
30
(, 200 + t0.95,19 ) = (, 200 + 1.729 ) = (, 211.6).
20
20
Portanto, a hiptese no pode ser rejeitada a este nvel de confiana.
Exemplo 13.6.7: Num estudo sobre a resistncia de um dado material, com distribuio
normal, foi coletada uma amostra de 25 unidades, resultando num valor mdio de 230.4kg
e desvio-padro de 100kg. O estudo para saber se essa amostra suficiente para garantir
Campos, Rgo & Mendona
304
13.6.6
Probabilidade de Significncia
n|X 0 |
n|x0 0 |
p = P (|X 0 | > |x0 0 |) = P (
>
)
n|x0 0 |
n|x0 0 |
= P (|Z| >
) = 2(1 (
)).
n(X 0 )
n(x0 0 )
p = P (X > x0 ) = P (
>
)
n(x0 0 )
n(x0 0 )
= P (Z >
) = 1 (
).
305
0.1
0.05
marginal moderada
0.025
substancial
0.01
0.005
0.001
fortssima
n(X 0 )
n(x0 0 )
p = P (X < x0 ) = P (
<
)
n(x0 0 )
n|x0 0 |
) = (
).
= P (Z <
Exemplo 13.6.8: Suponha novamente a situao anterior onde deseja-se testar a hiptese
nula H0 : = 220v versus H1 : 6= 220v, com uma amostra de tamanho 4 e sabe-se que a
varincia igual a 64v 2 . Suponha ainda que a mdia amostral foi igual a 227v. O p-valor
pode ser calculado por:
7
4|227 220|
p = 2(1 (
)) = 2(1 ( )) = 2(1 0.9599) = 0.0802.
4
64
Portanto, a probabilidade de quando a hiptese nula verdadeira uma amostra selecionada de tamanho 4 tenha mdia amostral mais distante de 220v que 227v igual a 0.0802,
ou ainda, a um nvel de significncia de 10% a hiptese nula seria rejeitada, mas a um nvel
de significncia de 5% a hiptese nula no pode ser rejeitada.
A hiptese H0 ser rejeitada se o p-valor for bastante pequeno. A Tabela 13.6 ilustra a
escala de evidncias de Fisher contra a hiptese H0 :
13.6.7
1600(|220.5 220|)
p = 2(1 (
)) = 2(1 (20/8)) = 0.0124.
64
Portanto, existe uma evidncia estatstica substancial para se rejeitar H0 . Contudo,
do ponto de vista prtico, se a mdia for realmente for 220.5v no haver efeito prtico
Campos, Rgo & Mendona
306
13.7
tem uma distribuio que pode ser aproximada por uma 2 , com k 1 graus de liberdade,
se no for necessrio estimar os parmetros populacionais, ou k 1 r, se os r parmetros
populacionais tiverem de ser estimados. Por exemplo, se a suposio for que a populao
segue uma Poisson, r = 1, se Normal, r = 2.
Portanto,
H0 = foi = fei , i,
e o teste consiste em calcular Q2 e comparar com o valor de uma 2 com k 1 ou k 1 r
graus de liberdade e 100(1 )% nvel de confiana.
O numerador de Q2 envolve a diferena de quadrados entre as frequncias observadas e
esperadas. As frequncias tericas vm da populao, so valores tericos, no podem ser
nulos. Tambm, se forem muitos pequenos, Q2 apenas refletir a mgnitude de foi . Portanto,
a literatura sugere que as frequncias esperadas sejam pelo menos 3.
Exemplo 13.7.1: O nmero de defeitos por frequncia, (xi , foi ), numa amostra de 60
brinquedos de determinado fabricante se distribui como abaixo. O objetivo testar se os
dados podem seguir uma Poisson.
xi
0
1
2
3
foi
32
15
9
4
Na verdade, o conjunto de dados so os valores observados de uma, ou mais, varivel aleatria, portanto,
a distribuio de probabilidade relevante a da varivel aleatria que gerou o conjunto de dados.
307
e0.75 0.75k
, k = 0, 1, . . .
k!
308
Se a varivel for contnua, para o clculo das frequncias esperadas, a reta dividida em
intervalos mutuamente exclusivos e, a seguir, calculadas as probabilidades tericas.
13.8
309
Os resultados abaixo sumarizam os intervalos de confiana bilaterais mais usados em problemas prticos. Os intervalos em (iii), (iv), (v), (vi) e (vii) so obtidos de forma similar
a que foi usada em (i) e (ii). O fundamento para a construo dos intervalos de confiana
a seguir que tem-se uma populao, representada pela varivel aleatria X, a qual se
2
2
distribui normalmente com mdia X e varincia X
, isto , X N (X , X
), e desta populao foi retirada uma amostra aleatria (X1 , X2 , . . . , Xn ). Enfatiza-se que a distribuio de
probabilidade do estimador tem de ser conhecida. Por exemplo, se o objetivo encontrar
uma estimativa para a mdia da populao, utiliza-se, obviamente, a mdia da amostra e a
distribuio da mdia da amostra tem de ser conhecida.
Se a populao no normal mas a amostra grande pelo TCL a distribuio normal
pode ser usada e portanto os resultados abaixo ainda valem.
2
(i) Para a Mdia (X ), com Varincia (X
) conhecida
, e
2
X=
1X
Xi .
n i=1
2
) desconhecida
(ii) Para a Mdia (X ), com Varincia (X
SX
SX
(X t/2 , X + t/2 ), onde
n
n
P (tn1 t/2 ) = 1
, e
2
2
SX
=
2
(iii) Para a Varincia (X
)
1 X
(Xi X)2 .
n 1 i=1
2
(n 1)SX
2n1 ,
2
n1
2
2
(n 1)SX
(n 1)SX
,
),
b
a
P (2n1 a) = .
2
P (2n1 b) = 1 .
2
310
2
(iv) Para a Diferena de Mdias (X Y ), com Varincias (X
, Y2 ) conhecidas
X Y N (X Y ,
s
2
X
2
+ Y ).
n
n
s
2
mX
, (X Y ) + z/2
nY2
P (N (0, 1) z/2 ) = 1 .
2
((X Y ) z/2
2
mX
).
nY2
2
X N (X , X
); Y N (Y , Y2 )
2
X , X
, Y , Y2 desconhecidos
(X1 , . . . , Xn ); (Y1 , . . . , Ym )
2
(n 1)SX
2n1 .
2
X
(m 1)SY2
2m1 .
Y2
Logo,
2
SX
SY2
Fn1,m1 .
2
X
Y2
2
2
2
SX
SX
X
(
;
),
Y2
bSY2 aSY2
a = Fn1,m1, 2 ; b = Fn1,m1,1 2 .
P (t/2,(n+m2) t) = ,
2
onde n + m 2 o nmero de graus de liberdade.
(vii) Para a Proporo (p)
p =
r
(
p z/2
Xn
.
n
p(1 p)
, p + z/2
n
P (N (0, 1) z/2)
p(1 p)
).
n
= .
2
Campos, Rgo & Mendona
13.9
311
Exerccios
13.1 Rubens Barrichelo, nos treinos para a temporada de 2000, pilotando uma Ferrari no
circuito de Magny Cours na Frana, fez uma mdia de um minuto e cincoenta segundos
por volta, com um desvio padro de 45 segundos. Sabendo-se que uma corrida nesse
circuito tem 66 voltas, calcule:
(a) Qual a probabilidade dessa corrida ultrapassar o tempo limite de 2 horas?
(b) Qual o tempo provvel da melhor e da pior volta, com 90% de confiana de acerto?
(proposto por Dalton Csar P. Shibuya)
13.2 Os tempos de execuo de um determinado algoritmo obtidos atravs da replicao
de um experimento de simulao foram: 1.5, 2.0, 3.4, 1.8, 2.5 e 5.0. Com 80% de
confiana em que regio se encontra seu tempo mdio de execuo?
13.3 Um analista de sistema precisa decidir sobre a eficincia de um programa desenvolvido
recentemente. Resolve adotar a seguinte regra de deciso: executar o programa 6
vezes para conjuntos de dados escolhidos aleatoriamente e construir um intervalo de
confiana de 98% para o tempo mdio de execuo do programa; considerar o programa
eficiente se a amplitude do intervalo de confiana obtido for menor do que 4.5 ms. Qual
foi a deciso do administrador se os tempos amostrais, em milisegundos (ms), obtidos
foram: 228, 230, 232, 229, 231, 230?
13.4 Os tempos de execuo, em segundos, de 40 programas processados em um centro de
processamento de dados foram
10 19 90
23 13 36
27 1 57
9 11 20
40 15 11 32 17 4
101 2 14 2 43 32
17 3 30 50 4 62
13 38 54 46 12 5
152
15
48
26
13.9. EXERCCIOS
312
(c) 3 =
n
X1 ++Xn
.
n
313
13.14 A mesma workload foi aplicada 40 vezes a dois sistemas A e B. Constatou-se que o
sistema A foi superior ao B 26 vezes. Ser que podemos afirmar com 99% de confiana
que o sistema A superior?
13.15 Uma populao tem desvio padro igual a 10.
(a) Que tamanho deveria ter uma amostra para que, com probabilidade 8%, o erro
em estimar a mdia seja inferior a 1?
(b) Supondo-se colhida a amostra no caso anterior, qual o intervalo de confiana para
a mdia populacional, se a mdia amostral 50?
13.16 A Tabela 13.7 contm os desvios com respeito aos dimetros de vrios cilindros produzidos por uma determinada mquina. Teste a hiptese de que as observaes obedecem
lei normal se o nvel de significncia de 5% usado.
Tabela 13.7: Dimetro de cilindros.
limites dos intervalos em microns
ni
pi
0-5
15
0.06
5-10
75
0.30
10-15
100
0.40
15-20
50
0.20
20-25
20
0.04
13.17 Uma substncia radioativa observada durante 2608 iguais intervalos de tempo, cada
um com 7.5 segundos. Para cada um dos intervalos de tempo, foi anotado o nmero de
partculas detectador por um contador. Os nmeros mi de intervalos de tempo durante
os quais i partculas alcanaram o contador so dados na tabela abaixo:
Tabela 13.8: Tempo de chegada de partculas ao contador.
i
mi
0
1
2
3
4
5
6
7 8 9 10
57 203 383 525 532 408 273 139 45 27
16
Teste, usando um teste qui-quadrado, a hiptese de que os dados concordam com uma
lei de Poisson. O nvel de significncia deve ser tomado como sendo 5%.
13.18 Na Tabela 13.9 esto listados mi lotes de igual rea (0.25km2 ), na parte Sul de Londres,
cada um dos quais, durante a II Guerra Mundial foi acertado por i bombas. Teste, com
a ajuda da distribuio qui-quadrado que os dados concordam com uma distribuio
de Poisson, se o nvel de significncia de 6% usado.
13.19 Para uma fina camada de soluo com ouro, anotou-se o nmero de partculas de
ouro que alcanaram o campo de viso do microscpio, durante iguais intervalos de
tempo, conforme a Tabela 13.10. Teste, atravs de um teste-de-bondade-de-ajuste
qui-quadrado, usando 5% de significncia, que os dados seguem uma lei de Poisson.
Campos, Rgo & Mendona
13.9. EXERCCIOS
314
0
1 2 3 4 5
229 211 93 35 7
1
0
1
2 3 4 5 6 7
112 168 130 68 32 5 1 1
13.20 Dez tiros foram disparados por um rifle em cem alvos. O nmero de acertos foi registrado, na TabelarefTabelaTiro. Teste se as probabilidades de acerto nos alvos foram
as mesmas em todos os tiros; em outras palavras, teste se os dados obedecem a uma
distribuio binomial. Use um nvel de significncia de 10%.
Tabela 13.11: Nmero de acertos de tiros.
nmero de acertos, i
mi
0 1 2 3 4 5 6 7 8 9 10
0 2 4 10 22 26 18 12 4 2 0
13.21 Sete moedas foram lanadas simultaneamente 1536 vzes, e, cada vez, o nmero de
caras, X, foi registrado. Os dados constam na Tabela 13.12. Usando um teste quiquadrado e um nvel de significncia de 5% teste se os dados experimentais obedecem
a uma distribuio binomial. Assuma que a probabilidade de ocorrncia de cara 0.5
em cada moeda.
13.22 Suponha que 250 nmeros foram gerados somando-se os 5 dgitos de 250 nmeros
escolhidos de uma tabela de nmeros aleatrios. Os resultados foram divididos em 15
intervalos e so mostrados na Tabela 13.13. Use um teste qui-quadrado para testar se
a distribuio estatstica dos dados segue uma distribuio normal. Use um nvel de
significncia de 5%.
13.23 Os dgitos 0, 1, 2, 9 entre os primeiros 800 casas decimais do nmero ocorrem 74,
92, 83, 79, 80, 73, 77, 75 e 91 vzes, respectivamente. Use um teste qui-quadrado para
testar a hiptese de que estes dados obedecem a uma lei uniforme. Considere o nvel
de significncia de 10%.
13.24 De uma tabela de nmeros aleatrios, 150 nmeros de dois dgitos foram selecionados
(00 tambm um nmero de dois dgitos). Os resultados aparecem na Tabela 13.14.
Campos, Rgo & Mendona
315
0 1
2
3
4
5 6 7
12 78 270 456 385 252 69 13
mi
0
0.5
1.5
10.0
17.5
intervalo
15-18
18-21
21-24
24-27
27-30
mi
28.5
39.0
41.0
45.0
30.5
intervalo
30-33
33-36
36-39
39-42
42-45
mi
27.0
7.5
1.0
1.0
0
Use um teste qui-quadrado para testar a hitese de que estes dados obedecem a uma
lei uniforme, com um nvel de significncia de 5%.
Tabela 13.14: Nmeros de dois dgitos.
intervalo
0-9
10-19
20-29
30-39
40-49
mi
16
15
19
13
14
freq. relativa
0.107
0.100
0.127
0.087
0.093
intervalo
50-59
60-69
70-79
80-89
90-99
mi
19
14
11
13
16
freq. relativa
0.127
0.093
0.073
0.087
0.107
13.9. EXERCCIOS
316
Referncias Bibliogrficas
1. R. J. Adler, R. E. Feldman, and M. S. Taqqu (1998). A Practical Guide to
Heavy Tails. Statistical Techniques and Applications. Birkhuser.
2. A. O. Allen (1978). Probability, Statistics, and Queueing Theory with Computer
Science Applications. Academic Press.
3. G. vila (1994). ClculoFunes de Vrias Variveis. Volume 2. Livros Tcnicos e
Cientficos Editora.
4. L. Breiman (1969). Probability and Stochastic Processes. Houghton Mifflin Company.
5. C. W. Burrill (1972). Measure, Integration, and Probability. McGraw-Hill.
6. M. A. Campos (1997). Uma Extenso Intervalar para a Probabilidade Real. Tese.
Ps-Graduao em Cincia da Computao, Centro de Informtica/UFPE.
7. K. L. Chung (1974). A Course in Probability Theory. Academic Press, Second
Edition.
8. K. L. Chung (1974). Elementary Probability Theory with Stochastic Processes. SpringerVerlag.
9. A. B. Clarke e R. L. Disney (1979). Probabilidade e Processos Estocsticos. Livros
Tcnicos e Cientficos.
10. D. M. Cludio e J. M. Marins (1994) Clculo Numrico Computacional. Teoria e
Prtica. Editora Atlas.
11. W. J. Cody (1988). Floating-Point Standards, Theory and Practice. Reliability
in Computing. The Role of Interval Methods in Scientific Computing, Editor R. E.
Moore, pages 99-108, Vol. 19.
12. P. L. de O. Costa Neto e M. Cymbalista (1974). Probabilidades: resumos tericos,
exerccios resolvidos, exerccios propostos. Edgard Blcher.
13. D. Ellsberg (1961). Risk, Anbiguity, and the Savage Axioms. Quaterly Journal of
Economics 75 (4): 643-669. DOI: 10.2307/1884324.
317
13.9. EXERCCIOS
318
14. W. Feller (1976). Introduo Teoria das Probabilidades e suas Aplicaes. Edgard
Blcher Ltda.
15. W. Feller (1967). An Introduction to Probability Theory and Its Applications. Volume
I. Third Edition. John Wiley & Sons.
16. W. Feller (1971). An Introduction to Probability Theory and Its Applications. Volume
II. Second Edition. John Wiley & Sons.
17. P. J. Fernandez (1973). Introduo Teoria das Probabilidades. Livros Tcnicos e
Cientficos.
18. T. Fine (2005). Probability and Probabilistic Reasoning for Electrical Engineers. Prentice Hall.
19. G. E. Forsythe (1977). Pitfalls in Computation, or Why a Math Book Isnt Enough.
Amer. Math. Monthly, pp. 931-955.
20. D. Goldberg (1991). What Every Computer Scientist Should Know About FloatingPoint Arithmetic. ACM Computing Surveys, Vol. 23, No. 1, pp 5-48.
21. B. V. Gnedenko (1969). The Theory of Probability. Mir Publishers.
22. C. M. Grinstead and J. L. Snell (1991). Introduction to Probability. American
Mathematical Society.
23. H. L. Guidorizzi (1994). Um Curso de Clculo. Volume 4. Livros Tcnicos e
Cientficos Editora.
24. J. Halpern (2003). Reasoning about Uncertainty. The MIT Press.
25. P. G. Hoel, S. C. Port and C. J. Stone (1978). Introduo Teoria da Probabilidade. Intercincia.
26. R. V. Hogg and A. T. Craig (1970). Introduction to Mathematical Statistics.
Macmillan.
27. R. Isaac (1995). The Pleasures of Probability. Springer-Verlag.
28. R. Jain (1991). The Art of Computer Systems Performance Analysis. Techniques for
Experimental Design, Measurement, Simulation, and Modeling. John Wiley & Sons.
29. B. R. James (1981). Probabilidade: um curso em nvel intermedirio. IMPA, CNPq.
30. A. N. Kolmogorov (1950). Foundations of the Theory of Probability. Chelsea Publishing Company.
31. U. W. Kulisch and W. L. Miranker (1981). Computer Arithmetic in Theory and
Practice. New York, Academic Press.
Campos, Rgo & Mendona
319
32. W. Kuo and M. J. Zuo (2003). Optimal Reliability Modeling Principles and Applications. John Wiley & Sons.
33. E. Lebensztayn e C. F. Coletti (2008). Notas de Aula. Disponvel em
http://www.ime.usp.br/~seccpg/mae. Acessado em agosto de 2010.
34. B. W. Lindgren (1968). Statistical Theory. Macmillan.
35. S. Lipschutz (1993). Probabilidade. Coleo Schaum, 4a. Edio Revisada. Makrom
Books.
36. P. L. Meyer (1983). Probabilidade. Aplicaes Estatstica. Livros Tcnicos e
Cientficos.
37. D. C. Montgomery and G. C. Runger (2003). Estatstica Aplicada e Probabilidade
para Engenheiros. Segunda Edio, Livros Tcnicos e Cientficos.
38. R. E. Moore (1966). Interval Analysis. Prentice Hall, Inc. Englewood Cliffs.
39. R. E. Moore (1979). Methods and Applications of Interval Analysis. SIAM, Philadelphia.
40. F. Mosteller (1965). Fifty Challenging Problems in Probability. Dover Publications.
41. M. F. Neuts (1995). Algorithm Probability. A collection of problems. Stochastic
Modeling Series. ISBN 0 412 99791 X. Chapman & Hall.
42. E. Parzen (1960). Modern Probability Theory and Its Applications. John Wiley &
Sons.
43. E. Parzen (1964). Stochastic Processes. Holden-Day. Second Edition.
44. P. E. Pfeiffer (1978). Concepts of probability theory. Second Revised Edition, Dover
Publications, Inc.
45. S. M. Ross (1993). Introduction to Probability Theory. Academic Press.
46. S. Russel and P. Norvig (1995). Artifitial Intelligence. A Modern Approach. Prentice Hall.
47. J. D. dos Santos e Z. C. da Silva (2010). Mtodos Numricos. Editora Universitria/UFPE. 3a. Edio revisada.
48. M. das Graas dos Santos (2010). Probabilidades Autovalidveis para as Variveis Aleatrias Exponencial, Normal e Uniforme. Tese de Doutorado. Doutorado em
Matemtica Computacional, CCEN/CIn/UFPE.
49. A. N. Shiryayev (1984). Probability. Springer-Verlag, New York, Inc.
50. F. Solomon (1987). Probability and Stochastic Processes. Prentice-Hall, Inc.
Campos, Rgo & Mendona
13.9. EXERCCIOS
320
Apndice A
Nmeros de ponto-flutuante e
Arredondamentos
Este apndice refere-se questo da representao dos nmeros reais atravs de nmeros de
ponto-flutuante.
A.1
Nmeros de ponto-flutuante
Todo nmero real x pode ser unicamente representado pela expanso b-dica (Kullisch e
Miranker 1979, 1981)
x = dn dn1 . . . d1 d0 d1 . . . =
di bi
(1)
i=n
onde,
{+, }, b IN, b > 1,
0 di b 1, i = n(1)(),
di b 2, para uma quantidade infinita de ndices i.
Em (1) o ponto b-dico pode ser mudado para qualquer posio desde que esta mudana
seja convenientemente compensada. Se o ponto for mudado para a esquerda do primeiro
dgito no nulo da expanso b-dica do nmero x, atravs da multiplicao por uma correspondente potncia de b, ento tem-se o nmero x na forma normalizada. O nmero zero
possui uma representao especial no normalizada.
A seguir uma explicao da necessidade da condio di b 2 para uma quantidade
infinita de ndices i.
0.3000 = 3 101 + 0 102 + = 3 101 + + 0 10n + . . .
0.2999 = 2 101 + 9 102 + = 2 101 + + 9 10n + . . .
Portanto as sequncias
s1n = 3 101 + + 0 10n
321
322
(2)
(3)
1 d1 b 1,
(4)
0 di b 1, i = 2, . . . , l,
(5)
emin e emax .
(6)
onde,
a + b = b + a, a, b F ,
a b = b a, a, b F ,
a + 0 = 0 + a = a, a F ,
a 1 = 1 a = a, a F ,
a F, (a) F tal que a + (a) = (a) + a = 0,
(a + b) + c = a + (b + c), a, b, c F ,
(a b) c = a (b c), a, b, c F ,
a b = a c b = c a, b, c F, a 6= 0,
a (b + c) = (a b) + (a c), a, b, c F .
324
A.2
Arredondamentos
0, x [0, bemin 1 ),
),
5x, x [5x, 5x+4x
x 0, x =
2
5x+4x
4x, x [ 2 , 4x].
x < 0, x = (x).
Campos, Rgo & Mendona
A.2. ARREDONDAMENTOS
326
2
Os exemplos a seguir ilustram como realizar os arredondamentos 5, 4 e .
Exemplo A.2.2: Seja F (10, 4, 99, 99) e x = 0.432987. Portanto
5x = 0.4329 100 , 4x = 0.4330 100 , x = 0.4330 100
Exemplo A.2.5: Este exemplo s sobre o arredondamento simtrico. A primeira coluna do quadro abaixo contm elementos de R, como, por exemplo, seriam digitados numa
calculadora ou num computador digital. Na segunda coluna o elemento posto no formato
normalizado enfatizando quais dgitos vo ser descartados, na terceira coluna tem-se o valor
em F e por ltimo, como, usualmente resultados so exibidos.
xR
232.489
16.17554
2.43456
2.43556
2.438556
0.34935
0.00012467
= 0.2324 |{z}
89 10
= 0.1617 |{z}
554 102
= 0.2434 |{z}
56 101
= 0.2435 |{z}
56 101
= 0.2438 |{z}
556 101
= 0.3493 |{z}
5 100
= 0.1246 |{z}
7 103
x
:= 0.2325 103
:= 0.1618 102
:= 0.2435 101
:= 0.2436 101
:= 0.2439 101
:= 0.3494 100
:= 0.1247 103
= 232.5
= 16.18
= 2.435
= 2.436
= 2.439
= 0.3494
= 0.0001247
Para concluir, enfatiza-se que a tarefa de representar e operar com os nmeros reais em
computadores rdua. Inicialmente vem a escolha da representao (ponto-flutuante) em
seguida como implementar na mquina (processador aritmtico) a representao escolhida.
ndice
cardinalidade, 2
conjunto, 1
328