Escolar Documentos
Profissional Documentos
Cultura Documentos
2008.2
Prefcio
Estas notas de aula foram feitas para compilar o contedo de vrias referncias bibliogrcas
tendo em vista o contedo programtico da disciplina ET101-Estatstica 1 ministrada para
os cursos de graduao em Engenharia na rea 2 da Universidade Federal de Pernambuco.
Em particular, elas no contm nenhum material original e no substituem a consulta a
livros textos. Seu principal objetivo dispensar a necessidade dos alunos terem que copiar
as aulas e, deste modo, poderem se concentrar em entender o contedo das mesmas.
i
Contedo
Prefcio i
1 Introduo Probabilidade 1
1.1 Denio de Conjuntos e Exemplos . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Operaes com Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Produto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Conjunto das Partes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Partio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6 Funo Indicadora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.7 Experimento Aleatrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.8 Espao Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.9 Eventos e Coleo de Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.10 Freqncias Relativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.11 Interpretaes de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.12 Axiomas de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.12.1 Exemplos de Medidas de Probabilidade . . . . . . . . . . . . . . . . . 11
1.12.2 Propriedades de uma Medida de Probabilidade . . . . . . . . . . . . . 12
3 Probabilidade Condicional 22
3.1 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Independncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4 Variveis Aleatrias 34
4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Funo de Distribuio Acumulada . . . . . . . . . . . . . . . . . . . . . . . 35
4.3 Tipos de Varivel Aleatria . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Varivel Aleatria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5 Varivel Aleatria Contnua . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
ii
4.6 Alguns Exemplos de Distribuies de Probabilidade . . . . . . . . . . . . . . 38
4.6.1 Aleatria ou Uniforme Discreta. . . . . . . . . . . . . . . . . . . . . . 38
4.6.2 Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.6.3 Binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.6.4 Uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.7 Variveis Aleatrias Mistas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.8 Variveis Aleatrias Multidimensionais . . . . . . . . . . . . . . . . . . . . . 42
4.8.1 Funo de Distribuio Acumulada Conjunta . . . . . . . . . . . . . . 42
4.8.2 Distribuio condicional de X dada Y discreta . . . . . . . . . . . . . 45
4.8.3 Distribuio condicional de X dada Y contnua . . . . . . . . . . . . 46
4.8.4 Independncia entre Variveis Aleatrias. . . . . . . . . . . . . . . . . 47
4.9 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Esperana e Momentos 51
5.1 O Conceito de Esperana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.1.1 Denio da Esperana - Caso Discreto . . . . . . . . . . . . . . . . . 51
5.1.2 Denio da Esperana - Caso Contnuo . . . . . . . . . . . . . . . . 53
5.2 Esperana de Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . 53
5.2.1 Caso Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Caso Contnuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.3 Propriedades da Esperana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4.1 Momentos Centrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.5 Correlao, Covarincia, e Desigualdade de Schwarz . . . . . . . . . . . . . . 61
5.6 Esperana Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
iii
7.7 A Distribuio Normal Bivariada . . . . . . . . . . . . . . . . . . . . . . . . 80
9 Distribuies Amostrais 92
9.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
9.2 Populao e Amostra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
9.3 Seleo de uma Amostra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.3.1 Amostra Aleatria Simples . . . . . . . . . . . . . . . . . . . . . . . . 93
9.4 Estatsticas e Parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
9.5 Distribuies Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.5.1 Distribuio Amostral da Mdia Amostral . . . . . . . . . . . . . . . 96
9.5.2 Distribuio Amostral de uma Proporo . . . . . . . . . . . . . . . . 98
9.6 Determinao do Tamanho de uma Amostra . . . . . . . . . . . . . . . . . . 98
10 Estimao 100
10.1 Estimativas e Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.2 Propriedades de Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
10.3 Intervalo de Conana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.3.1 Intervalo de Conana para Mdia com Varincia Conhecida . . . . . 105
10.3.2 Intervalo de Conana para Mdia com Varincia Desconhecida . . . 108
iv
Captulo 1
Introduo Probabilidade
Um conjuntos pode ser especicado, listando seus elementos dentro de chaves. Por exem-
plo,
A = {0, 1, 2, 3, 5, 8, 13}, B = {0, 1, 2, . . . , 1000}.
Alternativamente, um conjunto pode ser especicado por uma regra que determina os mem-
bros do conjunto, como em:
Se um dado elemento faz parte de um conjunto, dizemos que ele pertence ao conjunto
e denotamos isso com o smbolo . Por exemplo, 2 D = {x : x par} ou 3 E = {x :
x primo}.
Por outro lado, se um dado elemento no faz parte de um conjunto, dizemos que ele no
pertence ao conjunto e denotamos isso com o smbolo
/ . Por exemplo, 3
/ D = {x : x par}
ou 4
/ E = {x : x primo}.
1
CAPTULO 1. INTRODUO PROBABILIDADE 2
nito; seus elementos podem ser contados. Um conjunto innito enumervel tem exatamente
a mesma quantidade de elementos que os naturais, ou seja, existe uma funo bijetiva cujo
domnio igual a este conjunto e a imagem igual ao conjunto dos naturais. Um conjunto
enumervel se ele for nito ou innito enumervel. Um conjunto no-enumervel se ele
no for enumervel. Por exemplo temos que os seguintes conjuntos so enumerveis:
Nn = {0, 1, 2, . . . , n 1},
Z = {x : x um inteiro},
Z + = {x : x um inteiro positivo},
Q = {x : x racional}.
Por outro lado, os seguintes conjuntos so no-enumerveis:
IR = {x : x um nmero real},
2. Unio: A B = { : A ou B}
3. Interseco: A B = { : A e B}
4. Diferena: A B = A B c = { : A e
/ B}
Se A B = , ento A e B no tem nenhum elemento em comum, e ns dizemos que A
e B so disjuntos.
Exemplo 1.2.1: Seja = {0, 1, 2, 3, 4, 5, 6, 7}, A = {0, 1, 5} e B = {1, 2, 3, 4}. Ento segue
que Ac = {2, 3, 4, 6, 7}, A B = {0, 1, 2, 3, 4, 5}, A B = {1}, A B = {0, 5}.
1. Idempotncia: (Ac )c = A
2. Comutatividade (Simetria): A B = B A e A B = B A
3. Associatividade: A (B C) = (A B) C) e A (B C) = (A B) C)
4. Distributividade: A (B C) = (A B) (A C) e A (B C) = (A B) (A C)
Observe que as Leis de De Morgan permitem que possamos expressar unies em termos
de interseces e complementos e interseces em termos de unies e complementos.
As noes de unio e interseco se estendem para colees arbitrrias de conjuntos
atravs de dois quanticadores: existe (), e para todo ().
Pode-se provar que a cardinalidade do conjunto das partes de qualquer conjunto dado A
maior que a cardinalidade de A.
P2. I A = .
Deste modo os conjuntos de uma partio so disjuntos par a par e cobrem todo o conjunto
universo. Portanto, cada elemento pertence a um, e somente um, dos conjuntos A
de uma partio.
Exemplo 1.5.2: Se = {1, 2, 3, 4}, ento {A1 , A2 }, onde A1 = {1, 2, 3} e A2 = {4}, uma
partio de .
A = B ( )IA () = IB ().
O fato que conjuntos so iguais se, e somente se, suas funes indicadoras forem idnticas
nos permitem explorar a aritmtica de funes indicadoras:
IAc = 1 IA ,
A B IA IB ,
IAB = min(IA , IB ) = IA IB ,
Soluo: Exerccio.
(b) Muito embora no sejamos capazes de armar que resultado particular ocorrer, sere-
mos capazes de descrever o conjunto de todos os possveis resultados do experimento.
(d) Pelo menos dois ocorrem. Resp.: (AB C c )(AB c C)(Ac B C)(AB C).
1. no vazia;
Exemplo 1.9.3:
1. A menor lgebra de eventos A = {, };
Se o espao amostral for nito, toda lgebra uma -lgebra, pois so existem um nmero
nito de eventos diferentes. Se o espao amostral for innito, existem lgebras que no so
-lgebras, como mostra o exemplo seguinte.
Exemplo 1.9.4: A coleo de conjuntos de nmeros reais nitos e co-nitos uma lgebra
que no uma -lgebra.
FR0. rn : A IR.
FR1. rn (A) 0.
FR2. rn () = 1.
Ns prosseguiremos como se existisse alguma base emprica ou metafsica que garanta que
rn (A) P (A), embora que o sentido de convergncia quando n cresce s ser explicado pela
Lei dos Grandes Nmeros, que no ser discutida em detalhes neste curso. Esta tendncia da
freqncia relativa de estabilizar em um certo valor conhecida como regularidade estatstica.
Deste modo, P herdar propriedades da freqncia relativa rn .
Um ltimo axioma embora no seja uma propriedade de limites de freqncia relativa nem
tenha signicado em espaos amostrais nitos, foi proposto por Kolmogorov para garantir
um certo grau de continuidade da medida de probabilidade.
K4. -aditividade. Se {Ai } uma coleo enumervel de eventos disjuntos dois a dois,
ento
X
P ( A
i=1 i ) = P (Ai ).
i=1
Note que para espaos amostrais nitos, somente existem um nmero nito de subcon-
juntos diferentes, logo para que tenhamos uma coleo enumervel de eventos disjuntos dois
a dois, um nmero enumervel destes deve ser vazio. Como veremos adiante a probabilidade
de um evento vazio nula, o que implica que para espaos amostrais nitos K3 e K4 so
equivalentes.
Denio 1.12.1: Uma funo que satisfaz K0K4 chamada de uma medida de proba-
bilidade.
2. P () = 0.
3. P (A) 1.
P () = 1 P () = 0.
Parte 3, segue do fato que 1 = P () = P (A) + P (Ac ) P (A), j que P (Ac ) 0 por K1.
Teorema 1.12.7: Uma expresso exata para a probabilidade de uma unio no-disjunta
dada por
P (A B) = P (A) + P (B) P (A B).
Prova: Omitida.
Prova: Utilizando a Lei de De Morgan e a desigualdade de Boole para os eventos {Ac1 , . . . , Acn },
temos n n
X X
P (ni=1 Aci ) = 1 P (Ai ) P (Aci ) = (1 P (Ai )).
i=1 i=1
Logo,
n
X
P (Ai ) P (Ai ) (n 1).
i=1
P (A1 A2 A3 ) = P (A1 )+P (A2 )+P (A3 )P (A1 A2 )P (A1 A3 )P (A2 A3 )+P (A1 A2 A3 ).
Exemplo 1.12.14: Se {Ai } for uma partio enumervel de e P (Ai ) = abi , i 1, ento
quais as condies que a e b devem satisfazer para que P seja uma medida de probabilidade?
2.1 Introduo
Vericamos no captulo anterior que se = {1 , 2 , . . . , n } um conjunto nito, ento para
determinar a probabilidade de qualquer evento A suciente especicar a probabilidade de
cada eventos simples {i }, ouPseja P ({i }) = pi . fcil
P ver que os axiomas de Kolmogorov
implicam que pi 0, i 1 e ni=1 pi = 1, e P (A) = i A P ({i }).
Para determinarmos as probabilidades dos eventos simples, precisamos de algumas hi-
pteses adicionais. Por exemplo, se = {w1 , w2 , w3 }, {w1 } for 3 vezes mais provvel, que
{w2 , w3 }, e {w2 } for igualmente provvel a {w3 }, temos que: p1 = 3(p2 + p3 ), p2 = p3 . Logo,
como p1 + p2 + p3 = 1, temos que p3 = p2 = 81 , e p1 = 34 .
Vimos tambm que de acordo com a interpretao clssica de probabilidade, onde o
espao amostral nito e os possveis resultados do experimento so equiprovveis, ento
a probabilidade de qualquer evento A A proporcional a sua cardinalidade, isto , P (A) =
||A||
||||
. Portanto, importante que saibamos contar a quantidade de elementos que um evento.
15
CAPTULO 2. ESPAOS AMOSTRAIS FINITOS 16
de maneiras pelas quais poderemos realizar ou o procedimento 1, ou o procedimento 2, . . .,
ou o procedimento k , dado por n1 + n2 + . . . + nk , supondo que dois quaisquer deles no
possam ser realizados conjuntamente.
Exemplo 2.2.1: Suponha que estejamos planejando uma viagem e devamos escolher entre
o transporte por nibus ou por trem. Se existirem trs rodovias e duas ferrovias, ento
existiro 3 + 2 = 5 caminhos disponveis para a viagem.
Exemplo 2.2.2: Quantos divisores inteiros e positivos possui o nmero 360? Quantos desses
divisores so pares? Quantos so mpares? Quantos so quadrados perfeitos?
Soluo: 360 = 23 32 5. Os divisores inteiros e positivos de 360 so os nmeros
da forma: 2a 3b 5c , onde a {0, 1, 2, 3}, b {0, 1, 2}, e c {0, 1}. Portanto, existem
4 3 2 = 24 maneiras de escolher os expoentes a, b, c. Logo h 24 divisores.
Para o divisor ser par, a no pode ser zero. Ento, existem 3 3 2 = 18 divisores pares.
Por outro lado, para o divisor ser mpar, a tem que ser zero. Logo, existem 1 3 2 = 6
divisores mpares. Por m para o divisor ser quadrado perfeito, os expoentes tem que ser
pares. Logo, existem 2 2 1 = 4 divisores quadrados perfeitos.
Exemplo 2.2.3: De quantos modos o nmero 720 pode ser decomposto em um produto
de dois inteiros positivos? Aqui consideramos, naturalmente, 8 90 como sendo o mesmo
produto que 90 8. E o nmero 144?
Soluo: 720 = 24 32 5. Os divisores inteiros e positivos de 720 so os nmeros da
forma: 2a 3b 5c , onde a {0, 1, 2, 3, 4}, b {0, 1, 2}, e c {0, 1}. Portanto, existem
5 3 2 = 30 maneiras de escolher os expoentes a, b, c. Logo h 30 divisores. Observe que
como 720 no um quadrado perfeito, para cada divisor x de 720 existe um outro divisor
y 6= x de 720 tal que x y = 720. Portanto, cada produto contm dois divisores diferentes
de 720. Como existem 30 divisores, existem 15 produtos diferentes.
144 = 24 32 . Seguindo o mesmo raciocnio anterior, temos 5 3 = 15 divisores de 144.
Note que 144 = 122 e este constitui um produto de inteiros positivos que igual a 144. Para
os demais produtos sempre temos que eles contm dois inteiros positivos diferentes que so
divisores de 144. Como existem 14 divisores de 144 diferentes de 12, temos que existem 7
produtos envolvendo estes divisores. Logo, temos um total de 8 produtos diferentes.
n! = (n)n = n(n 1) 1,
0! = 1! = 1 e n! = n(n 1)!.
Exemplo 2.2.8: De quantos modos possvel colocar r rapazes e m moas em la de modo
que as moas permaneam juntas?
Soluo: Primeiro temos r + 1 opes de escolher o lugar das moas. Em seguida, temos
r! maneiras de escolher a posio dos rapazes entre si, e m! maneiras de escolher a posio
das moas entre si. Portanto, temos (r + 1)r!m! modos diferentes de escolha.
Exemplo 2.2.10: Dentre oito pessoas, quantas comisses de trs membros podem ser es-
colhidas, desde que duas comisses sejam a mesma comisso se forem constitudas pelas
mesmas pessoas
8 (no se levando em conta a ordem em que sejam escolhidas)? A resposta
dada por 3 = 56 comisses possveis.
Exemplo 2.2.12: Um grupo de oito pessoas formado de cinco homens e trs mulheres.
Quantas comisses de trs pessoas podem ser constitudas, incluindo exatamente dois ho-
mens? Aqui deveremos fazer duas coisas, escolher dois homens (dentre
cinco) e escolher duas
mulheres (dentre trs). Da obtemos como nmero procurado 52 31 = 30 comisses.
Exemplo 2.2.14: Quantas seqncias de cara e coroa de comprimento n contm pelo menos
1 cara? Neste caso, note que apenas uma seqncia no contm nenhuma cara (a seqncia
que contm apenas coroa). Como o nmero total de seqncias de cara e coroa de compri-
mento n igual a 2n , temos ento 2n 1 seqncias de comprimento n contendo pelo menos
uma cara.
Contagem Multinomial
Considere que temos r tipos de elementos e ni cpias indistinguveis do elemento do tipo i.
Por exemplo, a palavra probabilidade tem duas cpias de cada uma das letras a,b,d,i e uma
cpiaPde cada uma das letras l,p,r,o,e. O nmero de seqncias ordenadas de comprimento
n = ri=1 ni dado por:
n n n1 n n1 n2 n!
1 = Qr .
n1 n2 n3 i=1 ni !
P (B c |B) = 0 (3.1)
Em relao aos eventos contidos em B , razovel assumir que sua chance relativa per-
manea inalterada se tudo que o agente descobriu foi que o evento B ocorreu, ou seja, se
22
CAPTULO 3. PROBABILIDADE CONDICIONAL 23
A1 , A2 B com P (A2 ) > 0, ento
P (A1 ) P (A1 |B)
= (3.2)
P (A2 ) P (A2 |B)
Segue que (3.1) e (3.2) determinam completamente P (|B) se P (B) > 0.
Teorema 3.1.1: Se P (B > 0) e P (|B) uma medida de probabilidade em que satisfaz
(3.1) e (3.2), ento
P (A B)
P (A|B) = .
P (B)
Prova: Como P (|B) uma medida de probabilidade e satisfaz P (B c |B) = 0, ns temos
que P (B|B) = 1 P (B c |B) = 1. Considerando A1 = A e A2 = B em (3.2), temos
ento P (A|B) = PP (B)
(A)
para A B . Se A no um subconjunto de B , temos que A =
(A B) (A B ). Como (A B) e (A B c ) so eventos disjuntos, temos P (A|B) =
c
P (A B)
P (A|B) =
P (B)
Vamos provar que para um evento xo B que satisfaz P (B) > 0, P (|B) satisfaz os
axiomas K1-K4 acima e realmente uma medida de probabilidade. Para provar K1, note
que para todo A A, como P (A B) 0, ns temos
P (A B)
P (A|B) = 0.
P (B)
Para provar K2, note que B = B , ento
P ( B) P (B)
P (|B) = = = 1.
P (B) P (B)
Finalmente, para provar K4 (que implica K3), note que se A1 , A2 , . . . so mutuamente ex-
clusivos A1 B, A2 B, . . . tambm o so, ento
P ((i Ai ) B) P (i (Ai B))
P (i Ai |B) = =
P (B) P (B)
P X
P (Ai B)
= i = P (Ai |B).
P (B) i
A probabilidade condicional tambm satisfaz as seguintes propriedades:
2. P (A|B) = P (A B|B);
3. se A B , ento P (A|B) = 1;
P (A B) = P (A|B)P (B).
Prova:
Como B1 , B2 , . . . uma partio de , temos que
A = A = A (i Bi ) = i (A Bi ).
Como os eventos Bi 's so mutuamente exclusivos, os eventos (A Bi )'s tambm so
mutuamente exclusivos. Ento axioma K3 implica que
X
P (A) = P (i (A Bi )) = P (A Bi )
i
X X
= P (A Bi ) = P (A|Bi )P (Bi ).
i:P (Bi )6=0 i:P (Bi )6=0
P (A D) P (A|D)P (D)
P (D|A) = c
= .
P (A D) + P (A D ) P (A|D)P (D) + P (A|Dc )P (Dc )
Mais geralmente, quando temos uma partio B1 , B2 , . . ., temos que a frmula de Bayes
dada por:
P (A Bi ) P (A Bi )
P (Bi |A) = P =P
j P (A Bj ) j:P (Bj )6=0 P (A Bj )
P (A|Bi )P (Bi )
=P .
j:P (Bj )6=0 P (A|Bj )P (Bj )
Exemplo 3.1.4: Considere uma imagem formada por n m pixels com a k -sima linha
contendo dk ( m) pixels defeituosos. No primeiro estgio do experimento uma linha
escolhida ao acaso e ns no sabemos qual foi a escolha. Ns ento examinamos um pixel
selecionada ao acaso nesta linha e descobrimos que o pixel defectivo (chamamos este evento
de D). Qual a probabilidade de que este pixel defeituoso esteja na linha k ? Seja R = k o
evento que este pixel pertencia a k -sima linha da imagem. A frmula de Bayes nos permite
determinar que dado que
1 dk
P (R = k) = e P (D|R = k) = ,
n m
ns temos que
1 dk
nm dk
P (R = k|D) = P n 1 di = Pn .
i=1 n m i=1 di
Ento, mesmo que a linha tenha inicialmente sido escolhida ao acaso, dado o evento que
encontramos ao acaso um pixel defectivo nesta linha, agora mais provvel que seja uma
linha contendo um nmero grande de pixels defectivos dk .
Embora probabilidade condicional seja bastante til, ela sofre de alguns problemas, em
particular quando se quer tratar de eventos de probabilidade zero. Tradicionalmente, se
P (B) = 0, ento P (A|B) no denida. Isto leva a um nmero de diculdades los-
cas em relao a eventos com probabilidade zero. So eles realmente impossveis? Caso
contrrio, quo improvvel um evento precisa ser antes de ele ser atribudo probabilidade
zero? Deve um evento em algum caso ser atribudo probabilidade zero? Se existem eventos
com probabilidade zero que no so realmente impossveis, ento o que signica condicio-
nar em eventos de probabilidade zero? Por exemplo, considere o espao de probabilidade
([0, 1], B, ) onde B a -lgebra de Borel restrita a eventos contidos em [0, 1] e uma
medida de probabilidade na qual todo intervalo em [0, 1] possui probabilidade igual ao seu
comprimento. Seja B = {1/4, 3/4} e A = {1/4}. Como P (B) = 0, P (A|B) no denida.
Porm parece razovel assumir que neste caso P (A|B) = 1/2 j que intuitivamente implica
que todos os estados so equiprovveis, mas a denio formal de probabilidade condicional
no nos permite obter esta concluso.
Alguns dos problemas mencionados no pargrafo anterior podem ser tratados considerando-
se probabilidades condicionais (e no probabilidade incondicionais) como a noo fundamen-
tal, porm a discusso destes modelos est fora do escopo deste curso.
P (G = d1 , Y = d2 , M = d3 )
P (G = d1 |Y = d2 , M = d3 ) =
P (Y = d2 , M = d3 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )P (Y = d2 )
=
P (M = d3 |Y = d2 )P (Y = d2 )
P (M = d3 |G = d1 , Y = d2 )P (G = d1 |Y = d2 )
=
P (M = d3 |Y = d2 )
1/3
=
P (M = d3 |Y = d2 )
P (Y = d2 , M = d3 )
P (M = d3 |Y = d2 ) =
P (Y = d2 )
P (Y = d2 , M = d3 , G = d1 ) + P (Y = d2 , M = d3 , G = d2 ) + P (Y = d2 , M = d3 , G = d3 )
=
P (Y = d2 )
P (M = d3 |Y = d2 , G = d1 )P (G = d1 |Y = d2 )P (Y = d2 )
=
P (Y = d2 )
P (M = d3 |Y = d2 , G = d2 )P (G = d2 |Y = d2 )P (Y = d2 )
+
P (Y = d2 )
P (M = d3 |Y = d2 , G = d3 )P (G = d3 |Y = d2 )P (Y = d2 )
+
P (Y = d2 )
= P (M = d3 |Y = d2 , G = d1 )P (G = d1 |Y = d2 )
+P (M = d3 |Y = d2 , G = d2 )P (G = d2 |Y = d2 )
+P (M = d3 |Y = d2 , G = d3 )P (G = d3 |Y = d2 )
1 1 1 1
=1 + +0= .
3 2 3 2
Logo, P (G = d1 |Y = d2 , M = d3 ) = 23 , e o participante deve trocar de porta de sua escolha
original d2 para d1 !
Exemplo 3.1.9: Seja D o evento que um indivduo selecionado ao acaso de uma popu-
lao tem uma doena particular, Dc seu complemento. A probabilidade que um indivduo
selecionado ao acaso nesta populao tenha determinada dena pd . Existe um teste para
diagnstico desta doena que sempre acusa presena da doena quando o indivduo tem a
doena. Contudo, quando o indivduo no tem a doena, o teste reporta falsamente que
o indivduo tem a doena com probabilidade pt . Seja T P o evento que o teste reporta
positivamente que o indivduo tem a doena. Formalmente, temos:
Um indivduo deve estar interessado em saber a probabilidade P (D|T P ) que ele tenha a
doena dado que o teste deu positivo. Se, por exemplo, a doena for rara e pd = 0, 001, e o
teste reportar falsamente com probabilidade pequena pt = 0, 05, veremos que apesar desta
pequena probabilidade do teste da um resultado errado, a probabilidade do indivduo ter a
doena pequena. Pela frmula de Bayes
P (T P |D)P (D) pd
P (D|T P ) = = = 0, 02.
P (T P |D)P (D) + P (T P |Dc )P (Dc ) pd + pt (1 pd )
Exemplo 3.1.10: Sabemos que os eventos {B1 , B2 , B3 } so disjuntos par a par e que sua
unio igual ao espao amostral. Estes eventos tem as seguintes probabilidades P (B1 ) = 0, 2
e P (B2 ) = 0, 3. Existe um outro evento A que sabemos que P (A|B1 ) = 0, 3; P (A|B2 ) = 0, 4;
e P (A|B3 ) = 0, 1. Calcule:
Exemplo 3.1.11: Suponha que todos os bytes tenham a mesma probabilidade. Seja W o
nmero de 1's em um byte. Considere os seguintes eventos:
B = {W um nmero mpar.}
Calcule:
(a) P (A)
(b) P (B)
(c) P (B|A)
(d) P (A|B)
Soluo:
||A|| 26 1
P (A) = = 8 = .
|||| 2 4
8 8 8 8
||B|| + 3 + 5 + 7 1
P (B) = = 1 8
= .
|||| 2 2
P (A B
P (B|A) = ,
P (A)
||AB|| (61)+(63)+(65)
onde P (A B) =
= 28
= 18 . Portanto,
1
8 1
P (B|A) = 1 = .
4
2
1
P (A B) 8 1
P (A|B) = = 1 = .
B 2
4
Exemplo 3.1.12: Se jogarmos dois dados um aps o outro e observamos o evento que
a soma dos dois dados igual a 9, ento qual a probabilidade do primeiro dado ter dado
resultado 4?
Soluo:
1
P (A B) 36 1
P (A|B) = = 4 = .
P (B) 36
4
(b) Qual a probabilidade que o aluno sabia a resposta dado que a pergunta foi respondida
corretamente?
Soluo: Para a parte (a), usamos o Teorema da Probabilidade Total:
1
P (A) = P (A|B)P (B) + P (A|B c )P (B c ) = 1 p + (1 p).
m
Para a parte (b), usamos a frmula de Bayes
P (A|B)P (B) 1p
P (B|A) = =
c c
P (A|B)P (B) + P (A|B )P (B ) 1 p + m1 (1 p)
3.2 Independncia
O que exatamente signica que dois eventos so independentes? Intuitivamente, isto signi-
ca que eles no tm nada haver um com o outro, eles so totalmente no relacionados; a
ocorrncia de um no tem nenhuma inuncia sobre o outro. Por exemplo, suponha que duas
diferentes moedas so lanadas. A maioria das pessoas viria os resultados desses lanamentos
como independentes. Portanto, a intuio por trs da frase o evento A independente do
evento B que nosso conhecimento sobre a tendncia para A ocorrer dado que sabemos que
B ocorreu no alterada quando camos sabendo que B ocorreu. Ento, usando probabi-
lidades condicionais podemos formalizar esta intuio da seguinte forma, A independente
de B se P (A|B) = P (A). Mas usando a denio de probabilidade condicional, chega-se a
seguinte concluso A independente de B se P (A B) = P (A)P (B). Como esta ltima
expresso denida inclusive para o caso de P (B) = 0, ela a expresso adotada como a
denio de independncia entre eventos.
Note que esta denio de independncia implica que independncia um conceito si-
mtrico em teoria da probabilidade, isto , A independente de B se e somente se B
independente de A. Note que esta denio tambm implica que eventos A e B so inde-
pendentes se P (A) = 0 ou P (B) = 0, o que pode gerar algumas concluses no intuitivas se
de fato P (A) = 0 ou P (B) = 0. Por exemplo, se P (A) = 0, ento A independente dele
mesmo, porm A certamente no no relacionado consigo mesmo. Similarmente, fcil
provar que se P (A) = 1, A independente dele mesmo. O seguinte teorema prova que estes
so os nicos casos em que um evento independente dele mesmo.
Prova:
P (A A) = P (A) = P (A)P (A) P (A) = 0 ou P (A) = 1.
P (A) = P (A B) + P (A B c ).
Como A e B so independentes, ns temos
Denio 3.2.4: Uma coleo de eventos {Ai }iI independente par a par se para todo
i 6= j I , Ai e Aj so eventos independentes.
E uma coleo de eventos {Ai }iI mutuamente independente se para todo J I nito,
{Ai }iJ mutuamente independente.
Exemplo 3.2.6: Se = {1, 2, 3, 4} e P ({w}) = 1/4, ento A = {1, 2}, B = {1, 3}, e
C = {2, 3} so eventos independentes par a par. Pode-se vericar isto pelo fato que
1 11
P (A B) = P ({1}) = = = P (A)P (B).
4 22
Similarmente, pode-se provar o mesmo resultado para os outros pares. Contudo, a probabi-
lidade
1
P (A B C) = P () = 0 6= P (A)P (B)P (C) = .
8
Ento, A, B , e C no so mutuamente independentes.
Exemplo 3.2.10: Joo e Jos disputam um jogo com uma moeda equilibrada. Cada
jogador lana a moeda duas vezes e vence o jogo aquele que primeiro obtiver dois resultados
iguais. Joo comea jogando e se no vencer passa a moeda para Jos e continuam alternando
jogadas. Qual a probabilidade de Joo vencer o Jogo?
Soluo: Seja Ak o evento dois resultados iguais so obtidos na k-sima tentativa. Note
que P (Ak ) = 21 . Seja Bk o evento Joo ganha na sua k -sima jogada. Ento,
4.1 Introduo
Suponha que uma moeda lanada cinco vezes. Qual o nmero de caras? Esta quantidade
o que tradicionalmente tem sido chamada de varivel aleatria. Intuitivamente, uma
varivel porque seus valores variam, dependendo da seqncia de lanamentos da moeda
realizada; o adjetivo aleatria usado para enfatizar que o seu valor de certo modo
incerto. Formalmente, contudo, uma varivel aleatria no nem aleatria nem uma
varivel.
Vale a pena salientar que em muitos problemas, j teremos a informao sobre a distri-
buio induzida PX denida em (R, B). Nestes casos, estaremos esquecendo a natureza
34
CAPTULO 4. VARIVEIS ALEATRIAS 35
funcional de X e nos preocupando apenas com os valores assumidos por X . Estes ca-
sos podem ser pensados como se o experimento aleatrio fosse descrito por (R, B, PX ) e
X(w) = w, w R, ou seja, os resultados dos experimento aleatrio j so numricos e
descrevem a caracterstica de interesse que queremos analisar.
importante enfatizar que usual se referir a variveis aleatrias por letras maisculas
X, Y, Z, . . . e aos valores que tais variveis podem assumir por letras minsculas x, y, z, . . ..
Teorema 4.2.2: Uma funo real G satisfaz F1F3 se e somente se G uma distribuio
de probabilidade acumulada.
Exemplo 4.2.3: Determine quais das seguintes funes so funes de distribuio acu-
muladas, especicando a propriedade que no for satisfeita caso a funo no seja uma
distribuio acumulada.
ex
(a) 1+ex
(c) e|x|
Exemplo 4.2.4: Seja K o nmero de ons emitidos por uma fonte em um tempo T . Se
FK (1) FK (1/2) = 0, 1, qual o valor de P (K = 1)?
Exemplo 4.2.5: Uma seqncia de 10 bytes independentes foi recebida. sbido que
a probabilidade igual a 0,3 que o primeiro smbolo de um byte seja igual a 0. Seja K o
nmero de bytes recebidos tendo 0 como primeiro smbolo.
(a) Calcule P (K = 2)
Contnua. Uma varivel aleatria X contnua se existe uma funo fX (x) 0 tal
que Z x
FX (x) = fX (t)dt, x R.
Pode-se provar que toda funo de distribuio de probabilidade acumulada FX pode ser
decomposta na soma de no mximo trs funes de distribuio de probabilidade acumuladas,
sendo uma discreta, uma contnua e outra singular.
Na grande maioria dos problemas prticos, no se encontram variveis aleatrias singu-
lares. Portanto, iremos nos restringir ao estudo de variveis aleatrias discretas e contnuas.
Na prxima seo analisaremos as variveis aleatrias discretas.
Exemplo 4.4.1: Assuma que X uma varivel aleatria discreta que assume os valores 2,
5, e 7 com probabilidades 1/2, 1/3, e 1/6, ento sua funo de distribuio acumulada :
A funo de distribuio de uma varivel discreta sempre uma funo degrau que tem
saltos nos pontos que a varivel assume com probabilidade positiva, e o valor do salto em
um ponto xi , como vimos igual a probabilidade da varivel assumir este valor.
Ento X tem densidade pois FX contnua e derivvel em todos os pontos da reta exceto
em {0, 1}.
4.6.2 Bernoulli.
Dizemos que X tem uma distribuio Bernoulli com parmetro p, onde 0 p 1, se
X(w) {x0 , x1 } e p(x1 ) = p = 1 p(x0 ).
A funo de probabilidade Bernoulli pode ser utilizada para modelar a probabilidade de
sucesso em uma nica realizao de um experimento. Em geral, qualquer varivel aleatria
dicotmica, ou seja que assume somente dois valores, pode ser modelada por uma distribuio
Bernoulli. Denomina-se de ensaio de Bernoulli, qualquer experimento que tem uma resposta
dicotmica. Um exemplo clssico de um ensaio Bernoulli o lanamento de uma moeda no
necessariamente balanceada.
4.6.3 Binomial.
Dizemos que X tem uma distribuio Binomial com parmetros
n e p, onde n um nmero
inteiro e 0 p 1, se X(w) {0, 1, . . . , n} e p(k) = nk pk (1 p)1k , para k {0, 1, . . . , n}.
Note que utilizando o Teorema Binomial, temos que
n
X n
X n
p(k) = pk (1 p)nk = (p + 1 p)n = 1.
k=0 k=0
k
p(1) np
= < 1,
p(0) 1p
Exemplo 4.6.1: Uma moeda com probabilidade 0,4 de cair cara jogada 5 vezes, qual a
probabilidade de se obter exatamente 2 coroas?
Soluo: Seja X o nmero de caras obtidos. Como jogamos a moeda 5 vezes, o evento
obterexatamente
2 coroas igual ao evento obter exatamente 3 caras. Portanto, P (X =
5
3) = 3 (0, 4) (0, 6)2 .
3
Exemplo 4.6.2: A taxa de sucesso de um bit em uma transmisso digital 90%. Se 20 bits
forem transmitidos, qual a probabilidade de que exatamente 15 deles tenha sido transmitidos
com sucesso? Qual a probabilidade de que no mximo 18 deles tenham sido transmitidos
com sucesso?
Exemplo 4.6.3 : Suponha que para uma dada moeda viciada a probabilidade de que
ocorram 3 caras seja igual a probabilidade que ocorram 4 caras se esta moeda for jogada
8 vezes de forma independente. Determine a probabilidade de ocorrerem 3 caras em 8
lanamentos independentes desta moeda.
Exemplo 4.6.4: Sabe-se que igualmente provvel que um dado cliente possa requisitar
um servio no tempo disponvel de servio [t0 , t1 ]. Se o tempo necessrio para executar este
servio igual a < t1 t0 , qual a probabilidade que o servio ser executado antes do
trmino do intervalo de tempo disponvel de servio?
Soluo: Para que o servio seja executado em tempo hbil, R t1necessrio que o cliente
1 t1 t0
o requisite antes do tempo t1 . Logo, P (X t1 ) = t1 t0 t0
dt = t1 t0
.
~ : Rn
Denio 4.8.1: Seja (, A, P ) um espao de probabilidade. Uma funo X
~ 1 (B) A.
chamada de um vetor aleatrio se para todo evento B Boreliano de IRn , X
Onde um evento Boreliano em IRn se pertence a menor -lgebra que contem todas regies
da seguinte forma: C~a = {(X1 , X2 , . . . , Xn ) : Xi ai , 1 i n}.
Dado um vetor aleatrio X ~ , pode-se denir uma probabilidade induzida P ~ no es-
X
n
pao mensurvel (IR , B n ) da seguinte maneira: para todo A B n , denimos PX~ (A) =
~ 1 (A)). Por denio de vetor aleatrio, tem-se que X
P (X ~ 1 (A) A, ento P ~ est bem
X
denida.
~,
Denio 4.8.2: A funo de distribuio acumulada conjunta de um vetor aleatrio X
representada por FX~ ou simplesmente por F , denida por
Exemplo 4.8.3: Seja F0 : IR2 IR uma funo denida no plano tal que F0 (x, y) = 1
se x 0, y 0, e x + y 1, e F0 (x, y) = 0, caso contrrio. claro que F1, F2, e F3 so
satisfeitas, mas F0 no funo de distribuio de nenhum vetor aleatrio (X, Y ). Se fosse,
teramos uma contradio
0 P (0 < X 1, 0 < Y 1)
= F0 (1, 1) F0 (1, 0) F0 (0, 1) + F0 (0, 0) = 1 1 1 + 0 = 1
p(~xi ) 0.
P
xi ) = 1 .
i=1 p(~
Neste caso, pode-se denir a funo probabilidade de massa marginal de Xi como sendo
X XX X
pXi (xi ) = p(x1 , . . . , xi1 , xi+1 , . . . , xn ).
x1 xi1 xi+1 xn
Exemplo 4.8.4: Duas linhas de produo fabricam um certo tipo de pea. Suponha que
a capacidade em qualquer dia seja 4 peas na linha 1 e 3 peas na linha 2. Admita que o
nmero de peas realmente produzida em uma dada linha em um dado dia seja uma varivel
aleatria. Sejam X e Y o nmero de peas produzido pela linha 1 e 2 em um dado dia,
respectivamente. A tabela a seguir d a distribuio conjunta de (X, Y ):
Y
0 1 2 3
0 0 0 0,1 0,2
1 0,2 0 0 0,1
X 2 0 0,1 0,1 0
3 0 0,1 0 0
4 0 0 0,1 0
(a) Determine a probabilidade que mais peas sejam produzidas pela linha 2.
Exemplo 4.8.5: Suponha que um vetor aleatrio bidimensional (X, Y ) tenha densidade
conjunta dada por:
xy
x2 + se 0 x 1 e 0 y 2,
fX,Y (x, y) = 3
0 , caso contrrio.
P ([X B] A)
P (X B|A) = ,
P (A)
para B boreliano. Pode-se vericar facilmente que isto dene uma probabilidade nos borelia-
nos vericando-se os axiomas de Kolmogorov. Podemos interpretar a distribuio condicional
de X dado A como a nova distribuio que se atribui a X quando sabe-se da ocorrncia do
evento A. A funo de distribuio associada distribuio condicional chamada funo
distribuio condicional de X dado A:
FX (x|A) = P (X x|A).
e
X
FX (x) = P (X x) = P (An )P (X x|An )
n
X
= P (An )FX (x|An ), x.
n
P (X B|Y = yn ) = P (X B|An ),
P (X x, y < Y y + )
P (X x|y < Y y + ) = (4.2)
P (y < Y y + )
Z x Z y+
P (X x, y < Y y + ) = fX,Y (s, t)dtds.
y
Similarmente,
P (y < Y y + ) 2fY (y).
Portanto, Z x
fX,Y (s, y)
P (X x|Y = y) = ds,
fY (y)
desde que fY (y) > 0.
Dene-se a funo de distribuio acumulada condicional de X dado Y , FX|Y (x|y), por
P (X x|Y = y). Deste modo, o resultado acima nos permite armar que neste caso a
f (x,y)
densidade condicional, fX|Y (x|y), de X dado Y dada por X,Y fY (y)
, desde que fY (y) > 0
e y no seja ponto de descontinuidade de fY . Nos casos em que y um zero ou um ponto
de descontinuidade de fY (y), adotaremos a conveno que a densidade condicional igual a
zero nestes pontos.
Exemplo 4.8.7: Considere novamente o vetor aleatrio bidimensional (X, Y ) que tem
densidade conjunta dada por:
2 xy
x + 3 se 0 x 1 e 0 y 2,
fX,Y (x, y) =
0 , caso contrrio.
O prximo teorema estabelece trs critrios para provar que um conjunto de variveis
aleatrias mutuamente independente.
P (X A|Y B) = P (X A),
Conseqentemente,
P (Y = 1) = 1 P (Y = 1) = 2/3.
Podemos estender este resultado para uma funo de um vetor aleatrio X ~ de forma
~ ~ ~ tal que
anloga. Neste caso se Y = H(X), denotemos por ~xi1 , ~xi2 , ~xi3 , . . . os valores de X
H(~xij ) = ~yi para todo j . Ento, temos que
X
X
P (Y~ = ~yi ) = P (X
~ {~xi1 , ~xi2 , ~xi3 , . . .}) = ~ = ~xij ) =
P (X pX~ (~xij ),
j=1 j=1
P (Y y) = P ( log(X) y) = P (X ey ) = 1 ey ,
ou seja, Y Exp(1).
51
CAPTULO 5. ESPERANA E MOMENTOS 52
Denio 5.1.1: Se X uma varivel aleatria discreta assumindo valores {x1 , x2 , x3 , . . .}
com probabilidade {p1 , p2 , p3 , . . .}, respectivamente, ento sua esperana dada pela frmula
X X
EX = xi pi + xi p i ,
i:xi <0 i:xi 0
desde que pelo menos um dos somatrios seja nito. Em caso os dois somatrios no sejam
nitos, a esperana no existe. Caso EX seja nita, diz-se que X integrvel.
Note ento que muitas variveis aleatrias diferentes podem ter o mesmo valor esperado
ou esperana. ( s variar o valor de a no exemplo anterior.)
Exemplo 5.1.4: Aleatria. Se X {1, 2, . . . , n} for uma varivel aleatria com distri-
buio de probabilidade aleatria com parmetro n, temos que sua esperana dada por:
n
X n
X n
1 1X 1 n(n + 1) n+1
EX = kp(k) = k = k= = .
k=1 k
n n k n 2 2
Onde utilizamos a frmula da soma dos primeiros n termos de uma progresso aritmtica. Em
geral, se X for uma varivel aleatria com distribuio de probabilidade aleatria assumindo
os valores {x1 , x2 , . . . , xn }, ento:
n
1X
EX = xi .
n i=1
Exemplo 5.1.5: Bernoulli. Se X {0, 1} for uma varivel aleatria com distribuio de
probabilidade Bernoulli com parmetro p, temos que sua esperana dada por:
EX = 0(1 p) + 1(p) = p.
Exemplo 5.1.6: Binomial. Se X for uma varivel aleatria com distribuio de probabi-
lidade Binomial com parmetros n e p, temos que sua esperana dada por:
Xn X n
n k nk n!
EX = k p (1 p) = k pk (1 p)nk
k=0
k k=1
k!(n k)!
Xn Xn
(n 1)! k nk n 1 k1
n p (1 p) = np p (1 p)nk = np.
k=1
(k 1)!(n k)! k=1
k1
desde que pelo menos uma das integrais seja nita. Em caso as duas integrais no sejam
nitas, a esperana no existe. Caso EX seja nita, diz-se que X integrvel.
Deve-se observar a analogia entre o valor esperado de uma varivel aleatria e o conceito
de centro de gravidade em Mecnica. Se um objeto tem massa distribuda sobre Pa reta, em
pontos discretos, x1 , x2 , . . ., e se p(xi ) for a massa do ponto xi , ento vemos que
i=1 xi p(xi )
representa o centro de gravidade do objeto em relao a origem. Similarmente, se um objeto
tem massa distribuda
R continuamente sobre uma reta, e se f (x) representar a densidade de
massa em x, ento xf (x)dx determina o centro de gravidade deste objeto. Ento, pode-
mos interpretar a esperana de uma varivel aleatria X como sendo o centro da distribuio
de probabilidade de X .
Considere o seguinte exemplo:
Exemplo 5.1.8: Uniforme. Se X U (a, b), ento X possui densidade igual a f (x) = 1
ba
se x (a, b), e f (x) = 0, caso contrrio. Logo, temos que sua esperana dada por:
Z b
x a+b
EX = dx = .
a ba 2
Denio 5.2.1: Seja X uma varivel aleatria discreta e seja Y = H(X). Se Y assumir
os seguintes valores y1 , y2 , . . . e se p(yi ) = P (Y = yi ), denimos:
X
EY = yi p(yi ).
i=1
Exemplo 5.2.3: Suponha que X uma varivel aleatria tal que P (K = k) = e k! , para
k
Teorema 5.2.4: Seja X uma varivel aleatria contnua, Y = (X) uma outra varivel
aleatria, ento Z Z
EY = yfY (y)dy = (x)fX (x)dx,
Prova: Omitida.
Uma frmula anloga tambm vlida quando consideramos funes de vetores aleat-
rios.
Exemplo 5.2.6: Suponha que X seja uma varivel aleatria com densidade dada por:
ex
2
se x 0,
f (x) = ex
2
se x > 0.
Obviamente, o lucro L(x) depende do valor de k . Se k 3, ento L(x) = 200k , para todo x
R6
entre 3 e 6, logo EZ = 13 3 200kdx = 200k . Se k 6, ento L(x) = 250x 50k , para todo
x entre 3 e 6, logo
Z
1 6 1 1
EZ = (250x 50k)dx = (125x2 50kx)|63 = (3375 150k).
3 3 3 3
Note que para k 3, o lucro esperado crescente em k , e que para k 6 o lucro esperado
decresce com k . Na regio, 3 < k < 6, temos que o lucro esperado uma parbola que atinge
o mximo para k = 5,4. Como o nmero de equipamentos fabricados tem que ser inteiro
ento o mximo deve ocorrer ou em k = 5 ou em k = 6, comparando estes valores temos
que, se k = 5, ento EZ = 833,33; e se k = 6, ento EZ = 825. Portanto, o fabricante deve
produzir 5 equipamentos por dia para maximizar seu lucro esperado.
1. P (X = c) = 1 EX = c.
2. P (X 0) = 1 EX 0.
3. E(aX) = aEX , onde a um nmero real qualquer. Esta propriedade segue facilmente
da expresso da esperana de uma funo de varivel aleatria.
P (X Y ) = P (X Y 0),
o que, pela propriedade 2, implica que E(X Y ) 0. Pela propriedade 4, temos que
E(X Y ) = EX + E(Y ). Finalmente, pela propriedade 3, temos que E(X Y ) =
EX EY , ou seja podemos concluir que EX EY 0.
5.4 Momentos
Momentos do informaes parciais sobre a medida de probabilidade P , a funo de distri-
buio acumulada, ou a funo probabilidade de massa de uma varivel aleatria discreta
1 Como assumimos que EX bem denida, segue da linearidade que EY = EX
R0 R a tambm bem
denida, donde conclumos que pelo menos uma das integrais yfY (y)dy ou 0 yfY (y)dy nita, e
como fY (y) par estas integrais tem mesmo mdulo mas sinais contrrios, o que nos permite armar que a
integral sobre toda reta nula.
Na seo anterior, vimos que o segundo momento de uma varivel aleatria Poisson com
parmetro dado por: 2 + . Vamos agora calcular o segundo momento de uma varivel
aleatria X Binomial com parmetros n e p:
Xn n
X
2 2 n k nk n!
EX = k p (1 p) = k2 pk (1 p)nk =
k=0
k k!(n k)!
k=1
n
X Xn
n! n!
k(k 1) pk (1 p)nk + k pk (1 p)nk
k=1
k!(n k)! k=1
k!(n k)!
n
X
2 (n 2)!
n(n 1)p pk2 (1 p)nk + np
k=2
(k 2)!(n k)!
m
X
2 (m)!
= n(n 1)p pj (1 p)mj + np = n(n 1)p2 + np.
j=0
(j)!(m j)!
Pode-se provar que momentos de ordem superiores nitos implicam momentos de ordem
inferiores nitos.
Note que o primeiro momento central zero, pois E(X EX) = EX EEX = EX
EX = 0. O segundo momento central conhecido como varincia e denota-se por V arX .
A varincia pode ser tambm calculada por:
e n
X n
n n
EX = E(X EX + EX) = (EX)nk E(X EX)k .
k=0
k
Como um corolrio, temos que o n-simo momento central existe se, e somente se, o
n-simo momento existe.
Propriedades da Varincia
As seguintes propriedades da varincia so conseqncias imediatas de sua denio.
1. V arX 0.
2. Se X = c, V ar(X) = 0.
Prova: Temos que EX = c, logo V ar(X) = E(X c)2 = E(0) = 0.
Corolrio 5.4.7: Seja X uma varivel aleatria, ento para todo > 0, P (|X| )
E|X|
.
Portanto, P (Z = 0) = 1 P (Z > 0) = 1.
Note que este ltimo corolrio implica que, quando V ar(X) = 0, ou seja E(XEX)2 =
0, temos que P (X = EX) = 1, ou seja X constante com probabilidade 1.
Denio 5.5.1: A correlao entre duas variveis aleatrias X e Y dada por EXY se
esta esperana existe. A covarincia entre elas dada por Cov(X, Y ) = E[(X EX)(Y
EY )] = EXY (EX)(EY ).
Note que Cov(X, X) = V arX . Pela prova da propriedade 5 de varincia, vemos que a
seguinte relao vlida:
4(EXY )2 4EX 2 EY 2 0,
Cov(X, Y )
(X, Y ) = p .
V ar(X)V ar(Y )
Denio 5.6.1:
(a) Se (X, Y ) for uma vetor aleatrio contnuo bidimensional, dene-se o valor esperado
condicional de Y dado que X = x, como sendo
Z 0 Z
E(Y |X = x) = yfY |X (y|x)dy + yfY |X (y|x)dy,
0
(b) Se (X, Y ) for uma vetor aleatrio discreto bidimensional, dene-se o valor esperado
condicional de Y dado que X = xi , como sendo
X X
E(Y |X = xi ) = yj pY |X (yj |xi ) + yj pY |X (yj |xi ),
j:yj 0 j:yj >0
Exemplo 5.6.3: Podemos utilizar este ltimo resultado para calcular a esperana (incon-
dicional) de Y no exemplo anterior.
Z
2
EY = E[E(Y |X)] = E(X ) = x2 ex
0
Z
2 x
= x e |0 + 2 xex dx
0
Z
x
= 0 + 2(xe |0 + ex dx)
0
= 2(0 + 1) = 2.
6.1 Introduo
Neste captulo descreveremos um pouco sobre os principais modelos de variveis aleatrias
discretas.
6.2 Geomtrica.
Dizemos que X tem uma distribuio Geomtrica com parmetro , onde 0 < 1, se
X(w) {1, 2, 3, . . .} e p(k) = (1 ) k1 , para k {1, 2, 3, . . .}.
Utilizando o resultado de uma soma innita de uma Progresso Geomtrica, temos que
X
X
X
k1
p(k) = (1 ) = (1 ) k1 = 1.
k=1 k=1 k=1
Exemplo 6.2.1 : Suponha que joga-se uma moeda com probabilidade de cara igual a
0 < p < 1 independentemente at que uma coroa ocorra. Seja X o nmero de repeties
necessrias at que coroa aparea nesta seqncia, de modo que se o primeiro lanamento
for coroa temos que X = 1. Qual a probabilidade do evento X = k para k {1, 2, 3, . . .}?
Note que para que X = k necessrio que os primeiros k 1 lanamentos sejam caras
e o k -simo lanamento seja coroa, logo pela independncia dos lanamentos, temos que
P (X = k) = pk1 (1 p). Ou seja X uma varivel geomtrica com parmetro p.
Se X for uma varivel aleatria com distribuio de probabilidade Geomtrica com pa-
65
CAPTULO 6. PRINCIPAIS VARIVEIS ALEATRIAS DISCRETAS 66
rmetro , temos que sua esperana dada por:
X X
X k
EX = k(1 ) k1 = (1 ) k1
k=1 k=1 j=1
X
X
X 1
= (1 ) k1 = j1
=
j=1 k=j j=1
1
Onde utilizamos a frmula da soma innita de uma progresso geomtrica com razo .
Com um clculo similar, porm mais longo, pode-se provar que V arX = (1)2.
Exemplo 6.2.2: Suponha que X tenha uma distribuio geomtrica com parmetro .
Mostre que para quaisquer dois inteiros positivos s e t,
Mas
X
P (X > s + t) = (1 ) k1 = s+t .
k=s+t+1
s
Similarmente, temos que P (X > s) = . Portanto,
P (X r) = P (Y n).
Observe que estas duas distribuies tratam de ensaios de Bernoulli repetidos. A distri-
buio binomial surge quando lidamos com um nmero xo de ensaios e estamos interessados
no nmero de sucessos que venham a ocorrer. A distribuio binomial negativa encontrada
quando xamos o nmero de sucessos e ento registramos o nmero de ensaios necessrio.
6.4 Poisson.
Dizemos que X tem uma distribuio Poisson com parmetro , onde 0, se X(w)
k
{0, 1, . . .} e p(k) = e k! , para k {0, 1, . . .}.
Usando o resultado da expanso em srie de Taylor da funo exponencial, temos que
para todo x real,
X
x xk
e = .
k=0
k!
Utilizando este fato, temos que
X
X
X
e k k
p(k) = =e = e e = 1.
k=0 k=0
k! k=0
k!
J vimos que o segundo momento de uma varivel aleatria com distribuio Poisson()
igual a 2 + . Portanto, V arX = 2 + ()2 = .
Podemos analisar o valor mais provvel de uma distribuio de Poisson, atravs da razo
de dois valores sucessivos da funo probabilidade de massa:
pk+1
= .
pk k+1
Note que esta razo estritamente decrescente em k . Logo, {pk } sempre decrescente se
< 1, decresce aps p0 = p1 se = 1, e cresce inicialmente se > 1 e eventualmente decresce
qualquer que seja o valor de . Formalmente, um valor mais provvel de uma distribuio
de Poisson denido como k se pk +1 pk e pk 1 pk . (Note que podem existir valores
adjacentes que possuam o mesmo valor.) Mas esta condio equivalente a,
k k + 1, ou
1 k .
Note que se tomarmos k como sendo o maior inteiro menor ou igual a esta restrio
satisfeita, e portanto este um valor mais provvel desta distribuio. A Figura 6.4 nos
mostra a funo probabilidade de massa da Poisson para 3 valores de parmetros 1, 4, e 10.
Exemplo 6.4.2: Suponha que o nmero de clientes que chegam em um banco segue uma
distribuio de Poisson. Se a probabilidade de chegarem 3 clientes for o triplo da de chegarem
4 clientes em um dado perodo de 10 minutos. Determine:
(a) Qual o nmero esperado de clientes que chegam em um perodo de 1 hora neste banco?
(b) Qual o nmero mais provvel de clientes que chegam em um perodo de 1 hora neste
banco?
Onde utilizamos o fato que o somatrio igual soma da funo probabilidade de massa de
uma varivel aleatria Hipergeomtrica para todos os valores que tem probabilidade positiva,
e portanto, igual a 1. Com um clculo similar, porm mais longo, pode-se provar que
(N D)(N n)
V arX = nDN N (N 1)
.
Exemplo 6.5.1: Suponha que uma urna contm 20 bolas brancas e 10 bolas pretas. Se 4
bolas so retiradas da urna. Determine:
(a) A probabilidade de pelo menos uma bola ser branca, se as bolas so retiradas com
reposio.
Exemplo 6.5.2: Por engano 3 peas defeituosas foram misturadas com boas formando um
lote com 12 peas no total. Escolhendo ao acaso 4 dessas peas, determine a probabilidade
de encontrar:
7.1 Introduo
Neste captulo, vamos explorar alguns exemplos importantes de variveis aleatrias cont-
nuas.
73
CAPTULO 7. PRINCIPAIS VARIVEIS ALEATRIAS CONTNUAS 74
Portanto, temos que I = 1.
Historicamente, esta distribuio foi chamada de normal porque ela era amplamente
aplicada em fenmenos biolgicos e sociais que era sempre tida como a distribuio anteci-
pada ou normal. Aplicaes da distribuio normal incluem rudo trmico em resistores e em
outros sistemas fsicos que possuem um componente dissipativo; rudos de baixa-freqncia
como os em encontrados em amplicadores de baixa freqncia; e variabilidade em parme-
tros de componentes manufaturados e de organismos biolgicos (por exemplo, altura, peso,
inteligncia). (Pode parecer estranho, modelar quantidades que s assumem valores positivos
por uma distribuio normal onde valores negativos aparecem. Nestes casos o que ocorre
que os parmetros e 2 devem ser escolhidos de modo que a probabilidade da varivel
assumir um valor negativo seja aproximadamente nula de modo que a representao seja
vlida.)
A Figura 7.2 nos mostra a funo probabilidade de massa da Normal para 4 pares de
parmetros. Observe que a densidade simtrica em torno do parmetro , e quanto menor
o parmetro mais concentrada a densidade em torno deste parmetro . Pode-se provar
que os pontos e + so os pontos de inexo do grco de fX . Veremos adiante
que e 2 so iguais a esperana e a varincia da distribuio normal, respectivamente. Se
= 0 e 2 = 1 chamamos esta densidade de normal padro ou normal reduzida.
O seguinte teorema arma que transformaes lineares de variveis aleatrias com dis-
tribuio normal tambm so distribudas normalmente.
ou seja, Y N (a + b, a2 2 ).
a X b
P (a < X b) = P ( < )
b a
( ) ( )
Em especial podemos estar interessados em calcular P ( k X + k), usando o
resultado acima temos que esta probabilidade igual a (k) (k).
Da simetria em torno de zero da normal padro, temos que (s) = P (X s) = P (X
s) = 1 (s) para qualquer valor de s. Esta relao pode ser til, pois freqentemente
tabelas da distribuio normal s possuem os valores positivos de s.
Exemplo 7.2.3: Suponha que X tenha uma distribuio N (2; 0,16). Empregando a tbua
de distribuio normal, calcule as seguintes probabilidades:
(a) P (X 2,3).
Parte (b),
2,1 2 1,8 2
P (1,8 X 2,1) = ( )( ) = (0,25)(0,5) = 0,59870,3085 = 0,2902.
0,4 0,4
Exemplo 7.2.4: Um equipamento com dois terminais com uma resistncia equivalente de
1 Megohm opera em uma sala com temperatura de 300K. A voltagem trmica V que ele gera
observada na banda de 1,5GHz at 2,5GHz. Qual a probabilidade que a magnitude da
voltagem exceda 8 milivolts? Assuma que V N (0, 2 ), onde 2 = 4T RB , a constante
de Boltzman que igual a 1,38 1023 , V medido em volts, T medido em graus Kelvin,
R medido em ohms, e B medido em Hertz.
7.3 Exponencial
Dizemos que X tem uma distribuio Exponencial com parmetro , onde > 0 um
nmero real, se a funo densidade de X igual a
fX (x) = ex U (x),
onde U (x) = I[0,) (x) conhecida como funo degrau.
A Figura 7.3 mostra a funo densidade exponencial para = 0,5, = 1, e = 1,5.
A densidade exponencial pode ser utilizada para modelar os seguintes fenmenos: tempo
de vida de componentes que falham sem efeito de idade; tempo de espera entre sucessivas
chegadas de ftons, emisses de eltrons de um ctodo, ou chegadas de consumidores; e
durao de chamadas telefnicas.
Se X Exp(), ento X possui densidade igual a fX (x) = ex U (x). Logo, temos que
sua esperana dada por:
Z Z
x x ex 1
EX = xe dx = xe |0 + ex dx = | = .
0 0 0
Para o clculo da varincia, vamos calcular o segundo momento:
Z Z
2 2 x 2 x 2
EX = x e dx = x e |0 + 2 xex dx = 2 .
0 0
Portanto,
2 1 1
V arX = EX 2 (EX)2 = 2
2 = 2.
7.4 Cauchy
Dizemos que X tem uma distribuio Cauchy com parmetro x0 e > 0, se a funo
densidade de X igual a
1
fX (x) = 2 .
+ (x x0 )2
A Figura 7.4 mostra a funo densidade Cauchy para alguns pares de parmetros.
Pode-se provar que a razo entre duas variveis aleatrias com distribuio Normal padro
independentes tem uma distribuio Cauchy com parmetros x0 = 0 e = 1.
Se X Cauchy(x0 , ), ento X no integrvel, ou seja EX no est denida, pois:
Z 0
x
2 2
dx = , e
+ (x x0 )
Z
x
2 dx = .
0 + (x x0 )2
7.5 Qui-quadrado
Dizemos que X tem uma distribuio Qui-quadrado com parmetro n, onde n nmero
natural, se a funo densidade de X igual a
xn/21 ex/2
fX (x) = U (x),
2n/2 (n/2)
R
onde (p) = 0 xp1 ex dx para p > 0 a funo gama. n conhecido como nmero de
graus de liberdade da distribuio Qui-quadrado.
A Figura 7.5 mostra a funo densidade Qui-quadrado para 1, 2, 3, 4, e 5 graus de
liberdade.
82
CAPTULO 8. ANLISE EXPLORATRIA DE DADOS 83
o modelo do equipamento em questo.
Uma escala ordinal alm de classicar os resultados tambm pode ser utilizada para
estabelecer uma ordem entre as diferentes classes de possveis resultados, por exemplo,
grau de escolaridade de um indivduo, classe socio-econmica de um indivduo, posio
que um dado indivduo conclui uma certa corrida. Transformaes que preservam a
ordem no alteram a estrutura de uma classe ordinal.
Uma escala intervalar pode ser utilizada para alm de classicar e ordenar os resultados
tambm quanticar a diferena entre as classes. Nesta escala necessitamos estabelecer
uma origem arbitrria e uma unidade de medida nesta escala. Por exemplo, a tem-
peratura de um dado equipamento em funcionamento medida em graus centgrados
constitui uma medida numa escala intervalar. Considere o caso em que temos trs
equipamentos E1, E2, e E3, operando em temperaturas de 40, 45 e 80 graus cent-
grados, respectivamente. vlido armar que a diferena de temperatura entre E3
e E2 7 vezes maior que a diferena de temperatura entre E2 e E1. Contudo, neste
escala no faz sentido armar que E3 tem uma temperatura 2 vezes maior que E1,
pois lembre que a origem e a unidade de graus centgrados escolhidas so arbitrrias,
se estivssemos medindo a temperatura em graus Fahrenheits no se observaria esta
relao.
Uma escala de razo podem ser utilizada para alm de classicar e ordenar os resultados
tambm estabelecer quo maior um resultado que outro. A diferena com a escala
intervalar que agora existe um zero bem denido neste escala. A altura de um
indivduo, o tempo at ocorrncia de um dado evento, o nmero de ocorrncias de um
dado evento em um dado intervalo de tempo so exemplos de medidas que utilizam
uma escala de razo. Observe que se no caso em que temos dois equipamentos E1 e
E2 com tempo de vida til de 100h e 200h, respectivamente. vlido armar que o
tempo de vida til de E2 o dobro do tempo de vida til de E1.
Variveis Quantitativas
Para uma varivel quantitativa discreta podemos tambm utilizar um grco de barras como
no caso de variveis quantitativas, onde agora temos uma barra para cada possvel valor que a
varivel pode assumir. Tambm podemos considerar um grco de disperso unidimensional
onde desenhamos apenas pontos no plano cartesiano da forma (xi , ni ), isto , onde a abscissa
do ponto um possvel valor da varivel e a ordenada a freqncia de ocorrncia deste
valor.
Uma outra alternativa de grco para varivel quantitativa que muito til no caso de
variveis contnuas conhecida como histograma.
Para a construo de um histograma, o primeiro passo denir os intervalos contguos e
disjuntos que cubram todos os resultados observados. Uma vez denidos os intervalos, um
histograma nada mais do que um grco de barras contguas, onde a base proporcional ao
comprimento do intervalo e a rea da barra proporcional a freqncia relativa de ocorrncia
de intervalos neste dado intervalo. Logo, se o i-simo intervalo tem comprimento i e a
freqncia relativa de ocorrncia de resultados neste intervalo fi , ento a altura da barra
deve ser proporcional a fi /i , que chamada de densidade de freqncia da i-sima classe.
Com essa conveno a rea total do histograma deve ser proporcional a 1.
Exemplo 8.1.1: Duzentas baterias automotivas de uma dada marca foram testadas quanto
a sua vida til. Os resultados do teste em meses so reportados na tabela abaixo:
Durabilidade Freq. Relativa
0`3 0,02
3`6 0,05
6`9 0,15
9 ` 12 0,25
12 ` 15 0,30
15 ` 18 0,23
Soluo: (a) Para a construo do histograma note que a freqncia relativa das 5
classes so, respectivamente: 14/25, 7/25, 3/25, 3/100, e 1/100. Como cada classe tem
comprimento 6, a altura de cada barra no histograma deve ser 1/6 da freqncia relativa da
sua classe correspondente.
(b) Para o clculo da mdia, devemos utilizar a aproximao de cada classe pelo seu
ponto mdio deste modo:
Para o clculo da mediana observe que a primeira classe j contm mais de 50% das obser-
vaes, como a mediana deve ser o valor para o qual 50% dos valores so menores que a
mediana, ento podemos determinar a mediana atravs de uma proporo: o intervalo de 0
a 6 contm 56% das observaes, o intervalo de 0 at a mediana deve conter 50%, ento
md 6
= ,
50 56
portanto, md = 5,36. Como a classe de maior freqncia a primeira, temos que a moda
igual a 3.
8.1.6 Quantis
Apenas a informao da medida de posio e de disperso no nos do informao a respeito
da simetria ou assimetria da distribuio dos resultados. Os quantis so medidas que servem
para informar a este respeito. Vimos que a mediana uma medida tal que metade dos
resultados so menores e a outra metade maior que a mediana. Analogamente, podemos
denir um quantil de ordem p ou p-quantil, indicado por q(p), onde p uma proporo
qualquer, 0 < p < 1, tal que 100p% dos resultados sejam menores que q(p). Existem alguns
quantis que so usados mais freqentemente e recebem nomes particulares: q(0,25) o 1o.
quartil ou 25o. percentil; q(0,5) a mediana, 5o. decil, ou 50o. percentil; q(0,75) o terceiro
quartil ou 75o. percentil; e q(0,95) o 95o. percentil.
Por exemplo, se temos uma coleo de n resultados, como deveramos denir q(1/n)? Seja
x(1) x(2) x(n) uma reordenao dos resultados em ordem crescente, conhecida como
estatstica de ordem dos resultados. Ento, em analogia com a denio da mediana, o quantil
q(1/n) denido como sendo a mdia aritmtica entre x(1) e x(2) , de modo que exatamente
100/n% dos resultados so menores que q(1/n). Similarmente, o quantil q(2/n) denido
como sendo a mdia aritmtica entre x(2) e x(3) . Mas neste caso como q(1/n) x(2) q(2/n),
o resultado x(2) deve corresponder a um quantil q(p), onde n1 < p < n2 . Para a denio
formal dos quantis assume-se linearidade entre os quantis da forma q(m/n), para m n.
1
x(1) , se p < 2n ,
x , se 2n1
p > 2n ,
(n)
q(p) =
x (i) , se p = 2i1
2n
,
2(i1)1
x(i1) + (1 )x(i) , se p = 2n + (1 ) 2i1
2n
, onde 0 < < 1.
(b) Determine o valor da mdia, moda, mediana, desvio padro, e do 1o. e 3o. quartis
desta distribuio de dados.
(c) Com base nos valores obtidos na letra (b), voc diria que esta uma distribuio
simtrica de dados?
Logo, o desvio padro igual aproximadamente a 1,47. O primeiro quartil dado por
x(8) = 2, e o terceiro quartil dado por x(23) = 5. Com estes resultados podemos observar
que
Logo, podemos concluir que estes dados formam uma distribuio simtrica.
q(0,1) 6
= ,
10 56
logo, q(0,1) = 1,07. Para o nono decil note que as duas primeiras classes contm 84% das
observaes, e as trs primeiras contm 96% das observaes, ento o nono decil deve estar
na terceira classe e podemos determin-lo tambm por uma proporo:
q(0,9) 12 6
= ,
6 12
logo q(0,9) = 15.
Para obtermos o intervalo interquartil, precisamos encontrar o primeiro e o terceiro quartil
que podemos obter de maneira similar a parte (a).
q(0,25) 6
= ,
25 56
logo, q(0,25) = 2,68. O terceiro quartil deve estar na segunda classe, ento como a primeira
claase j contm 56% das observaes:
q(0,75) 6 6
= ,
19 28
logo, q(0,75) = 10,07. Portanto, o intervalo interquartil [2,68; 10,07].
9.1 Introduo
Quando vamos aplicar modelos probabilsticos em algum problema prtico, precisamos ter
uma informao a respeito da distribuio de probabilidade da varivel aleatria de interesse.
Existem dois processos clssicos para a obteno da distribuio de uma varivel aleatria:
eduzir uma distribuio a priori de um especialista da rea, ou inferir a distribuio a partir
de uma anlise de dados. Neste curso, no trataremos de mtodos de eduo, mas nos
concentraremos em mtodos de inferncia.
92
CAPTULO 9. DISTRIBUIES AMOSTRAIS 93
2
distribuda, com mdia e varincia desconhecidas, a populao de resistncias a trao
de um elemento estrutural de um chassi. Usualmente se refere a isso como uma populao
normal ou uma populao distribuda normalmente.
Para outro exemplo, suponha que estejamos interessados em investigar se uma dada
moeda honesta e para isso ns lanamos a moeda 50 vezes. Neste caso, a populao pode
ser considerada como sendo a distribuio de uma varivel aleatria X que assume o valor
1, se ocorrer cara, e 0 em caso contrrio, e tem distribuio Bernoulli com parmetro p
desconhecido. A amostra ser a seqencia binria de comprimento 50.
Observe que neste dois ltimos caso a populao foi especicada como sendo uma distri-
buio de uma varivel aleatria X que modela a caracterstica de interesse. Este artifcio
exige a proposta de um modelo para a varivel X . Neste caso, comum usar expresses a
populao f (x) ou a populao das resistncias X N (, 2 ).
Denio 9.3.1: Uma amostra aleatria simples de tamanho n de uma populao mode-
lada por uma varivel aleatria X , com uma dada distribuio, um conjunto de n variveis
aleatrias independentes X1 , X2 , . . . , Xn , cada uma com a mesma distribuio de X .
Exemplo 9.5.1: Suponha que retiramos com reposio todas as amostras de tamanho
2 da populao {1, 3, 5, 5, 7}. A distribuio conjunta da amostra (X1 , X2 ) dada por:
1 3 5 7
1 1/25 1/25 2/25 1/25
3 1/25 1/25 2/25 1/25 Vamos calcular ento a distribuio da mdia amostral. Por
5 2/25 2/25 4/25 2/25
7 1/25 1/25 2/25 1/25
exemplo, P (X = 3) = P (X1 = 1, X2 = 5) + P (X1 = X2 = 3) + P (X1 = 5, X2 =
1) = 5/25. Similarmente, os demais valores podem ser obtidos conforme tabela a seguir:
x 1 2 3 4 5 6 7
P (X = x) 1/25 2/25 5/25 6/25 6/25 4/25 1/25
Exemplo 9.5.2: No caso do lanamento de uma moeda 50 vezes, usando como estatstica
X o nmero de caras obtidas, a distribuio amostral desta estatstica uma binomial com
parmetros n = 50 e p, onde p a probabilidade de cara em um lanamento qualquer desta
moeda. Se estivermos interessados em saber se esta moeda honesta, ou seja, em checar
se p = 0,5, e soubermos que em 50 lanamentos ocorreram 36 caras podemos calcular que
P0,5 (X 36) = 0, 0013, ou seja, se a moeda for honesta, ento a probabilidade de se obterem
36 ou mais caras igual a 0,0013, ento existe evidncia que p deve ser diferente de 0,5. Por
outro lado, se obtivermos 29 caras, obtemos que P0,5 (X 29) = 0, 1611, ento se a moeda
for honesta aproximadamente 1/6 das vezes observa-se um valor maior ou igual a 29, ento
no temos dados sucientes para descartar a hiptese que a moeda seja honesta neste caso.
1 2
V ar(X) = (V arX 1 + V arX 2 + + V arX n ) = .
n2 n
Note que conforme n vai aumentando a distribuio de X tende a car mais concentrada
em torno de sua mdia , pois sua varincia vai diminuindo. Alm disso, o prximo teorema
nos d uma informao mais detalhada para a distribuio amostral da mdia para valores
grandes de n. Este teorema conhecido como Teorema do Limite Central.
Teorema 9.5.5: Para amostras aleatrias simples (X1 , X2 , . . . , Xn ), retiradas de uma po-
pulao com mdia e varincia 2 nita, a distribuio amostral da mdia X aproxima-se,
para n grande, de uma distribuio normal, com mdia e varincia 2 /n., ou seja, se
F X for a funo de distribuio acumulada de X 2
, temos que x IR
2 /n
/n
Exemplo 9.5.6: Suponha que uma mquina est regulada para produzir lmpadas com
tempo de vida til mdio de 10.000horas. De uma amostra de 50 lmpadas produzidas por
esta mquina, verica-se o tempo de vida til de cada uma delas. Determine a probabilidade
de que o tempo de vida til mdio seja menor ou igual a 8.000horas.
Soluo: Sabe-se que o tempo de vida til de uma lmpada distribudo de acordo com
uma Exponencial. Portanto, como o tempo de vida til mdio de 10.000horas, temos que
Exemplo 9.5.7: Suponha que uma mquina est regulada para produzir lmpadas de modo
que 10% delas tenham tempo de vida til menor ou igual a 1.000horas. De uma amostra
de 50 lmpadas produzidas por esta mquina, qual a probabilidades de encontrarmos no
mximo 90% com tempo de vida til maior que 1.000 horas.
Soluo: Como temos uma amostra maior que 30, podemos utilizar o TCL para armar
que a proporo amostral tem uma distribuio N (0,1, (0,1)(0,9)
50
). Portanto,
P (1 p 0,9) = P (
p 0,1) = P (Z 0) = 0,5.
A mdia amostral X .
1
Pn
A varincia amostral S 2 = n1 i=1 (Xi X)2 .
100
CAPTULO 10. ESTIMAO 101
A diferena nas propores amostrais p1
p2 de duas amostras aleatrias independentes.
Exemplo 10.1.1 : Suponha que desejassemos comprar um rie e para tanto podemos
testar quatro opes de ries A, B, C, e D. Para tanto, podemos executar 15 tiros a um
alvo com cada um deles. Para chegarmos a concluso de qual a melhor arma, precisamos
de alguns critrios. Quanto a qualidade da arma, poderamos denir trs critrios, o critrio
da acurcia que mede a proximidade de cada observao do valor do alvo que se procura
atingir, o critrio da preciso que mede a proximidade de cada observao da mdia de todas
as observaes, e o critrio do vis que mede a proximidade da mdia de todas as observaes
do valor do alvo que se procura atingir.
Exemplo
P 10.2.3: Considere uma populao com N elementos, com mdia populacional
1 N
= N i=1 Xi , e varincia populacional
N
2 1 X
= (Xi )2 .
N i=1
Portanto,
n
21 X
)= (
E( E(Xi )2 nE(X )2 )
n i=1
n
1 X
= ( V ar(Xi ) nV ar(X))
n i=1
1 2 n1 2
= (n 2 n ) = .
n n n
2
2 igual a n1
Logo, o vis de n
2 2 = n
2 em geral subestima
. Portanto, o estimador
2
o verdadeiro parmetro . Por outro lado, o vis diminui com n tendendo a zero quando n
n
tende a innito. fcil ver que S 2 = n1 2 um estimador no-viesado para 2 . Portanto,
a varincia de uma amostra de tamanho n dada por S 2 , onde o denominador igual a
n 1, enquanto que a varincia de uma populao de tamanho N dada por 2 , onde o
denominador igual a N .
O segundo critrio que iremos analisar o critrio da consistncia de um estimador.
Intuitivamente, temos que um estimador consistente se quando aumentamos o tamanho
da amostra n, a probabilidade de que este dira do parmetro por mais que qualquer erro
pre-especicado > 0 tende a zero. Formalmente,
Denio 10.2.4: Uma seqncia {Tn } de estimadores de um parmetro consistente
se, para todo > 0,
lim P (|Tn | > ) = 0.
n
Teorema 10.2.6: Se {Tn } uma seqncia de estimadores de tal que limn E(Tn ) =
e limn V ar(Tn ) = 0, ento {Tn } consistente.
Prova: Note que pela desigualdade triangular, se |Tn | > , ento |ETn | >
2
ou
|Tn ETn | > 2
. Portanto,
P (|Tn | > ) P (|ETn | > ) + P (|Tn ETn | > ).
2 2
Logo, pela desigualdade de Chebyshevy
4V ar(Tn )
P (|Tn | > ) P (|ETn | > ) + .
2 2
Ento tomando os limites quando n , temos que
4V ar(Tn )
lim P (|Tn | > ) lim P (|ETn | > ) + lim = 0.
n n 2 n 2
Portanto, {Tn } consistente.
Note que se Tn for um estimador no-viesado, ento obviamente limn E(Tn ) = , e
portanto se a varincia do estimador Tn tender a zero, ele um estimador consistente.
Finalmente, podemos considerar o critrio do erro quadrtico mdio para comparar esti-
madores. Denomina-se de erro amostral de um estimador T para um parmetro a diferena
e = T . Note o erro amostral uma v.a. pois uma funo de T que uma v.a., alm
disso note que o vis de T igual a esperana do erro amostral.
Vemos ento que o erro quadrtico mdio leva em considerao tanto o vis V do estimador
como sua variabilidade medida atravs de V ar(T ). Segundo este critrio o estimador to
melhor quanto menor for seu erro quadrtico mdio.
P (L U ) = ,
1)/2)/ n, que uma constante que independe de X . Note que com esta frmula, dado uma
amplitude desejada L, podemos determinar o tamanho da amostra necessria para atingir
um nvel de conana desejado em um intervalo com amplitude L.
Para amostras provenientes de uma populao normal ou para amostras de tamanho
n 30, independente da forma da populao, o intervalo fornecer bons resultados. Caso
contrrio, no podemos esperar que o nvel de conana seja exato.
Podemos tambm obter intervalos de conana unilaterais para , neste caso sabemos
que
n(X )
P (Z = 1 ()) = .
Rearrumando a desigualdade, temos:
P ( X + 1 ()/ n) = .
Deste modo, temos que (, X + 1 ()/ n] um intervalo unilateral superior com
1
100% de conana para . Analogamente, podemos obter que [X ()/ n, ) um
intervalo unilateral inferior com 100% de conana para .
Exemplo 10.3.1: Suponha que temos uma populao com distribuio Bernoulli(p). Por
exemplo, p pode representar a probabilidade de um determinado tipo de capacitor ser produ-
zido com defeito por uma determinada fbrica. Dada uma amostra aleatria X1 , X2 , . . . , Xn
de tamanho n da produo de capacitores desta fbrica, podemos estimar um intervalo de
conana bilateral para p. Note que a varincia da populao dada por p(1 p). Portanto,
sendo p a proporo de capacitores com defeito na amostra,
q como 2 = p(1 p), oqresultado
anterior nos leva a armar que [p 1 (( + 1)/2) p(1p)
n
, p + 1 (( + 1)/2) p(1p)
n
]
um intervalo com 100% de conana para p. Como no conhecemos p, podemos proceder
de duas
q maneiras: (1) utilizar q
o fato que p(1 p) 1/4, obtendo o intervalo [p 1 (( +
1 1
1)/2) 4n
1 (( + 1)/2) 4n
, p + ], ou (2) utilizar p como estimativa para p, obtendo o in-
q q
p 1 (( + 1)/2) p(1
tervalo [ n
p)
, p
+ 1
(( + 1)/2) p(1
n
p)
]. O primeiro mtodo sempre
correto, porm muito conservador pois em geral p(1 p) pode ser bem menor que 1/4, e
ento estamos propondo um intervalo com amplitude maior que a necessria. O segundo
mtodo vlido desde que np e n(1 p) sejam maiores que 5, pois caso contrrio, se for pe-
queno a distribuio normal no poder mais ser usada e teremos que utilizar a distribuio
binomial.
Exemplo 10.3.2: O comprimento dos eixos produzidos por uma empresa tem aproxima-
damente uma distribuio normal com desvio padro de 4cm. Uma amostra com 16 eixos
forneceu uma mdia de 4,52cm.
(b) Com que probabilidade podemos armar que o comprimento mdio desta amostra no
difere da mdia por mais de 0,5cm?
Exemplo 10.3.3: Uma amostra de 400 domiclios mostra que 25% deles so de casas
alugadas. Qual o intervalo de conana para o nmero de casas alugadas numa cidade
supondo que ela tem 20.000 casas? Considere um coeciente de conana de 98%.
Soluo: Podemos primeiro determinar o intervalo de conana para a proporo de
casas alugadas. Neste caso, ento temos p = 0,25, n = 400, e = 0,98. Utilizando p(1 p)
como uma estimativa para a varincia p(1 p), temos que o intervalo de conana para a
populao :
r r
1 0,25(0,75) 1 0,25(0,75)
[0,25 (0,99) , 0,25 + (0,99) ]
400 400
Ento, o intervalo de conana para o nmero de casas alugadas dado por:
r r
0,25(0,75) 0,25(0,75)
[20.000(0,25 1 (0,99) ), 20.000(0,25 + 1 (0,99) )]
400 400
= [5.000 1.006,75, 5.000 + 1006,75] = [3.993,25, 6006,75].
Exemplo 10.3.4: Uma pesquisa sobre renda familiar foi realizada entre as famlias que
tem rendimento de at 5 salrios mnimos. Sabe-se que o desvio padro populacional de
1,2. Uma amostra de 200 famlias foram selecionadas e seus resultados aparecem na tabela
Rendimento Freqncia
1 90
2 50
abaixo:
3 30
4 20
5 10
(a) Estime, com 95% de conabilidade, o intervalo de conana para a mdia de renda
familiar desta populao.
(b) Estime a proporo real de famlias que tem rendimento de at 2 salrios mnimos,
com 95% de conabilidade.
Denio 11.1.1: Uma hiptese estatstica uma armao sobre os parmetros de uma
ou mais populaes.
109
CAPTULO 11. TESTES DE HIPTESE 110
originada de conhecimento experincia a priori da populao em estudo, de testes ou expe-
rimentos anteriores; pode ter sido determinado de alguma teoria ou modelo da populao
em estudo; ou pode surgir de consideraes exgenas, por exemplo, parmetros que devem
obedecer certos critrios de controle de qualidade.
Estabelecidas as hipteses nulas e alternativas, a informao contida na amostra anali-
sada para vericar se a hiptese nula consistente com esta informao. Caso seja, conclui-se
que a hiptese nula verdadeira, caso contrrio, conclui-se que a hiptese falsa, o que im-
plicar na aceitao da hiptese alternativa. Porm, note que para sabermos com certeza
se a hiptese nula ou no verdadeira, precisaramos analisar toda a populao, o que na
prtica freqentemente impossvel. Portanto, todo procedimento de testes de hipteses
tem alguma probabilidade de erro associada.
Para ilustrar alguns conceitos, considere o exemplo descrito anteriormente, ou seja, H0 :
= 220v e H1 : = 240v . Suponha que n medidas na tenso da tomada sejam feitas e que a
mdia dos valores obtidos nesta amostra x seja observada. Como vimos, x uma estimativa
para o valor de , logo se obtivermos um valor de x prximo a 220v , temos uma evidncia que
a hiptese nula verdadeira. Precisa-se ento estabelecer uma regio de valores, conhecida
como regio de aceitao tal que se x cair nesta regio iremos aceitar a hiptese nula, e se x
cair fora dessa regio, ou seja, na regio conhecida como regio crtica (RC), iremos aceitar a
hiptese alternativa. Por exemplo, poderamos considerar a regio de aceitao como sendo
o intervalo (, 230]. Os limites da regio de aceitao so chamados de valores crticos.
Esse procedimento de deciso pode acarretar um de dois tipos de erros diferentes. O
primeiro, conhecido como erro tipo I ocorre quando a tenso mdia na tomada realmente
220v , mas por chance o conjunto de medidas aleatrios que obtivemos nos levou a obter um
valor de x na regio crtica. Ou seja, um erro do tipo 1 ocorre quando rejeitamos a hiptese
nula quando na verdade ela verdadeira. O segundo, conhecido como erro do tipo II ocorre
quando apesar da hiptese nula ser falsa, a mdia das medidas de tenso obtidas cai na
regio de aceitao. Ou seja, um erro do tipo II ocorre sempre que aceitamos a hiptese nula
apesar dela ser falsa.
A probabilidade de ocorrncia de um erro tipo I chamada de nvel de signicncia,
tamanho do teste, ou ainda, p-valor do teste, e denotada por . O poder de um teste
igual a probabilidade de rejeitarmos a hiptese nula quando ela realmente falsa. Note que
o poder do teste igual a 1 menos a probabilidade de ocorrncia de um erro do tipo II, que
usualmente denotada por .
Quando H0 for verdadeira, isto , a tenso for realmente de 220v , sabemos do TCL que
2
X N (220, n ). Ento, podemos determinar o nvel de signicncia do teste:
2
= P (erro I) = P (X > 230|X N (220, ))
n
n(X 220) n(230 220)
= P( > )
Se soubermos que a varincia da tenso na tomada 64v 2 , e tivermos uma amostra de 4
medidas do valor de tenso, podemos obter:
2(10)
= P (Z > ) = P (Z > 2,5) = 0, 0062.
8
2(X 220)
0,01 = = P (Z > 2,325) = P ( > 2,325) = P (X > 229,3).
8
Para a regio crtica (229,3, ), podemos determinar o valor de para esta regio.
2(X 220)
0,01 = = P (|Z| > 2,575) = P (| | > 2,575) = 1 P (209,7 X 230,3).
8
Deste modo, determinamos a regio de aceitao [209,7; 230,3] de modo que o nvel de
signicncia de 0,01 seja satisfeito. Mesmo determinada esta regra de deciso, no poderemos
determinar , pois no existe um nico valor de na hiptese alternativa. Neste caso,
poderemos considerar uma funo (), conhecida como funo caracterstica de operao.
Na construo das hipteses, sempre estabeleceremos a hiptese nula como uma igual-
dade, de modo que o analista pode controlar , ao estabelecer uma regio crtica para o teste.
Ento o analista, pode controlar diretamente a probabilidade de rejeitar erroneamente H0 ,
ento a rejeio da hiptese nula uma concluso forte. Note que quanto menor o valor de
, ao rejeitarmos a hiptese nula, estaremos cada vez mais seguros da hiptese alternativa,
portanto maior ser a signicncia da nossa concluso. Por isso, chamado de nvel de
signicncia do teste. Por outro lado, no constante, mas depende do verdadeiro valor
do parmetro, por este motivo a aceitao de H0 tida como uma concluso fraca, a no
ser que saiba-se que aceitavelmente pequena. Ento, a nomenclatura mais correta seria
ao invs de dizermos aceitamos H0 deveramos dizer a amostra no apresentou evidncia
suciente para rejeitarmos H0 . Neste ltimo caso, no necessariamente arma-se que existe
uma alta probabilidade de que H0 seja verdadeira, isto pode signicar apenas que mais dados
so necessrios para atingirmos uma concluso forte.
Na determinao de quem a hiptese nula, devemos adotar como H0 aquela hiptese,
que se rejeitada erroneamente, conduza a um erro mais importante de se evitar, pois esta
probabilidade de erro controlvel. Ento, por exemplo, se estivermos interessados em
saber se um novo medicamento ecaz no combate a uma doena, a hiptese nula seria
que ele no ecaz, pois os danos causados por usarmos um remdio no ecaz so maiores
que se deixssemos de usar um remdio que seria ecaz. Ou ainda, se desejamos saber se
certa substncia radioativa, ento a hiptese nula seria que ela radioativa, pois os danos
causados pela manipulao radioativa so maiores que se deixssemos de manipular uma
substncia por acharmos falsamente que ela radioativa. Como a rejeio da hiptese nula
que uma concluso forte, escolhe-se como H1 a hiptese que se deseja comprovar. Por
exemplo, no caso do novo medicamento H1 ser a hiptese que o novo medicamento melhor
que os existentes.
4. Determine .
6. Use os dados da amostra para determinar o valor do estimador, ou seja, uma estimativa
para o parmetro.
Exemplo 11.4.1: O McDonald's pretende instalar uma nova lanchonete se no local tran-
sitarem no mnimo 200 carros por hora durante certos perodos do dia. Para 20 horas
selecionadas aleatoriamente durante tais perodos, o nmero mdio de carros que transita-
ram pelo lugar foi de 208,5 com desvio padro de 30,0. O gerente assume a hiptese de que
o volume de carro no satisfaz a exigncia de 200 ou mais carros por hora. Para um nvel
de signicncia de 5% esta hiptese pode ser rejeitada?
Soluo: Neste caso, temos que a hiptese nula dada por H0 : = 200 e a hiptese
alternativa H1 : > 200. Como a amostra pequena (<30) e a varincia da populao
Exemplo 11.4.2: Num estudo sobre resistncia de um dado material, com distribuio
normal, foi coletada uma amostra de 25 unidades, resultando num valor mdio de 230,4Kg
e desvio-padro de 100Kg. O estudo est interessado em saber se essa amostra suciente
para garantir ao nvel de signicncia de 5% que a resistncia mdia do material seja superior
a 200Kg. Qual a sua concluso?
Soluo: O estudo quer realizar o seguinte teste: H0 : = 200 contra H1 : > 200.
Como a varincia desconhecida e a amostra menor que 30, devemos utilizar o teste t de
student. Neste caso, a regio de aceitao
100
(, 200 + (0, 95, 24) ] = (, 234,2].
25
Logo, a amostra no grande o suciente para garantirmos que a resistncia mdia maior
que 200 ao nvel de signicncia de 5%.
Temos ento que rejeitaremos a hiptese H0 se o p-valor for bastante pequeno. A tabela
a seguir ilustra a escala de evidncias de Fisher contra a hiptese H0 :
p-valor 0,1 0,05 0,025 0,001 0,005 0,001
Natureza da
Evidncia marginal moderada substancial forte muito forte fortssima
Livros Textos:
1. Meyer, P. (1983), Probabilidade - Aplicaes Estatstica, 2a. edio, Livros Tcni-
cos e Cientcos Editora, Rio de Janeiro.
2. Bussab, W. & Moretin, P. (2002), Estatstica Bsica, 5a. edio, Saraiva, So Paulo.
Livros Suplementares:
1. Davenport Jr., W. (1987), "Probability and Random Processes - an introduction for
applied scientists and engineers", McGraw-Hill Book Company Inc.
119