Ribeirão Preto
2010
Sumário
3
4 SUMÁRIO
Probabilidade - Primeiros
Conceitos
7
8 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
Pergunta ao leitor: qual foi a estrutura matemática que usamos nessa definição?
A = {x|x = 2 · k, k = 1, 2, . . .}
(a, b) = (c, d) ⇔ a = c e b = d.
Observações:
A × B = {(1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3, 4)}.
Ω4 = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
1.2. CONJUNTOS E SUAS RELAÇÕES 11
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)}.
A = {2, 4, 6}.
Vamos considerar o evento A= ”não sair mais do que uma cara (H) nos lançamentos”,
A = {T T T, T HT, HT T, T T H}.
A ∪ B = {ω ∈ Ω : ω ∈ A ou ω ∈ B ou (ω ∈ A e ω ∈ B)}.
n
[
• Seja A1 , A2 , . . . , An uma sequência finita de eventos, então Ai
i=1
representa a união desses eventos, e corresponde ao evento em que
ao menos um dos Ai ocorre.
∞
[
• Seja A1 , A2 , . . . uma sequência infinita de eventos, temos que Ai
i=1
representa a união desses eventos, e corresponde ao evento em que
pelo menos um dos Ai ocorre.
e
B = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
Logo
A ∪ B = {(1, 4), (2, 3), (3, 2), (4, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
A ∩ B = {ω ∈ Ω : ω ∈ A e ω ∈ B}.
1.2. CONJUNTOS E SUAS RELAÇÕES 13
n
\
• Seja A1 , A2 , . . . , An uma sequência finita de eventos , então Ai
i=1
representa a intersecção desses eventos e corresponde ao evento em
que todos os Ai ocorrem.
∞
\
• Para uma sequência infinita de eventos A1 , A2 , . . ., temos que Ai
i=1
representa a intersecção desses eventos e corresponde ao evento em
que todos os Ai ocorrem.
Ω = {AO, 2O, 3O, 4O, 5O, 6O, 7O, 8O, 9O, 10O, QO, JO, KO,
AC, 2C, 3C, 4C, 5C, 6C, 7C, 8C, 9C, 10C, QC, JC, KC,
AE, 2E, 3E, 4E, 5E, 6E, 7E, 8E, 9E, 10E, QE, JE, KE,
AP, 2P, 3P, 4P, 5P, 6P, 7P, 8P, 9P, 10P, QP, JP, KP }
B = {AC, 2C, 3C, 4C, 5C, 6C, 7C, 8C, 9C, 10C, JC, QC, KC,
AO, 2O, 3O, 4O, 5O, 6O, 7O, 8O, 9O, 10O, JO, QO, KO}.
14 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
Ac = {ω ∈ Ω : ω 6∈ A}.
A = {(1, 1), (1, 2), (1, 3), (1, 5), (2, 1), (2, 2), (2, 3), (2, 5),
(3, 1), (3, 2), (3, 3), (3, 5), (5, 1), (5, 2), (5, 3), (5, 5)}.
Chamamos de B o evento sair números ı́mpares nos dois lançamentos,
logo
B = {(1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5)}
e
A − B = {(1, 2), (2, 1), (2, 2), (2, 3), (2, 5), (3, 2), (5, 2)}.
Seja B o evento em que saem números pares ou números iguais, tais que
somam 6,
B = {(2, 4), (4, 2), (3, 3)}.
A ∩ B = ∅.
A = B ⇔ A ⊆ B e B ⊆ A.
1) Ωc = ∅.
Prova: Temos que provar que Ωc ⊂ ∅ e que ∅ ⊂ Ωc . Nesse tipo de prova
costumamos tomar um elemento genérico de um dos conjuntos e mostrar
que ele pertence ao outro conjunto. Vamos chamar esse elemento de ω.
16 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
ω ∈ Ωc ⇒ ω 6∈ Ω ⇒ ω ∈ ∅.
2) (Ω ∪ A) = Ω.
Prova: Temos que provar que (Ω ∪ A) ⊂ Ω e Ω ⊂ (Ω ∪ A). Primeiramente
vamos provar que (Ω ∪ A) ⊂ Ω. Tomamos ω pertencente a (Ω ∪ A),
que representamos por ω ∈ (Ω ∪ A), que implica pela relação de união
de conjuntos que ω pertence a A ou ω pertence a B. Na simbologia
matemática, temos que:
ω ∈ (Ω ∪ A) ⇒ ω ∈ Ω ou ω ∈ A.
A ⊂ (Ω ∪ A) e Ω ⊂ (Ω ∪ A).
3) (Ω ∩ A) = A.
Prova: Temos que provar que (Ω ∩ A) ⊂ A e A ⊂ (Ω ∩ A). Vamos
primeiro provar que (Ω ∩ A) ⊂ A. Nesse caso, vamos tomar ω ∈ (Ω ∩ A),
que implica pela, relação de interseção de conjuntos, que ω pertence a Ω
e ω pertence a A. Em sı́mbolos matemáticos, temos:
ω ∈ (Ω ∩ A) ⇒ ω ∈ Ω e ω ∈ A ⇒ ω ∈ A.
1.2. CONJUNTOS E SUAS RELAÇÕES 17
4) (A ∪ Ac ) = Ω.
Prova: Temos que provar que (A ∪ Ac ) ⊂ Ω e Ω ⊂ (A ∪ Ac ).
Começaremos provando que (A ∪ Ac ) ⊂ Ω. Nesse caso tomomamos ω
pertencente a (A ∪ Ac ), o que significa que ω pertence a A ou ω pertence
ao seu complementar (Ac ). Como A é um subconjunto de Ω, ω pertence a
A implica em ω ∈ Ω. Analogamente, Ac ⊂ Ω, e portanto ω ∈ Ωc implica
em ω ∈ Ω.
Agora precisamos provar que Ω ⊂ (A ∪ Ac ). Tomamos ω pertencente a Ω,
o que implica em ω ∈ A ou ω ∈ Ac . Ou seja, se um elemento pertence a Ω,
ou ele pertence a um subconjunto (A) de Ω ou pertence a ao complementar
desse subconjunto (Ac ), que representamos por ω ∈ (A ∪ Ac ). Portanto
(A ∪ Ac ) ⊂ Ω, finalizando nossa prova.
5) Leis de De Morgan.
5.1) (A ∪ B)c = Ac ∩ B c .
5.2) (A ∩ B)c = Ac ∪ B c .
Prova de 5.1: Temos que provar que (A ∪ B)c ⊂ (Ac ∩ B c ) e
Ac ∩ B c ⊂ (A ∪ B)c .
Vamos primeiro provar que (A ∪ B)c ⊂ (Ac ∩ B c ). Tomamos então
ω pertencente a (A ∪ B)c . Isso equivale a dizer, que ω não pertence
a união de A e B, o que denotamos por ω 6∈ (A ∪ B), que implica em
ω 6∈ A e ω 6∈ B. Em sı́mbolos matemáticos, temos:
ω ∈ (A ∪ B)c ⇒ ω 6∈ (A ∪ B) ⇒ ω 6∈ A e ω 6∈ B.
ω ∈ (Ac ∩ B c ) ⇒ ω ∈ Ac e ω ∈ B c ⇒ ω 6∈ A e ω 6∈ B.
18 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
n
\ n
[
c
finalizando a prova, temos que Ai ⊂ ( Ai )c .
i=1 i=1
1.2.5 Exercı́cios
1. Experimento Aleatório: Um dado é lançado duas vezes.
3. Suponha que você anote o número de dias em que choveu na última se-
mana.
(a) A ∩ B ∩ C
(b) Ac ∩ B ∩ C
(A ∩ B)c = Ac ∪ B c
(a) (Ωc )c = Ω
(b) (Ac )c = A
(c) A ∩ Ac = ∅
(d) A ∪ Ω = Ω
(e) A ∪ Ac = Ω
(f) A ∩ Ω = A
(g) (A ∩ B)c = Ac ∪ B c
(h) (A ∪ B)c = Ac ∩ B c
(i) Ω ∩ (A ∪ B) = (Ω ∩ A) ∪ (Ω ∩ B)
(j) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(k) A ∪ (B ∩ U ) = (A ∪ B) ∩ (A ∪ C)
(l) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
(m) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
(n) A ∪ (B ∪ C) = (A ∪ B) ∪ C
(o) A = (A ∩ B) ∪ (A ∩ B c )
1.2. CONJUNTOS E SUAS RELAÇÕES 21
9. Sejam A e B dois eventos quaisquer. Considere que eles não sejam dis-
juntos (A ∩ B 6= ∅). Mostre que
(a) A ∪ B = (A ∩ B) ∪ (A − B) ∪ (B − A)
(b) A ∪ B = A ∪ (B − A)
(c) A ∪ B = B ∪ (A − B)
10. Sejam A e B dois eventos quaisquer. Considere que eles não sejam dis-
juntos (A ∩ B 6= ∅).
(a) Os eventos (Ac ∩B) e (Ac ∩B c ) são disjuntos? (dica: use os diagramas
de Venn para ter intuição sobre os eventos. )
1.2.6 Complementos
{0, 1, 00, 11, 01, 10, 000, 010, 001, 100, ....}.
n(A) |A|
P(A) = = ,
n(Ω) |Ω|
onde n(A) é o número de elementos de A e que também podemos representar
por |A|, e n(Ω) = |Ω| é o número de elementos de Ω.
Seja A o evento ”sair pelo menos uma cara (H)”, ou seja, A = {HH, HT, T H}.
Supondo que as moedas sejam honestas, queremos saber qual é a probabilidade
de A ocorrer.
Temos |A| = 3 e |Ω| = 4, logo pela abordagem clássica, a probabilidade de A
ocorrer é :
3
P(A) = .
4
As hipóteses anteriores nos levam a concluir que:
1. P(A) ≥ 0, para todo A ⊂ Ω. Isto é, não podemos ter um número negativo
de elementos.
|Ω|
2. P(Ω) = = 1.
|Ω|
3. Se A e B são eventos disjuntos então:
|A| 3 |B| 4
P(A) = = e P(B) = = .
|Ω| 10 |Ω| 10
|A ∪ B| 7 (3 + 4) 3 4
P(A ∪ B) = = = = + = P(A) + P(B).
|Ω| 10 10 10 10
24 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
1. Há casos em que a ordem dos elementos dos arranjos importa. Isto é,
quando temos dois arranjos com os mesmos elementos, porém em ordens
distintas, se esses arranjos forem considerados diferentes, então dizemos
que a ordem dos elementos importa. Caso contrário a ordem dos elementos
dos arranjos não importa.
2. Temos também os casos em que os arranjos são feitos com ou sem re-
posição. Em um arranjo com reposição, a idéia fundamental é que esco-
lhido um elemento, nada impede que ele volte a ser escolhido.
(n)r .
Exemplo 1.3.3 As placas de carro no Brasil são formadas por três letras
do alfabeto e quatro algarismos entre 0 e 9. Tanto as letras quanto os
algarismos podem ser repetidos. Assim, se quisermos formar a parte das
letras de uma placa, a escolha da primeira não impõe restrições à escolha
da segunda e a escolha da terceira também será independente das letras
escolhidas anteriormente. Além disso, para formar a parte das letras, a
ordem das letras escolhidas importa. Isto é, duas placas que possuam a
mesma sequência de algarismos, mas a parte de letras de uma é ABC e
da outra é CBA, são consideradas diferentes.
Logo, a escolha de letras de uma placa de carro no Brasil, pode ser feita
de (26)3 maneiras.
e também
(ATAT aB = AT ATaB),
maneiras de escolha.
• As triplas (1,4,6), (2,3,6), (2,4,5) são formadas por três números diferen-
tes, então cada uma apresenta 6 combinações.
• Já as triplas (3,3,5), (3,4,4), (1,5,5) apresentam dois números iguais cada
uma, então possuem 3 combinações.
Seja A o conjunto das triplas, cujos algarismos somam 11, então A possui 27
elementos. Ou seja, existem 27 combinações em que a soma dos resultados de
3 lançamentos de um dado é igual a 11.
Agora temos que verificar quantas combinações de 3 números entre 1 e 6 somam
12:
• Ambas as triplas (2,5,5) e (3,3,6) possuem dois números iguais, logo apre-
sentam 3 combinações.
1.3. ABORDAGEM CLÁSSICA DA PROBABILIDADE 31
• Temos também a tripla (4,4,4), que é formada só pelo número 4, que
portanto apresenta uma combinação.
Seja B o conjunto das triplas, cujos algarismos somam 12, então B possui 25
elementos. Ou seja, existem 25 combinações em que a soma dos resultados de
3 lançamentos de um dado é igual a 12.
Sabemos que o número de triplas é igual a 216, ou seja, |Ω| = (6)3 = 216.
Assim, a probabilidade de sair soma igual a 11 e a 12, é dada por:
|A| 27
P(”sair soma 11”) = = .
|Ω| 216
|B| 25
P(”sair soma 12”) = = .
|Ω| 216
Portanto vemos que a probabilidade de sair soma 11 em 3 lançamentos de um
dado, é maior do que sair soma 12.
Exemplo 1.3.15 Jogando uma moeda repetidas vezes até aparecer cara
(H), temos que
Ω = {H, T H, T T H, . . . , T T T T H, . . . , T T T T T T T T T T H, . . .}.
2. P(Ω) = 1.
n(A) n(B)
= lim + lim .
n→+∞ n n→+∞ n
(A2 ) P(Ω) = 1;
1. P(Ac ) = 1 − P(A).
Prova:
Sabemos que Ω = A ∪ Ac , o que implica que
P(Ω) = 1 (1.2)
1 = P(A) + P(Ac )
P(A) ≤ P(B).
|A| 3 1
P(A) = = = .
|Ω| 6 2
Essa afirmação está correta, pois sabemos que o dado nesse caso é honesto e
portanto os eventos elementares são equiprováveis.
Agora iremos analisar P(A) pelos axiomas da Definição Axiomática. temos que:
1.6 Exercı́cios
1. Sejam A e B dois eventos de um espaço amostral. Suponha que P(A) =
0.4, P(B) = 0.5 e P(A ∩ B) = 0.1. Encontre a probabilidade de A e B
ocorrerem, mas não ambos ao mesmo tempo ((A − B) ∪ (B − A)).
(a) Determine: A ∩ B e Ac ∩ B c .
(b) Agora, considere que os eventos elementares são equiprováveis. De-
termine: P(A) e P(B).
2
6. Sejam A e B eventos, tais que P(A) = 3 e P(B) = 94 . Mostre que
a. P(A ∪ B) ≥ 23 ;
2
b. 9 ≤ P(A ∩ B c ) ≤ 95 ;
1
c. 9 ≤ P(A ∩ B) ≤ 49 .
(i) Ω ∈ A;
(ii) Se A ∈ A, então Ac ∈ A;
(iii) Se A e B ∈ A, então A ∪ B e A ∩ B ∈ A .
(i) Ω ∈ A;
(ii) Se A ∈ A, então Ac ∈ A;
S∞ T∞
(iii) Se An ∈ A, tal que n ∈ N, então n=1 An ∈ A e n=1 An ∈ A.
(i) Ω ∈ A.
(i) Ω ∈ F.
(ii) Ac ∈ F, pois (Ωc = ∅, {1}c = {2, 3}, {2}c = {1, 3}, ∅c = Ω, {1, 3}c =
{2}, {2, 3}c = {1}) ∈ F.
38 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
∞
[
(iii) An ∈
/ F, pois ({1} ∪ {2} = {1, 2}) ∈
/ F.
n=1
Exemplo 1.8.1 Sejam Ω = {0, 1}, A = {∅, {0}, {1}, {0, 1}} e p, tal que 0 ≤
p ≤ 1.
Definindo P({1}) = p e P({0}) = 1 − p.
Então (Ω, A, P) é um espaço de probabilidade.
5 5 1
P(A) = ∼ = .
36 35 7
Vamos supor que não se presencie os lançamentos dos dados, mas se receba a
seguinte informação: ”saiu 1 no primeiro dado ”. Nestas condições, pergunta-
se: Qual é a probabilidade de A dado essa nova informação? Ou seja, qual a
probabilidade do total ser 6 no lançamento de dois dados honestos, sendo que
o resultado do primeiro dado é igual a 1?
Com essa nova informação temos um novo espaço amostral, pois agora vamos
considerar apenas os lançamentos em que saiu 1 no primeiro dado, ou seja,
podemos considerar o evento ”saiu 1 no primeiro dado” como o novo espaço
amostral para o experimento. Isto é,
1.9. PROBABILIDADE CONDICIONAL 39
Ω = {(1, 1); (1, 2); (1, 3); (1, 4); (1, 5); (1, 6)}.
P(A1 ∩ B) P(A2 ∩ B)
= + = P(A1 |B) + P(A2 |B).
P(B) P(B)
P(A ∩ B) 2/36 1
P(A|B) = = = .
P(B) 6/36 3
Exemplo 1.9.2 Em um reino, há um rei que vem de uma famı́lia de dois
filhos. Nestas condições pergunta-se: Qual é a probabilidade do rei ter
uma irmã?
Vamos denotar por H e M , se o irmão do rei for homem ou mulher,
respectivamente.
O espaço amostral em questão é Ω = {(H, H), (H, M ), (M, H), (M, M )}.
Vamos assumir que os quatros eventos elementares sejam equiprováveis.
Sejam U e V dois eventos:
U : ”uma das crianças é uma menina ”, ou seja U = {(H, M ), (M, H), (M, M )}.
V : ”uma das crianças é o rei ”, ou seja V = {(H, H), (H, M ), (M, H)}.
U ∩ V : ”uma das crianças é uma menina e a outra criança é o rei ”, ou
seja U ∩ V = {(H, M ), (M, H)}.
Logo, a probabilidade do rei ter uma irmã, é dada por:
P(U ∩ V )) 2/4 2
P(U |V ) = = = .
P(V ) 3/4 3
Exemplo 1.9.3 Uma urna contém 5 bolas brancas e 2 bolas azuis. Uma
bola é retirada e, sem reposição, uma segunda bola é retirada. Qual a
probabilidade de ambas serem brancas?
Sendo A e B dois eventos:
A: a primeira bola retirada é branca.
B: a segunda bola retirada é branca.
Esses dois eventos são dependentes, pois a probabilidade de ocorrência de
B depende do que ocorreu na retirada da primeira bola. Temos que
5
P(A) = .
7
1.9. PROBABILIDADE CONDICIONAL 41
Tendo sido retirada uma bola branca e não havendo reposição na urna,
restam agora 6 bolas, onde quatro são brancas. Logo, a probabilidade de
retirar-se outra bola branca é
4 2
P(B|A) = = .
6 3
Portanto,
52 10
P(A ∩ B) = P(A)P(B|A) = = .
73 21
Exemplo 1.9.4 Sabe-se que 80% dos pênaltis marcados a favor do Brasil,
são cobrados por jogadores do Flamengo. A probabilidade de um pênalti
ser convertido é de 40% se o cobrador for do Flamengo e de 70% caso
contrário.
Um pênalti a favor do Brasil acabou de ser marcado: Qual a probabilidade
do pênalti ser cobrado por um jogador do Flamengo e ser convertido?
Sendo A e B os eventos:
A: ”cobrador do Flamengo ”.
B: ”pênalti é convertido”.
O que queremos saber é a probabilidade do seguinte evento: A ∩ B.
Logo, pelo Teorema do Produto
P(A1 ∩A2 ∩. . .∩An ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩A2 ) . . . P(An |A1 ∩. . .∩An−1 ).
P((A1 ∩ A2 ) ∩ A3 )
P(A3 |A1 ∩ A2 ) =
P(A1 ∩ A2 )
42 CAPÍTULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS
P((A1 ∩A2 )∩A3 ) = P(A3 |A1 ∩A2 )P(A1 ∩A2 ) = P(A3 |A1 ∩A2 )P(A2 |A1 )P(A1 ).
Exemplo 1.9.5 Uma urna contém 10 bolas idênticas das quais 5 são pre-
tas, 3 são vermelhas e 2 são brancas. Quatro bolas são retiradas uma a
uma e sem reposição. Encontre a probabilidade da primeira bola ser preta,
da segunda ser vermelha, da terceira ser branca, e da quarta ser preta
também.
Vamos denotar por:
A1 o evento em que a primeira bola retirada é preta;
A2 o evento em que a segunda bola retirada é vermelha;
A3 o evento em que a terceira bola retirada é branca;
A4 o evento em que a quarta bola retirada é preta;
Sabendo que Ω será formado por todas as combinações possı́veis de 4 bolas,
qual a probabilidade pedida?
Queremos saber a probabiliade de inrterseção desses 4 eventos elementa-
res, assim a probabilidade de interesse será denotada por
Isso implica em
n
[ n
X n
X
P(B) = P( B ∩ Ai ) = P(B ∩ Ai ) = P(B|Ai )P(Ai ).
i=1 i=1 i=1
P(Ai )P(B|Ai )
P(Ai |B) = .
P(A1 )P(B|A1 ) + P(A2 )P(B|A2 ) + P(A3 )P(B|A3 )
P(A ∩ B) P(A)P(B|A)
P(A|B) = = .
P(B) P(A)P(B|A) + P(Ac )P(B|Ac )
Exemplo 1.9.8 Um teste para uma doença rara está correto 95% das
vezes. Em outras palavras, se uma pessoa tem a doença, o teste dá positivo
com probabilidade 0.95, e se a pessoa não tem a doença o resultado do teste
dá negativo com probabilidade 0.95.
1.9. PROBABILIDADE CONDICIONAL 45
P(B|E) = 0, 20.
P(B|E c ) = 0, 05.
1.9.6 Exercı́cios
(a) Em um dia qualquer a chance de chover é de 25%. A chance de
chover em dois dias consecutivos é de 10%.
i. Dado que está chovendo hoje, qual é a chance de chover amanhã?
ii. Dado que choverá amanhã, qual é a chance de chover hoje?
(b) Os eventos A, B e C satisfazem as seguintes condições: P(A|B ∩B) =
1/4, P(B|C) = 1/3 e P(C) = 1/2. Encontre P(Ac ∩ B ∩ C).
1.10. INDEPENDÊNCIA DE EVENTOS 47
P(B|A) = P(B).
P(A ∩ B) = P(A)P(B).
No caso de A ∩ B = ∅, temos:
Isso quer dizer que A e B não são independentes a menos que um deles
tenha probabilidade zero.
Se o evento B for independente do evento A, então esperamos que A
também seja independente de B. De fato isso ocorre, como é verificado a
seguir:
P(A ∩ B) P(A)P(B)
P(A|B) = = = P(A).
P(B) P(B)
Portanto, B2 é independente de A1 .
P(A ∩ B) = P(A)P(B)
P(B ∩ C) = P(B)P(C)
P(A ∩ C) = P(A)P(C).
P(A ∩ B) = P(A)P(B)
P(A ∩ C) = P(A)P(C)
P(B ∩ C) = P(B)P(C)
P(A ∩ B ∩ C) = P(A)P(B)P(C).
1.10.1 Exercı́cios
1. Um dado honesto é lançado duas vezes. Seja A o evento “a soma dos
lançamentos é igual a 4”, e seja B o evento “pelo menos um dos resultados
dos lançamentos é igual a 3”.
a. Calcule P(A|B).
b. A e B são independentes? Justifique sua resposta.
Ω = {ω1 , ω2 , ω3 , ω4 },
e
1
P({ω1 }) = P({ω2 }) = P({ω3 }) = P({ω4 }) = .
4
Sejam os seguintes eventos:
• A = {ω1 , ω2 };
• B = {ω2 , ω3 };
• C = {ω2 , ω4 }.
5. Sejam A e B dois eventos independentes, tais que 0 < P(A) < 1 e 0 <
P(B) < 1. Responda as seguintes perguntas com justificativas e contra-
exemplos quando forem necessários.
Variáveis Aleatórias
Discretas
2.1 Introdução
Em vários experimentos aleatórios os resultados são numéricos, por exemplo,
dados com 6 faces e megasena (60 algorismos). Contudo, em outros experi-
mentos os resultados não são numéricos, mas podem ser associados a números.
Dado um experimento aleatório e um espaço amostral, uma variável aleatória
associa valores numéricos a todos elementos de Ω. Chamamos esses valores de
valores assumidos pela variável aleatória.
Ω = {(1,1),(1,2),(1,3),(1,4),(2,1),(2,2),(2,3),(2,4),(3,1),
(3,2),(3,3),(3,4),(4,1),(4,2),(4,3),(4,4)}.
X(ω) = max(x1 , x2 ).
Para ω = (1, 1) temos X((1, 1)) = 1.
Para ω = (1, 2) temos X((1, 2)) = 2.
Para ω = (4, 2) temos X((4, 2)) = 4.
51
52 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
X : Ω → R.
IX = {1, 2, 3, 4}.
Exemplo 2.2.1 Uma moeda é lançada cinco vezes. Seja X a v.a que denota
o número de caras em cada sequência de lançamentos. Então, X pode assumir
os seguintes valores IX = {0, 1, 2, 3, 4, 5}.
Uma v.a é chamada de discreta se seu conjunto imagem for finito ou infinito
enumerável. Nos exemplos 2.1.1 e 2.2.1 o conjunto imagem é finito.
Uma variável aleatória pode assumir um número infinito não-enumerável de va-
lores. Por exemplo, considere o experimento de escolher um ponto a do intervalo
[−1, 1]. A variável aleatória que associa o valor numérico a2 ao resultado a não
é discreta. Por outro lado, a seguinte v.a X(a) é discreta:
1
se a > 0
X(a) = sinal(a) = 0 se a = 0
−1 se a < 0.
tal que X
P(X = x) = 1, ∀x ∈ IX .
x
No exemplo 2.1.1, pode ser importante saber ”com que probabilidade a v.a X
assume, por exemplo, o valor 2”. Essa pergunta pode ser representada mate-
maticamente por:
P({X = 2}) = P(X = 2),
onde {X = 2} é o conjunto de todos os elementos de Ω que são levados pela v.a
X ao valor numérico 2. Temos assim que
P(X = 3) = P({(1, 3), (2, 3), (3, 3), (3, 2), (3, 1)})
(A3 )
= P({(1, 3)}) + P({(2, 3}) + P({3, 3}) + P({(3, 2)}) + P({(3, 1}) = 5/16.
Temos que
Ω = {HH, HT, T H, T T },
onde H (Head) e T (Tail) denotam cara e coroa, respectivamente.
Primeiro passo é perguntar: Quem é o evento {X = 0} ?
{X = 0} = {ω ∈ Ω : X(ω) = 0} = {T, T }.
Em seguida fazer a mesma pergunta para {X = 1} e {X = 2}.
Logo,
P(X > 0) = P({X = 1} ∪ {X = 2}) = P(X = 1) + P(X = 2) = 1/2 + 1/4 = 3/4.
2.4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS 55
Exemplo 2.4.1 Seja Y = g(X) = (1, 8)X + 32 uma função linear da variável
aleatória X. Temos que, X representa a temperatura de um ambiente em graus
Celsius e Y representa a mesma temperatura, só que na escala Fahrenheit.
Exemplo 2.4.2 Seja X uma variável aleatória que assume os valores {−1, 0, 1}
com as seguintes probabilidades:
1/3
se x = −1
pX (x) = 1/6 se x=0
1/2 se x = 1.
Para X = 0 : Y = 2(0) + 1 = 1.
Para X = 1 : Y = 2(1) + 1 = 3.
Logo,
IY = {−1, 1, 3}.
2◦ passo: Com que probabilidades Y assume esses valores? Ou seja, qual a
distribuição de massa de probabilidade de Y ?
Temos que
1/3
se y = −1
pY (y) = 1/6 se y=1
1/2 se y = 3.
Para X = −1 : Y = (−1)2 = 1.
Para X = 0 : Y = (0)2 = 0.
Para X = 1 : Y = (1)2 = 1.
Então,
IY = {0, 1}.
pY (1) = P({Y = 1}) = P({X = −1})+P({X = 1}) = pX (−1)+pX (1) = 1/3+1/2 = 5/6.
(
1/6 se y=0
pY (y) =
5/6 se y = 1.
2.5. ESPERANÇA E VARIÂNCIA 57
Definição 2.5.1 (Esperança de uma v.a X ou seu valor esperado, ou sua média).
O valor esperado de uma variável aleatória X, com distribuição de massa de
probabilidade pX , é definido por:
X
E(X) = xpX (x).
x
1. Distribuição de probabilidade:
Temos que
IX = {1, 2, 3, 4, 5, 6}.
2. Esperança de X.
Temos que,
6
X
E(X) = xP(X = x).
x=1
Portanto,
Obtemos,
x P(X = x)
15 0.56
10 0.23
5 0.02
−5 0.19
60 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
Por meio da tabela acima, concluı́mos que a probabilidade do lucro ser igual a
15 é superior a 50%.
Pergunta 2: Qual o lucro médio por conjunto montado, ou seja, qual é a
E(X)?
Para verificar que isto é verdade, vamos supor que Y = g(x) e usar a fórmula
apresentada anteriormente:
X
pY (y) = pX (x).
{x|g(x)=y}
X X X X
= y pX (x) = g(x)pX (x)
y {x|g(x)=y} y {x|g(x)=y}
X
= g(x)pX (x).
x
2.5.3 Variância
Um outro importante número associado à variável aleatória X é a variância, que
é denotada por V ar(X) e é definida como valor esperado da v.a (X − E(X))2 ,
isto é,
V ar(X) = E[(X − E(X))2 ].
p
σX = V ar(X).
Esta nova fórmula, apresenta uma maior facilidade para o cálculo da variância.
Uma outra forma de provar que V ar(X) = E(X 2 ) − [E(X)]2 é a seguinte:
Note que na terceira igualdade usamos o fato de E(X) ser uma constante.
Y = aX + b,
3. σY = |a|σY .
Prova:
1.
X X X
E(Y ) = E(aX+b) = (aX+b)pX (x) = a XpX (x)+b pX (x) = aE(X)+b.
x x x
2.
X
V ar(Y ) = (aX + b − E(aX + b))2 pX (x)
x
X
= (aX + b − aE(X) − b)2 pX (x)
x
X
= (a(X − E(X)))2 pX (x)
x
X
= a2 (X − E(X))2 pX (x)
x
= a2 V ar(X).
2.5. ESPERANÇA E VARIÂNCIA 63
3.
p p p
σY = V ar(Y ) = a2 V ar(Y ) = |a| V ar(Y ) = |a|σY .
Podemos observar que nestes resultados estão implı́citas mais duas propriedades:
Sejam a e b duas constantes, temos que
E(b) = b.
V ar(a) = 0.
Prova:
∞
X ∞ X
X i X
E(X) = i P(X = i) = P(X = i) = P(X = i)
i=1 i=1 j=1 1≤j≤i<∞
X ∞
∞ X ∞
X
= P(X = i) = P(X ≥ j),
j=1 i=1 j=1
∞
X ∞
X
E(X 2 ) = i2 P(X = i) = i2 [P(X ≥ i) − P(X ≥ i + 1)]
i=1 i=1
∞
X ∞
X
= i2 P(X ≥ i) − i2 P(X ≥ i + 1)
i=1 i=1
∞
X ∞
X
= i2 P(X ≥ i) − (i − 1)2 P(X ≥ i)
i=1 i=2
∞
X
= P(X ≥ 1) + [i2 − (i − 1)2 ] P(X ≥ i)
i=2
∞
X ∞
X ∞
X
= (2i − 1)P(X ≥ i) = 2 i P(X ≥ i) − P(X ≥ i)
i=1 i=1 i=1
∞
X
= 2 P(X ≥ i) − E(X).
i=1
64 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
Esperança e Variância:
n+1 n2 − 1
E(X) = e V ar(X) = .
2 12
Prova:
Assumindo pX (x) = 1/n, a partir da definição de E(X), temos que
n n n
X X 1 1X
E(X) = x pX (x) = x = x
x=1 x=1
n n x=1
1 n(n + 1) n+1
= = .
n 2 2
Como V ar(X) = E(X 2 ) − E(X)2 , temos que obter E(X 2 ):
n n n
X X 1 1X 2
E(X 2 ) = x2 pX (x) = x2 = x
x=1 x=1
n n x=1
(n + 1)(2n + 1) (n + 1)2 n2 − 1
V ar(X) = − = .
6 4 12
Exemplo 2.6.1 Uma rifa possui 100 bilhetes numerados de 1 a 100. Tenho
cinco bilhetes consecutivos numerados de 21 a 25, e meu colega tem outros cinco
2.6. VARIÁVEIS ALEATÓRIAS DISCRETAS 65
bilhetes, com os números 7, 13, 29, 66 e 98. Quem tem a maior possibilidade de
ser sorteado?
Seja X uma v.a uniforme que representa o número de cada bilhete, então todos
os 100 bilhetes possuem a mesma probabilidade de serem sorteados. Assim,
se ambos os indı́viduos apresentam o mesmo número de bilhetes, temos que a
probabilidade de serem sorteados é a mesma. Então, a probabilidade de sair os
números 21, 22, 23, 24, 25 e 7, 13, 29, 66, 98 é :
P(X = 21) + P(X = 22) + P(X = 23) + P(X = 24) + P(X = 25) = 5/100,
P(X = 7) + P(X = 13) + P(X = 29) + P(X = 66) + P(X = 98) = 5/100.
Portanto, concluı́mos que ambos possuem uma probabilidade de 5/100 de serem
sorteados.
2.6.2 Bernoulli
Uma variável aleatória X com distribuição de probabilidade de Bernoulli é usada
para modelar situações onde ocorre dois eventos, que chamaremos de fracasso
e sucesso. Uma v.a de Bernoulli, tem como caracterı́stica atribuir um valor a à
ocorrência de fracasso e um valor b para a ocorrência de sucesso, com probabili-
dades (1 − p) e p, respectivamente, tal que a, b ∈ [0, 1]. Comumente atribuı́mos
0 à ocorrência de fracasso e 1 à ocorrência de sucesso.
Por exemplo, podemos considerar o lançamento de uma moeda, no qual sai cara
com probabilidade p e sai coroa com probabilidade 1 − p. Então seja X uma
v.a de Bernoulli, temos que X é igual a 1 se sai cara e igual a 0 se sai coroa:
(
1 se sai cara
X=
0 se sai coroa.
{X = 1} = {ω ∈ Ω : X(ω) = 1} = {H}.
{X = 0} = {ω ∈ Ω : X(ω) = 0} = {T }.
P(X = x) = px (1 − p)1−x ,
Esperança e Variância:
Prova:
Se pX (1) = p e pX (0) = 1 − p, pela definição de E(X), obtemos
1
X
E(X) = x pX (x) = 0(1 − p) + 1(p) = p,
x=0
e também,
1
X
E(X 2 ) = x2 pX (x) = (0)2 p + (1)2 p = p.
x=0
2.6.3 Binomial
Uma moeda é lançada n vezes. Em cada lançamento sai cara com probabilidade
p e coroa com probabilidade (1−p), independentemente do lançamento anterior.
Seja X a v.a que indica o número de caras nos n lançamentos. Nos referimos a
X como sendo uma variável aleatória binomial com parâmetros n e p, onde n é
o número de ensaios e p a probabilidade de sucesso em cada ensaio. A variável
aleatória binomial é denotada por X ∼ b(n, p). O conjunto Ω nesse caso é:
Ω = {HH...H
| {z }, |HH...H {z }}.
{z } T, ..., |T T...T
n n−1 0
Vemos que,
{X = x} = {H |T...T
{z }, T H T...T
| {z }, ..., T
| T...T
{z } H}.
n−1 n−2 n−1
68 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
Então
n
X
P(Ω) = P(∪nx=0 {X = x}) = P(X = x)
x=0
n
X n
= px (1 − p)n−x = (p + 1 − p)n = 1.
x=0
x
Exemplo 2.6.2 Sabe-se que a ocorrência de peças com algum tipo de imper-
feição em uma linha de produção é de 10%. Escolhem-se três peças, ao acaso,
e deseja-se verificar o número de peças defeituosas nesse grupo e as respectivas
probabilidades. O evento ”peça com defeito” será representado por D.
Assim, o espaço amostral é dado por
Exemplo 2.6.3 Uma moeda honesta é lançada vinte vezes. Qual a probabili-
dade de saı́rem oito caras?
20
P(X = 8) = (1/2)8 (1/2)12 .
8
Exemplo 2.6.4 Numa criação de coelhos, 40% são machos. Então qual é a
probabilidade de nascer pelo menos dois coelhos machos, num dia em que nas-
ceram vinte coelhos?
Esperança e Variância:
Prova:
Considerando que X representa uma variável aleatória binomial, encontramos
70 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
E(X) = np.
(a) E(Y ).
Como vimos anteriormente, E(aX + b) = aE(X) + b, assim nesse caso
podemos observar que a = 3 e b = 2, logo:
(b) V ar(Y ).
Sabemos que V ar(aX + b) = a2 V ar(X), então
2.6.4 Geométrica
Suponha que repitamos independentemente o lançamento de uma moeda cuja
probabilidade de sair cara é p e sair coroa é (1 − p), onde 0 < p < 1. A variável
aleatória geométrica corresponde ao número de lançamentos necessários para
ocorrer uma cara pela primeira vez. Usamos a notação X ∼ Geo(p), para
representar que X é uma v.a com distribuição geométrica. Neste caso:
Ω = {H, T H, T T H, T T T H...}.
Sendo X a v.a que representa o número de lançamentos que sairam coroa antes
de sair a primeira cara, qual é a distribuição de probabilidade de X?
Vemos facilmente que
{X = 1} = {H} ⇒ P(X = 1) = p
{X = 2} = {T H} ⇒ P(X = 2) = p(1 − p)
..
.
x−1
{X = x} = {T {z } H} ⇒ P(X = x) = p(1 − p)
| T...T ,
n−1
p(1 − p)x−1 , x = 1, 2, . . .
Ω = {X = 1} ∪ {X = 2} ∪ ... = ∪∞
x=1 {X = x}, n ∈ N.
Então
∞
X
P(Ω) = P(∪∞
x=1 {X = x}) = P(X = x)
x=1
∞
X 1 p
= p(1 − p)x−1 = p = = 1.
x=1
1 − (1 − p) p
Esperança e Variância:
2.6.5 Poisson
A distribuição de probabilidade de uma variável aleatória que registra o número
de ocorrências sobre um intervalo de tempo é chamada de Poisson. A distri-
buição de probabilidade de uma v.a de Poisson, com parâmetro λ > 0, é definida
pela seguinte expressão:
e−λ λx
P(X = x) = , x = 0, 1, . . . ,
x!
com o parâmetro λ sendo usualmente referido como a a taxa de ocorrência. A
notação X ∼ P o(λ), será usada para representar que X é uma v.a que segue o
modelo Poisson.
O modelo de Poisson tem sido muito utilizado em experimentos fı́sicos e biológicos
e, nesses casos, λ é a frequência média ou esperada de ocorrências num deter-
minado intervalo de tempo.
Vamos verifificar se a distribuição de probabilidade de uma v.a de Poisson, foi
definida corretamente. Não é difı́cil observar que, para qualquer x, ela é um
número positivo. Basta mostrar que a s probabilidades somam 1. Temos,
∞ ∞ ∞
X X e−λ λx X λx
P(X = x) = = e−λ = e−λ eλ = 1.
x=0 x=0
x! x=0
x!
x
No cálculo acima, usamos que a série λ /x!, somada para valores de x ≥ 0,
produz eλ . Esse resultado é bastante utilizado nos textos de Cálculo Diferencial
e Integral e segue do desenvolvimento em série de Taylor do termo eλ .
Exemplo 2.6.7 Alguns dos itens abaixo são exemplos de fenômenos aleatórios
de contagem em unidade de tempo.
• Números de carros que chegam a um posto de gasolina;
Esperança e Variância:
E(X) = λ e V ar(X) = λ.
Prova:
∞ ∞ ∞ ∞
X e−λ λx X e−λ λx X e−λ λx X e−λ λx−1
E(X) = x = x = =λ .
x=0
x! x=0
x(x − 1)! x=1 (x − 1)! x=1
(x − 1)!
Tomando, m = x − 1, temos que
2.6. VARIÁVEIS ALEATÓRIAS DISCRETAS 75
∞
X e−λ λm
E(X) = λ .
m=0
m!
E(X) = λ.
E(X)2 = λ E(X) + λ = λ2 + λ.
Logo,
V ar(X) = E(X 2 ) − E(X)2 = λ2 + λ − λ2 = λ.
e−1 12
P(X = 2) = = 0, 18394.
2!
e−1 13
P(X = 3) = = 0, 06131.
3!
76 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
sendo que o domı́nio de F é todo o conjunto dos números reais, enquanto que
a imagem é definida pelo intervalo [0, 1].
Se (0 ≤ x < 1):
Note que a variável só assume valores inteiros, então esse valor fica inalterado
no intervalo [0, 1). Isto é, F (0.1), F (0.5) ou F (0.9) também são iguais a 1/8.
Isso também vale para os demais intervalos.
2.7. FUNÇÃO DE DISTRIBUIÇÃO DE PROBABILIDADE 77
Se (1 ≤ x < 2):
Se (2 ≤ x < 3):
Se (x ≥ 3):
Se (x < 2):
F (x) = P(X ≤ x) = P(∅) = 0.
Se (2 ≤ x < 3):
Se (3 ≤ x < 4):
Para x = 3, F (3) = P(X ≤ 3) = P({1, 1}) + P({1, 2}) + P({2, 1}) = 3/36.
Repetimos esses mesmos passos para os demais valores de x. Deste modo, en-
contramos os valores completos da função de distribuição de probabilidade da
variável aleatória X:
78 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
0 se x<2
2≤x<3
1/36 se
3/36 se 3≤x<4
6/36 se 4≤x<5
10/36 se 5≤x<6
15/36 se 6≤x<7
F (x) =
21/36 se 7≤x<8
26/36 se 8≤x<9
30/36 se 9 ≤ x < 10
33/36 se 10 ≤ x < 11
35/36 se 11 ≤ x < 12
x ≥ 12.
1 se
X P(X = x)
5 0.3
7 0.2
8 0.4
15 0.1
Exercı́cio:
De acordo com o exemplo 2.7.3, determine as seguintes probabilidades:
a) P(X ≤ 7).
c) P(7 ≤ X ≤ 10).
ps
Portanto, G(s) = .
1 − s(1 − p)
Teorema 2.8.1 Seja E(sX ) = G(s), e seja G(r) (s) a r-ésima derivada de G(s).
Então
G(r) (1) = E{X(X − 1)(X − 2) . . . (X − r + 1)}.
dG(s)
Em particular, G(1) (s) = = G0 (1) = E(X).
ds s=1
s=1
80 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
1. Para r = 2 temos
d2 G(s)
• G(2) (s) = = G00 (s)
ds2
• G00 (1) = E{X(X − 2 + 1)} = E{X(X − 1)} = E{X 2 − X}
∞
X ∞
X
2. A série sr pX (r) converge para |s| ≤ 1, pois pX (r) = 1. Logo G(s)
r=0 r=0
está bem definida para |s| ≤ 1.
Voltando ao exemplo 1.8.1, onde X ∼ Bin(n, p) e G(s) = (sp + 1 − p)n , temos
que
Portanto,
E(X 2 ) = p2 n(n − 1) + np = np{(n − 1)p + 1}.
2
Agora podemos encontrar V ar(X) = E(X 2 ) − (E(X)) :
2.9 Exercı́cios
1. Seja o espaço de probabilidade (Ω, F, P). Para o evento D ⊂ Ω seja a
seguinte variável aleatória
1, se ω ∈ D,
X(ω) =
0, se ω ∈
/ D.
(a) Encontre Ω.
Você concorda que os jogadores estão mais interessados na soma dos
ressultados do lançamento do que com os elementos de Ω? Por isso, é
interessante definir a variável aleatória S que associa a cada elemento
de Ω a soma dos resultados dos lançamentos.
(b) Encontre {S = 8}, {S = 12}.
(c) Se o dado tivesse apenas 3 faces, como seria a distribuição de massa
de probabilidade de S?
(d) Para a mesma situação do item c, encontre E(S) e V ar(S).
X(ω4 ) = X(ω8 ) = 10
X(ω10 ) = 30
82 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS DISCRETAS
k −1 0 1 2
pX (k) 0.2 0.1 0.3 0.4
Para η = 2X encontre:
(a) E(η).
(b) V ar(η).
2.9. EXERCÍCIOS 83
7. Considere que você esteja numa situação difı́cil. Você vai assistir a aula
de uma disciplina e descobre que o professor preparou uma prova sur-
presa. Agora você está diante de uma prova teste com 10 questões, cada
uma com 4 alternativas equiprováveis, e somente uma correta, e está to-
talmente despreparada. Você sequer apareceu nas últimas aulas. Você
não foi muito bem na primeira prova do curso, e sabe que se tirar 6 nessa
prova você passa, caso contrário você vai ter que fazer a recuperação. Você
decide responder às questões de maneira aleatória e de forma que a res-
posta de uma não influencie nas outras e vice-versa, ou seja de maneira
independente.
(a) Encontre Ω.
(b) Encontre a distribuição de massa de probabilidade de X.
(c) Encontre E(X).
(d) Encontre V ar(X).
(e) Encontre a função geradora de probabilidades G(s).
(f) A partir da G(s) e do teorema acima, confira se os resultados encon-
trados nos itens (b) e (c) estão corretos
14. Acredita-se que 20% dos moradores das proximidades de uma grande
indústria siderúrgica tem alergia aos poluentes lançados ao ar. Admitindo
que este percentual de alérgicos é real (correto), calcule a probabilidade
de que pelo menos 4 moradores tenham alergia entre 13 selecionados ao
acaso.
2.9. EXERCÍCIOS 85
15. Três em cada quatro alunos de uma universidade fizeram cursinho antes
de prestar vestibular. Se 16 alunos são selecionados ao acaso, qual é a
probabilidade de que:
Vetores Aleatórios
Discretos
(
1, se o paciente tiver diabetes
Y =
0, caso contrário
87
88 CAPÍTULO 3. VETORES ALEATÓRIOS DISCRETOS
1. p(xi , yj ) ≥ 0, ∀ i, j;
n X
X m
2. p(xi , yj ) = 1.
i=1 j=1
X = número de meninos
(
1, se o 1◦ filho for homem
Y =
0, se o 1◦ filho for mulher
3.2. DISTRIBUIÇÕES MARGINAIS 89
elementos de Ω Probabilidade X Y Z
HHH 1/8 3 1 0
HHM 1/8 2 1 1
HMH 1/8 2 1 2
MHH 1/8 2 0 1
HMM 1/8 1 1 1
MHM 1/8 1 0 2
MMH 1/8 1 0 1
MMM 1/8 0 0 0
Y =1 Y =2 Y =3
Y =1 0 1/5 0
Y =2 1/5 1/5 1/5
Y =3 0 1/5 0
3
X 1 1 1 3
• pX (2) = pX,Y (2, j) = pX (2, 1) + pX (2, 2) + pX (2, 3) = + + =
j=1
5 5 5 5
3
X 1 1
• pX (3) = pX,Y (3, j) = pX (3, 1) + pX (3, 2) + pX (3, 3) = 0 + +0=
j=1
5 5
3
X 1 1 1 3
• pY (2) = pX,Y (i, 2) = pX (1, 2) + pX (2, 2) + pX (3, 2) = + + =
i=1
5 5 5 5
3
X 1 1
• pY (3) = pX,Y (i, 3) = pX (1, 3) + pX (2, 3) + pX (3, 3) = 0 + +0=
i=1
5 5
3.3. DISTRIBUIÇÕES CONDICIONAIS 91
• Y = salário
P(X = 4, Y = 5000) 0
pX|Y (4, 5000) = = =0
P(Y = 5000) 0.20
Os resultados obtidos podem ser verificados de forma simplificada, na tabela
abaixo:
X 1 2 3 4
pX|Y 1/2 1/4 1/4 0
Por meio da amostra escolhida, conclui-se que metade das pessoas que possuem
salários de 5000 reais, só tiveram um emprego e a outra metade é representada
por pessoas que já tiveram 2 ou 3 empregos.
3.4 Independência
Intuitivamente a independência de X em relação a Y significa: ”seja qual for o
valor que Y assuma, isso não influencia no fato de X assumir quaisquer de seus
valores ”.
Os conceitos envolvidos na independência de variáveis aleatórias são os mesmos
já vistos para eventos independentes.
Observações:
3 3
X X x+y 1+y 2+y 3+y 6 + 3y
• pY (y) = pX,Y (x, y) = = + + =
x=1 x=1
21 21 21 21 21
par (x, y), tal que pX,Y (x, y) 6= pX (x)pY (y), X e Y não serão independentes.
Então, para x = 1 e y = 1, temos que:
2 45
pX,Y (1, 1) = 6= pX (1)pY (1) = .
21 21
Portanto, as variáveis aleatórias X e Y não são independentes.
E(XY ) = E(X)E(Y ).
3.5 Covariância
1
Seja (X, Y ) um vetor aleatório discreto. Vimos até aqui que as esperanças de
X e Y nos fornecem uma medida de posição das respectivas distribuições nos
respectivos eixos da coordenada do plano. E as variâncias de X e de Y dão
uma medida da dispersão dos valores de cada variável aleatória em torno das
respectivas médias E(X) e E(Y ).
A covariância, que definiremos a seguir, fornece a medida de dispersão dos
valores das variáveis aleatórias (X, Y ) em relação ao ponto (E(X), E(Y )).
A fórmula da covariância pode ser escrita de uma forma mais simples. Note que
ou seja,
Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Quando escrevemos a fórmula da covariância dessa maneira fica fácil entender
o próximo resultado.
3.6 Correlação
2
É comum estarmos interessados na relação entre duas variáveis aleatórias. Por
exemplo, é razoável esperar uma correlação (variação em conjunto) entre um
aumento no nı́vel de produção da economia e o número de pessoas empregadas.
Ou ainda, o percentual de inadimplência dos clientes de uma instituição finan-
ceira pode estar associado com as variações verificadas em seus nı́veis de renda.
Assim, a correlação entre duas variáveis aleatórias indica a maneira como essas
se movem juntas. A medição desse relacionamento é obtida estatisticamente
por meio do coeficiente de correlação.
De forma intuitiva podemos ver que há uma correlação perfeitamente negativa
entre as variáveis preço e demanda. Um aumento de 4 reais no preço de venda
(por exemplo de $32 para $36 ou de $48 para $52 ) determina uma redução de
uma unidade demandada (por exemplo, de 8 para 7 unidades e de 11 para 12
unidades), e assim por diante. Logo, ρ(X, Y ) = 1.
3.7 Exercı́cios
1. Considere um dado honesto de 6 faces. Sejam X a variável aleatória que
assume o resultado de um lançamento e Y a v.a que assume o número de
caras do lançamento de X moedas honestas.
2. Dois dados honestos são lançados. Seja U a variável aleatória que assume
o valor mı́nimo dos lançamentos. E seja V a variável aleatória que assume
o valor máximo dos lançamentos.
1, se ω ∈ B,
IB (ω) =
0, se ω ∈
/ B.
Y/ X 1 2 3
Y/ X 0 1 2 3
(b) Considere uma urna com três bolas brancas e duas vermelhas. Retiram-
se duas bolas da urna, uma após a outra, sem reposição. Defina a
v.a X igual a 1 se a primeira bola retirada for branca, e igual a 0 se
esta for vermelha. Analogamente, defina Y igual a 1 se a segunda
bola for branca, e 0 se for vermelha.
a) Encontre a distribuição conjunta.
b) Encontre as distribuições marginais.
c) Grafique a Covariância.
d) Calcule Cov(X, Y ).
Capı́tulo 4
Variáveis Aleatórias
Contı́nuas
101
102 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
Podemos dizer que uma variável aleatória discreta X tem a ela associada uma
distribuição de massa de probabilidade pX (x), e uma v.a. contı́nua tem a ela
associada uma função densidade de probabilidade fX (x).
Observações:
(4) Por (3) incluir ou excluir os extremos de um intervalo não tem nenhum
efeito em sua probabilidade
Para representar que X tem distribuição uniforme no intervalo [a, b], usamos a
notação X ∼ U [a, b].
Vamos encontrar c.
R +∞
Usando que −∞ f (x)dx = 1, temos que
Z 140
c dx = c[140 − 120] = c.20 = 1.
120
1
Logo, c = .
20
1 Seguindo Magalhães e Lima [7]
4.2. PRINCIPAIS VARIÁVEIS ALEATÓRIAS CONTÍNUAS 105
Exemplo 4.2.2 Seja X uma v.a uniforme contı́nua, e sua função de densidade
igual a
1
7 , se − 5 ≤ x ≤ 2
f (x) =
0, caso contrário.
Esperança e Variância
Logo,
2
b2 + ab + a2 (b − a)2
a+b
V ar(X) = E(X 2 ) − (E(X))2 = − = .
3 2 12
R∞ ∞
2. P(T ≥ 4) = 1
e−x/2 dx = e−x/2 = −e−2 .
2 4 4
R4 4
3. P(1 ≤ T ≤ 4) = 1
e−x/2 dx = e−x/2 = e−2 − e−1/2 .
2 1 1
Esperança e Variância
portanto,
∞
e−λx ∞
Z
1
E(X) = e−λx dx = − = .
0 λ 0 λ
4.2. PRINCIPAIS VARIÁVEIS ALEATÓRIAS CONTÍNUAS 107
Logo,
2 1 1
V ar(X) = E(X 2 ) − (E(X))2 = − 2 = 2.
λ2 λ λ
Exemplo 4.2.4 Considere o tempo que se leva para carregar um caminhão na
doca de carregamento da COSIPA em Santos. Se o tempo médio de carrega-
mento é 15 minutos, qual é a probabilidade do caminhão ser carregado em menos
de dez minutos?
1
O tempo médio de carregamento é 15 minutos, o que implica que, λ = . Logo
15
Z 10 10
1 −x/15
P(X ≤ 10) = e dx = −e−x/15 = 1 − e−3/2 = 0, 78.
0 15 0
E(X) = µ e V ar(X) = σ 2 .
108 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
X − µ0
Z= ,
σ0
Vamos terminar essa seção com uma propriedade muito importante do modelo
normal, porém a sua prova será omitida:
A combinação linear de variáveis normais independentes, também terá distri-
buição normal. Em outras palavras, se X1 , X2 , . . . , Xn formam uma sequência
de variáveis aleatórias N (µi , σi2 ) independentes e a1 , a2 , . . . , an , são constantes
Xn
quaisquer, então W = ai Xi terá distribuição normal. Seus parâmetros são
i=1
determinados a partir das propriedades da média e da variância, ou seja,
Xn n
X n
X n
X
µW = E( ai Xi ) = E(ai Xi ) = ai E(Xi ) = ai µi ,
i=1 i=1 i=1 i=1
n
X n
X n
X n
X
2
σW = V ar( ai Xi ) = V ar(ai Xi ) = a2i V ar(Xi ) = a2i σi2 .
i=1 i=1 i=1 i=1
110 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
2
σL = 22 .(4) + 52 .(9) + 32 .(16) = 385.
tal que,
dFX (x)
fX (x) = .
dx
Exemplo 4.3.1 Seja X uma variável aleatória contı́nua com distribuição expo-
nencial,sendo FX (t) = 1 − e−λt a sua função de distribuição, determine fX (t).
M (t) = E(etX ),
para todo t ∈ R.
P(X = 0) = 1 − p, P(X = 1) = p,
112 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
Quando X for uma variável aleatória contı́nua com função densidade de proba-
bilidade f (x), a função geradora de momentos de X, é definida por
Z ∞
M (t) = etx f (x)dx.
−∞
Exemplo 4.4.2 Seja X uma variável aleatória contı́nua com função densidade:
(
λe−λx x≥0
f (x) =
0 x < 0.
λ
Portanto, a função geradora de momentos de X é , para t < λ.
λ−t
A razão pelo nome alternativo é que possuindo a função geradora de momentos,
conseguimos calcular facilmente os momentos de uma variável aleatória.
Exemplo 4.4.3 Seja X ∼ Poisson (λ). Vamos calcular E(X) e V ar(X) com
base na função geradora de momentos.
Primeiramente, temos que encontrar M (t):
∞ ∞
X X e−λ λx
M (t) = E(etx ) = etx P(X = x) = etx
x=0 x=0
x!
∞ ∞
X e−λ (λet )x (λet )x
X t t
= = e−λ = e−λ eλe = eλ(e −1) .
x=0
x! x=0
x!
Portanto, a esperança de X é
0
E(X) = M 0 (0) = eλ(e −1)
λe0 = λ.
M 00 (0) = λ2 + λ.
Exemplo 4.4.4 Seja X uma v.a com distribuição normal. Vamos determinar
E(X) e V ar(X), com base na função gereadora de momentos.
A função densidade da v.a X é
1 −(x−µ)2
fX (x) = √ e{ 2σ2 } .
2πσ
Logo,
Z ∞ Z ∞
1 −(x−µ)2 1 (x−µ)2
M (t) = e √ tx
e{ 2σ2 } = √ e{tx− 2σ 2
}
dx.
−∞ 2πσ 2π −∞
Vamos deixar o cálculo de M (t) mais simples. Para isso, vamos desenvolver a
seguinte expressão
(x − µ)2
tx −
2σ 2
Temos que
Tomando,
x − (µ + σ 2 t) dx
y= ⇒ dy = ,
σ σ
temos que
∞
σ 2 t2
Z
σ 2 t2 1 2
M (t) = e{µt+ 2 }
√ e(−y/2) dy = exp µt + .
2π −∞ 2
4.4. FUNÇÃO GERADORA DE MOMENTOS 115
Então
2σ 2 t2 σ 2 t2
0
M (t) = µ+ exp µt + .
2 2
O que implica que E(X) é
E(X) = M 0 (0) = µe0 = µ.
Agora vamos obter V ar(X). Temos que
σ 2 t2 2σ 2 t2 σ 2 t2
M 00 (t) = σ 2 exp µt + + (µ + σ 2 t) µ + exp µt +
2 2 2
⇒ M 00 (0) = σ 2 + µ2 = E(X 2 ).
Portanto,
V ar(X) = σ 2 + µ2 − µ2 = σ 2 .
Então, obtemos que E(X) = µ e V ar(X) = σ 2 .
Exemplo 4.4.5 Seja X uma variável aleatória com distribuição exponencial,
com parâmetro λ. Vamos calcular E(X) e V ar(X) com base na função geradora
de momentos.
Primeiramente temos que encontrar a função geradora de momentos de X:
Z ∞ Z ∞
−λx
tx
M (t) = E(e ) = tx
e λe dx = λe−(λ−t)x dx
−∞ 0
∞
λe−(λ−t)x ∞
Z
λ
= λ e−(λ−t)x dx = = .
0 −(λ − t) 0 λ−t
Derivando M (t), e depois fazendo t = 0, encontramos E(X):
λ
M 0 (t) =
(λ − t)2
Portanto,
1
E(X) = M 0 (0) =
.
λ
Agora vamos encontrar a variância de X. Para isso, usaremos a seguinte
fórmula
V ar(X) = E(X 2 ) − (E(X))2 = M 00 (0) − (M 0 (0))2 .
Então derivando M (t) duas vez e substituindo t por zero, obtemos
2λ2 − 2tλ 2
M 00 (t) = 4
⇒ M 00 (0) = 2 .
(λ − t) λ
Logo,
2 1 1
− 2 = 2.
V ar(X) =
λ2 λ λ
1 1
Então temos que, E(X) = e V ar(X) = 2 .
λ λ
116 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
4.4.1 Propriedades
1. Função geradora de momentos para uma função linear.
Seja MX (t) a função geradora de momentos associada a variável aleatória
X. Considerando uma nova variável aleatória Y = aX + b, temos que a
função geradora de momentos de Y é
4.5 Exercı́cios
1. Sabe-se que a v.a. X está uniformemente distribuı́dada entre 1.0 e 1.5
2. A maioria das linguagens de computador tem uma função que pode ser
usada para gerar números aleatórios. No Excel, a função RAND pode ser
usada para gerar números aleatórios entre 0 e 1. Se X denota um número
aleatório gerado, então X é uma variável aleatória contı́nua com a seguinte
função densidade de probabilidade.
1, para 0 ≤ x ≤ 1
fX (x) =
0, caso contrário.
R∞
(a) Encontre a f.d.p. de Y e calcule E(X) −∞
yfY (y)dy
(b) Encontre o valor esperado de Y usando a f.d.p. de X.
(a) Qual a proporção desses pacientes demora mais de sete dias para se
recuperar?
(b) Qual a probabilidade de um paciente, escolhido ao acaso, apresentar
tempo de cura inferior a vinte dias?
120 CAPÍTULO 4. VARIÁVEIS ALEATÓRIAS CONTÍNUAS
Vetores Aleatórios
Contı́nuos
5.1 Introdução
Para desenvolver1 a teoria de v.a’s contı́nuas multidimensionais, vamos utilizar
um vetor aleatório bidimensional para a facilidade de cálculos.
Definição 5.1.1 Uma função f (x, y) definida para −∞ < x < ∞, −∞ < y <
∞, não-negativa e satisfazendo a condição
Z ∞Z ∞
f (x, y)dx dy = 1,
−∞ −∞
121
122 CAPÍTULO 5. VETORES ALEATÓRIOS CONTÍNUOS
Exemplo 5.2.1 Seja (X, Y ) um vetor aleatório, cuja função densidade de pro-
babilidade é dada por
3 2
80 (x + xy), se 0 ≤ x ≤ 2e0 ≤ y ≤ 4
f (x, y) =
0, caso contrário.
5.3 Independência
Definição 5.3.1 As variáveis aleatórias X e Y com função densidade conjunta
f (x, y), para −∞ < x < ∞ e −∞ < y < ∞, e cujas densidades marginais são
denotadas por fX (x) e fY (y), são ditas independentes se para todo par de valores
(x, y) tivermos:
f (x, y) = fX (x)fY (y).
E(XY ) = E(X)E(Y ).
Mas o contrário não é verdadeiro, isto é, se E(XY ) = E(X)E(Y ), não necessa-
riamente X e Y são independentes.
1. Densidades marginais:
Z 4 Z 4 4
y2
1 1 x 1
fX (x) = f (x, y)dy = (x + y)dy = xy + = + .
0 64 0 64 2 0 16 8
Z 4 Z 4 2 4
1 1 x y 1
fY (y) = f (x, y)dx = (x + y)dx = + yx = + .
0 64 0 64 2 0 16 8
2. Densidades condicionais
1
f (x, y) 64 (x + y) 1 (x + y)
f (y|x) = = x = .
fX (x) 16 + 18 4 (x + 2)
1
f (x, y) 64 (x + y) 1 (x + y)
f (x|y) = = y = .
fY (y) 16 + 18 4 (y + 2)
Definição 5.4.2 Sejam X e Y v.a’s contı́nuas, com densidades marginais f (x, y), fX (x)
e densidade condicional f (y|x) = ffX
(x,y)
(x) . A esperança condicional de Y dado
X = x é definida por
Z ∞
E(Y |X = x) = y f (y|x)dy.
−∞
5.5. EXERCÍCIOS 125
5.5 Exercı́cios
1. Sejam X e Y duas v.a.’s contı́nuas cuja função densidade de probabilidade
conjunta é definida como segue:
c x2 + xy , se 0 < x < 1 e 0 < y < 2,
2
f (x, y) =
0, caso contrário.
Inferência Estatı́stica
6.1 Introdução
A Inferência Estatı́stica é um conjunto de técnicas para estudar a população
por meio de evidências fornecidas por uma amostra. Ou seja, com base nos
elementos da amostra, conseguimos medir quantidades de interesse da população
em questão.
Na próxima definição vamos apresentar uma das formas mais fáceis, para sele-
cionar uma amostra aleatória de uma população.
127
128 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
Assim, coletada a altura das 1000 mulheres, a amostra poderia ter a seguinte
resposta: (x1 , x2 , . . . , x1000 ) = (1.60, 1.75, . . . , 1.48).
6.2 Estimação
O objetivo de uma estimação é estudar uma caracterı́stica de interesse da po-
pulação, por meio da informação fornecida por uma amostra. Há dois procedi-
mentos de estimação: pontual e intervalar.
Definição 6.2.1 Estatı́stica é uma função da amostra, que usamos para esti-
mar um parâmetro da população.
lim E(θ)
b = θ e lim V ar(θ)
b = 0.
n→∞ n→∞
consistência, o estimador necessita ser não viesado, apenas para valores grandes
de n.
Iremos apresentar a seguir, uma definição que nos ajuda decidir qual é o esti-
mador mais preciso, quando dois estimadores forem não viesados e consistentes
para um determinado parâmetro.
Definição 6.2.4 Eficiência. Sejam θb1 e θb2 dois estimadores, não viesados
para um parâmetro θ, dizemos que θb1 é mais eficiente do que θb2 se V ar(θb1 ) <
V ar(θb2 ).
{(0, 0), (0, 10), (0, 20), (0, 30), (10, 0), (10, 20), (10, 30), . . . , (30, 30)}.
As amostras não são equiprováveis. Por exemplo, a amostra (0, 0) tem probabi-
lidade 0.04 de ocorrer, enquanto que (0, 10) tem 0.06 de ocorrer, pois
Agora para a variável aleatória X, não é difı́cil verificar que sua distribuição de
probabilidade é:
X 0 5 10 15 20 25 30
P(X = x) 0.04 0.12 0.21 0.26 0.21 0.12 0.04
Assim, temos que
Portanto, µ
c1 não é consistente.
Já µ
c2 depende do tamanho da amostra e mais tarde veremos que X será um
estimador consistente para a média populacional.
Exemplo 6.2.2 Considere uma população com n elementos, tal que E(X) = µ
e V ar(X) = σ 2 . Um estimador ”natural” para σ 2 , baseado na amostra aleatória
(X1 , X2 , . . . , Xn ) extraı́da dessa população, é
n
c2 = 1
X
σ (Xi − X)2 .
n i=1
c2 ) =
Vamos verificar se esse estimador é não viesado, para isso tem que valer E(σ
σ2 :
( n ) ( n )
2
1 X
2 1 X
2
E(σ ) =
c E (Xi − X) = E (Xi − µ + µ − X)
n i=1
n i=1
( n )
1 X
= E (Xi − µ)2 − 2(Xi − µ)(X − µ) + (X − µ)2
n i=1
( n ) ( n ) ( n )
1 X
2 2 X 1 X
2
= E (Xi − µ) − E (Xi − µ)(X − µ) + E (X − µ)
n i=1
n i=1
n i=1
n n n
1X 2 X 1X
= E(Xi − µ)2 − (X − µ) (E(Xi ) − µ) + E(X − µ)2
n i=1 n i=1
n i=1
n
!
1X 2 n 2 1 2 σ2 n−1
= E(Xi − µ) + E(X − µ) = nσ − = σ2 .
n i=1 n n n n
6.2. ESTIMAÇÃO 133
X1 + X2 + . . . + Xn
X= .
n
Vimos que a combinação linear de uma v.a normal também tem distribuição
de probabilidade dada pelo modelo normal. Assim, podemos dizer que X ∼
2
N (µX , σX ). Então de acordo com as propriedades de esperança e variância,
temos X n
1 1
µX = E(X) = E Xi = nµ = µ,
n i=1 n
n
σ2
2 1X 1
σX = V ar(X) = V ar Xi = 2
nσ 2 = .
n i=1 n n
Sabemos que E(X) = X é um estimador não viesado para µ, e como lim V ar(X) =
n→∞
0, temos que X é um estimador consistente.
= P(Z ≥ 2) = 1 − P(Z ≤ 2)
8. Qual deve ser o tamanho de uma amostra a ser retirada de uma população,
descrita por uma v.a. X com distribuição normal de média µ = 200 e
variância σ 2 = 350, para que P(|X − µ| < 5) = 0.95?
136 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
Calcule o viés E[Vn2 ] − σ 2 para esse estimador. Dica: observe que Vn2 =
(n − 1)S 2 /n.
X1 + X2
θb1 = X̄, θb2 = X1 , θb3 =
2
(i) Demostrar que nenhum dos três estimadores é viesado. (ii) Qual
dos estimadores tem menor variância? Lembrar que no caso exponencial
Var(Xi ) = θ2 .
L(θ) = P(X1 = x1 , X2 = x2 , . . . , Xn = xn )
= P(X1 = x1 )P(X2 = x2 ) . . . P(Xn = xn )
= pθ (x1 )pθ (x2 ) . . . pθ (xn ).
Exemplo 6.3.1 Uma moeda viciada é lançada várias vezes até sair cara pela
primeira vez. Esse experimento é repetido 3 vezes, com a mesma moeda e os
seguintes dados são obtidos:
Seja p a probabilidade de sair cara para essa moeda. Determine uma estimativa
de máxima verossimilhança p̂ para p.
6.3. PRINCÍPIO DA MÁXIMA VEROSSIMILHANÇA 139
x1 = 3, x2 = 5, x3 = 4.
L00 (p) = 6p(1 − p)8 (1 − 4p) − (8)(3)p2 (1 − p)7 (1 − 4p) − (4)(3)p2 (1 − p)8
= 6p(1 − p)8 (1 − 4p) − 24p2 (1 − p)7 (1 − 4p) − 12p2 (1 − p)8
= 6p(1 − p)7 [(1 − 4p) − 4p(1 − 4p) − 2p(1 − p)]
= 6p(1 − p)7 [(1 − 4p)(1 − 4p) − 2p(1 − p)]
= 6p(1 − p)7 [1 − 8p + 16p2 − 2p + 2p2 ]
= 6p(1 − p)7 [1 − 10p + 18p2 ].
L(p) = P(X1 = 1, X2 = 1, X3 = 0)
= P(X1 = 1)P(X2 = 1)P(X3 = 0)
= pp(1 − p) = p2 (1 − p).
P(x1 − ≤ X1 ≤ x1 + , . . . , xn − ≤ Xn ≤ xn + )
6.3. PRINCÍPIO DA MÁXIMA VEROSSIMILHANÇA 141
for máxima.
Temos que,
Z xi +
P(xi − ≤ Xi ≤ xi + ) = f (x, θ)dx ' 2f (xi , θ).
xi −
Log - Verossimilhança
L(θ) = f (x1 , θ)f (x2 , θ) . . . f (xn , θ) ⇔ log(L(θ)) = log(f (x1 , θ)f (x2 , θ) . . . f (xn , θ))
= log(f (x1 , θ)) + log(f (x2 , θ)) + . . . + log(f (xn , θ)).
Assim,
n
X
l(λ) = log(L(λ)) = n log(λ) − λ xi .
i=1
Agora vamos verificar se a condição para máximo é satisfeita, ou seja, se l00 (λ) <
0:
1
l00 (λ) = −n 2 .
λ
Logo, l00 (λ) será menor do que zero, para qualquer valor de λ diferente de zero.
1
Então a estimativa de máxima verossimilhança para λ é .
X
Exemplo 6.3.5 Suponha que o número de acidentes que ocorrem durante um
dia do ano em uma cidade, siga uma distribuição de Poisson(λ). Em dez dias
escolhidos ao acaso, os números de acidentes observados na cidade de Campinas,
foram
4, 0, 6, 5, 1, 2, 0, 3, 4 e 2.
Temos que,
n
Y e−λ λxi
f (x1 , λ)f (x2 , λ) . . . f (xn , λ) = .
i=1
xi !
Então
n
! n
! n
!
Y Y e−λ λxi X e−λ λxi
l(λ) = log f (xi , λ) = log = log
i=1 i=1
xi ! i=1
xi !
n
X n
X
= (log e−λ λxi − log xi !) = (log e−λ + log λxi − log xi !)
i=1 i=1
n
X n
X n
X
xi xi
= (−λ + log λ − log xi !) = n(−λ) + log λ − log xi !.
i=1 i=1 i=1
temos que
√ 1
l(µ, σ 2 ) = −n log(σ) − n log( 2π) − 2 [(x1 − µ)2 + . . . + (xn − µ)2 ].
2σ
Vamos calcular as derivadas parciais de l(µ, σ 2 ):
∂l 1
= {−2(x1 − µ) − . . . − 2(xn − µ)}
∂µ 2σ 2
1 n
= {x1 − . . . − xn + nµ} = 2 {X − µ}
σ2 σ
e
∂l 1 1
= −n + {(x1 − µ)2 + . . . + (xn − µ)2 }
∂σ 2 σ ( σ3 )
n
n 1 X
= − 3 σ2 − (xi − µ)2 .
σ n i=1
∂l ∂l
O máximo da função l(µ, σ 2 ) ocorrerá quando = =0:
∂µ ∂σ 2
∂l n
1. = 2 (X − µ) = 0 ⇔ X − µ = 0 ⇔ µ = X.
∂µ σ
n
! n
∂l n 1X 2 2 1X
2. = − σ 2
− (x i − X) = 0 ⇔ σ = (xi − X)2 .
∂σ 2 σ3 n i=1 n i=1
n
c2 = 1
X
Portanto, µ̂ = X e σ (xi − X)2 são estimadores de máxima verossimi-
n i=1
lhança de µ e σ 2 , respectivamente.
6.3.3 Exercı́cios
1. Suponha uma Amostra Aleatória Simples (A.A.S.) X1 , X2 , . . . , Xn de uma
v.a. X com distribuição de Bernoulli de parâmetro p. Para n = 4 obteve-
se a seguinte realização das Xi ’s: x1 = 1, x2 = 0, x3 = 0, x4 = 0. Encontre
uma estimativa de máxima verossimilhança para p.
fθ (x) = θe−θx , se x ≥ 0
e
σ2
V ar(e) = V ar(X − µ) = V ar(X) − V ar(µ) = V ar(X) = .
n
6.4. INTERVALO DE CONFIANÇA 147
Exemplo 6.4.2 A Esportes e cia é uma empresa de encomendas por mala di-
reta, especializada em equipamentos e acessórios esportivos. A empresa se pre-
ocupa em oferecer o melhor serviço aos seus clientes, por isso monitora a qua-
lidade de seus serviços selecionando uma A.A.S de clientes a cada mês. Cada
cliente é questionado sobre uma série de problemas e as respostas obtidas são
usadas para calcular uma contagem de satisfação para cada um dos clientes
pertencentes à amostra. Essa contagem varia entre 1 a 100, em que 1 e 100
representam a pior e a melhor avaliação, respectivamente.
Uma contagem média é calculada todo mês e usada como uma estimativa pon-
tual da contagem média para toda a população de clientes da empresa.
Dado que num lançamento recente 100 clientes foram entrevistados e obteve-se
X = 82, vamos determinar o intervalo de confiança para µ.
Assumiremos que o desvio-padrão da população será sempre σ = 20. Então,
temos que
σ 20
σX̄ = √ = = 2.
n 10
Como foi visto no desenvolvimento teórico apresentado acima, o intervalo de
confiança para µ, com γ = 0.95 é dado por
Esta declaração é uma declaração de precisão, que diz à empresa sobre o erro
que pode ser esperado se uma amostra aleatória simples de 100 clientes for usada
para estimar a média da contagem de satisfação da população.
Para γ = 0.90:
E(X) = np
150 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
X − np
Z=p ∼ N (0, 1)
np(1 − p)
ou também, √
X/N − p n(p̂ − p)
Z= p = √ ∼ N (0, 1).
pq/n pq
Usando a tabela da normal padrão, temos que
√
(p − p̂) n
P(−1.96 ≤ Z ≤ 1.96) = 0.95 = P −1.96 ≤ √ ≤ 1.96
pq
√ √
pq pq
= P −1.96 √ ≤ p − p̂ ≤ 1.96 √
n n
√ √
pq pq
= P p̂ − 1.96 √ ≤ p ≤ p̂ + 1.96 √
n n
onde q = (1 − p).
Não conhecemos p. Como vamos determinar pq?
Uma das formas é obter o valor máximo da função p(1 − p). Podemos usar este
método, pois quanto maior for p(1 − p) maior será o tamanho do intervalo, e
consequentemente, haverá mais chances desse intervalo conter o parâmetro.
Utilizando a regra do máximo, temos que
O que implica em
1.96 1.96
p̂ − √ ≤ p ≤ p̂ + √ .
4n 4n
6.4. INTERVALO DE CONFIANÇA 151
1.96 1.96
Então p̂ − √ , p̂ + √ é um intervalo de confiança para p com coeficiente
4n 4n
de confiança de 95%.
Para um γ qualquer, o intervalo de confiança acima é escrito da seguinte forma:
z(γ) z(γ)
IC(p; γ) = p̂ − √ , p̂ + √ .
4n 4n
O intervalo de confiança obtido é chamado de conservador, pois estamos substi-
tuindo a variância por um valor maior do que o verdadeiro e assim assegurando
que o coeficiente de confiança seja no mı́nimo γ.
Temos que
p̂ = 0.6 ⇒ q̂ = 0.4 ⇒ p̂q̂ = 0.24.
Então, o intervalo de confiança com γ = 0.95 é
" r r #
0.24 0.24
IC(p; 0.95) = 0.60 − 1.96 , 0.60 + 1.96 = [0.551, 0.649]
400 400
Como o intervalo conservador apresenta uma menor precisão para p̂, vemos que
a amplitude desse intervalo será sempre maior ou igual a do intervalo em que
é usado a estimativa para p.
6.4.3 Exercı́cios
1. Você tem em mãos um conjunto de dados que podem ser considerados
como um realização de uma A.A.S de uma variável aleatória com distri-
buição normal. O tamanho da amostra é n = 34, o valor assumido pela
média amostral é 3.54, e σx̄ = 0.13. Construa um intervalo para µ com
nı́vel de confiança igual a 98%.
que temos que escolher ou refutar uma hipótese sobre o parâmetro desconhe-
cido e também situações em que temos que decidir entre duas hipóteses sobre o
parâmetro desconhecido.
Suponha que um conjunto de dados seja modelado como a realização das v.a.’s
X1 , X2 , . . . Xn e que a distribuição de Xi seja conhecida, mas com parâmetros
desconhecidos. Para determiná-los vamos propor hipóteses sobre esses parâmetros
desconhecidos.
Em particular, vamos estudar distribuições com apenas um parâmetro, θ, des-
conhecido, e propor hipóteses para esse parâmetro.
A hipótese natural para este caso, é propor que a probabilidade do aluno acertar
uma pergunta seja 1/2. Esta hipótese é comumente chamada de hipótese nula
e simbolizada por H0 . Porém, se o aluno não estivesse “chutando”, ele respon-
deria corretamente com probabilidade maior que 1/2.
Então nos interessa testar
H0 : p = 1/2 contra
H1 : p > 1/2,
• Teste Estatı́stico
• Regra de Decisão
10
X
Y = Xi ,
i=1
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
De acordo com esses valores podemos formar uma Regra de Decisão para o
exemplo 6.5.1, a qual determina para quais valores do Teste Estatı́stico vamos
rejeitar ou aceitar a hipótese nula.
“Se oito ou mais respostas estiverem corretas, o estudante não está adivinhando,
enquanto que se um número menor que oito questões estiverem corretas, o es-
tudante está advinhando.”
Exemplo 6.5.2 ([9]) Temos uma moeda e queremos saber se ela é honesta,
lançando-a cinco vezes. Vamos chamar de X a v.a que representa o resul-
tado dos lançamentos, onde Xi representa se saiu cara ou coroa no i-ésimo
lançamento.
Temos que X é uma variável com ditribuição de Bermoulli de parâmetro p,
desconhecido, tal que
1, se acertou com probabilidade p
Xi =
0, se errou com probabilidade 1 − p
156 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
0, 1, 2, 3, 4, 5.
{Y = 5} ∪ {Y = 0}.
H0 : p = 0, 5
H1 : p = 0, 8.
A Verdade
H0 é verdadeira H1 é verdadeira
A Verdade
p = 0, 5 p = 0, 8
Região Crı́tica α β
{7, 8, 9, 10} 0.17 0.121
{8, 9, 10} 0.054 0.322
{9, 10} 0.01 0.624
H0 : µ = 60
H1 : µ > 60.
160 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
β = 1 − K(µ)
6.5. TESTE DE HIPÓTESES 161
X − 60 tc − 60
K(60) = P ≥ ; µ = 60 = 0.05
2 2
X −µ tc − 60
K(60) = 1−P ≤ ; µ = 60 = 0.05.
2 2
tc − 60
= 1.645 ⇒ tc = 60 + 3.29 = 63.29
2
Embora esta mudança cause uma redução em α de 0.1587 para 0.05, ela aumenta
β de 0.0668 para 0.1963, isto é
X − 65 63.29 − 65
= 1−P ≥ ; µ = 65
2 2
tc − 60 = 1.645 ⇒ tc = 61.645.
162 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
A função poder é
X −µ 61.645 − µ
= P ≥ ;µ
1 1
= 1 − P (Z ≤ 61.645 − µ; µ) .
Em particular,
= P (Z ≤ −3.355; µ = 65) ≈ 0.
tc − 65
√ = −1.645
10/ n
Exemplo 6.5.4 Uma fábrica anuncia que a média do ı́ndice de nicotina dos
cigarros da marca X apresenta-se abaixo de 26mg por cigarro. Um laboratório
realiza 10 análises do ı́ndice, obtendo os seguintes resultados:
26, 24, 23, 22, 28, 25, 27, 26, 28, 24.
H0 : µ = 26
H1 : µ < 26.
Temos uma amostra aleatória simples (X1 , . . . , X10 ), com distribuição nor-
mal, tal que Xi ∼ N (µ, σ 2 ), com σ 2 = 5.36.
Portanto,
X − E(X) tc − E(X)
⇒ P q ≥q = 0.05
V ar(X) V ar(X)
X − 26 tc − 26 tc − 26
⇒P ≥ =P Z≥ = 0.05
0.73 0.73 0.73
Da tabela da distribuição normal, obtemos
tc − 26
= −1.64,
0.73
o que nos dá
tc = 0.73(−1.64) + 26 = 24.803
{X : X < 24.803}.
164 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
H0 : µ = 45
H1 : µ 6= 45.
X − E(X) tc − E(X)
⇒ P q ≥q = 0.05
V ar(X) V ar(X)
X − 45 tc − 45 tc − 45
⇒P ≥ =P Z≥ = 0.05
6/4 6/4 3/2
Da tabela da distribuição normal, temos
tc − 45
= 1.64,
3/2
o que implica em
tc = 1.64(3/2) + 45 = 47.46
−tc = 1.64(3/2) − 45 = 42.54
6.5. TESTE DE HIPÓTESES 165
Concluindo
−tc = 42, 54 e tc = 47, 46
5. Tomar a decisão entre rejeitar ou não a hipótese nula, com base na região
crı́tica.
6.5.6 P-valor
Até agora, construı́mos os testes de hipóteses a partir da fixação de um nı́vel
de significância α ou da escolha de uma Regra de Decição. Nesta seção, va-
mos mostrar outra forma de procedimento, conhecida por três denominações:
Probabilidade de Significância, Nı́vel Descritivo e p-valor. Vamos ver que a
única diferença entre os dois procedimentos, é que utilizando o p-valor, não
construı́mos a Região Crı́tica. A seguir apresentamos o conceito de p-valor.
H0 : µ = 60
H1 : µ > 60.
166 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
X − 60 62.75 − 60
= P √ ≥ √ ; µ = 60
10/ 52 10/ 52
X − 60 62.75 − 60
= 1−P √ ≤ √ ; µ = 60
10/ 52 10/ 52
X − 60
= 1−P √ ≤ 1.983; µ = 60 = 0.0237.
10/ 52
Então quando o p-valor for pequeno teremos a evidência de que a hipótese nula
é falsa, pois a amostra possui uma probabilidade muito pequena de acontecer
se H0 for verdadeira e portanto nesse caso rejeitamos H0 . Podemos ver isso no
exemplo 6.5.3, onde rejeitar H0 quando p − valor ≤ 0.025 é o mesmo tipo de
rejeição obtida se X ≥ 62.718.
Nesse caso, dizemos que X = 62.718 tem p-valor igual 0.025 e a hipótese nula é
rejeitada para um nı́vel de significância de 5%.
H0 : µ = 90
H1 : µ < 90.
Se, por outro lado, o valor verdadeiro de µ após as aulas for µ = 87, o poder do
teste é
K(87) = P (Z ≤ 2; µ = 87) = 0.9772.
X − 90 88.25 − 90
= P ≤ ; µ = 90
3/4 3/4
X − 90 −7
= P ≤ ; µ = 90 = 0.0098,
3/4 3
e isso nos levaria a rejeitar H0 para α = 0.0228 (ou mesmo até para α = 0.01).
6.5.7 Exercı́cios
1. Um candidato a presidente de um grande clube de futebol garante que
pelo menos metade dos sócios do clube apoia sua candidatura.
168 CAPÍTULO 6. INFERÊNCIA ESTATÍSTICA
171