Escolar Documentos
Profissional Documentos
Cultura Documentos
Junho 2014
Teoria da Probabilidade Sumário
Sumário
1 Conceitos Básicos e Definições 3
1.1 Relações entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Algumas definições em probabilidade: . . . . . . . . . . . . . . . . . . . . . 6
1.3 Medidas de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Axiomas de Kolmogorov e espaço de probabilidade . . . . . . . . . 9
1.4 Propriedades das probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Probabilidade condicional e teorema de Bayes . . . . . . . . . . . . . . . . 15
1.5.1 Probabilidade condicional . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.3 Independência de eventos . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6 Contagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6.1 Amostras ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6.2 Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6.3 Amostras Desordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.6.4 Partições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Variáveis Aleatórias 42
2.1 Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Principais modelos de discretos . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.1 Variável Aleatória Constante . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.2 Distribuição uniforme discreta . . . . . . . . . . . . . . . . . . . . . . 49
2.2.3 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.4 Distribuição binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Distribuição geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.6 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . . . . 60
2.2.7 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . 62
2.2.8 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.9 Distribuições discretas no R . . . . . . . . . . . . . . . . . . . . . . . 73
2
Teoria da Probabilidade Conceitos Básicos e Definições
APLICAÇÕES:
i) UNIÃO: Notação A ∪ B ,
sejam A e B eventos quaisquer, a união entre A e B é dada pelos elementos que
pertencem a A ou a B ;
A M B = (A ∩ B c ) ∪ (Ac ∩ B)
= (A − B) ∪ (B − A);
3
Teoria da Probabilidade Conceitos Básicos e Definições
– Ai ∩ Aj = ∅, ∀ i 6= j ;
k
[
– Ai = Ω.
i=1
∞
!c ∞
[ \
Ai = Aci ;
i=1 i=1
∞
!c ∞
\ [
Ai = Aci .
i=1 i=1
Ω
A B
AUBUC
C
(AUBUC)c
Ω Ω Ω
Cc
A B
Ac Bc C
4
Teoria da Probabilidade Conceitos Básicos e Definições
Ω
A B
∞
!c ∞
[ \
i) Ai ⊂ Aci ;
i=1 i=1
∞
!c ∞
[ \
ii) Ai ⊃ Aci .
i=1 i=1
∞
[ ∞
[
Seja w ∈ ( Ai )c =⇒ w ∈
/ Ai =⇒ w ∈
/ Ai , ∀ i = 1, 2, . . .
i=1 i=1
∞
\
Desta forma, w ∈ Aci , ∀i = 1, 2, . . . =⇒ w ∈ Aci ,
i=1
o que prova a parte (i).
∞
\
Seja w ∈ Aci =⇒ w ∈ Aci =⇒ w ∈
/ Ai , ∀ i = 1, 2, . . .
i=1
∞
[ ∞
[
Desta forma, w ∈
/ Ai , ∀ i = 1, 2, . . . =⇒ w ∈ ( Ai )c ,
i=1 i=1
5
Teoria da Probabilidade Conceitos Básicos e Definições
Exemplo: Considere uma caixa com b bolas numeradas de 1 a b. Uma bola é retirada e
seu número é anotado.
Casos Especiais:
6
Teoria da Probabilidade Conceitos Básicos e Definições
Notas:
1) Sejam dois eventos elementares Ai e Aj , i 6= j , então, Ai ∩ Aj = ∅;
2) Qualquer evento pode ser escrito como uniões de eventos elementares.
Particularmente, Ω = A1 ∪ A2 ∪ . . . ∪ AN .
Como o espaço amostral é finito, será associada uma probabilidade pi = 1/N para
cada ωi , i = 1, 2, . . . , N .
É intuitivo que 0 ≤ pi ≤ 1 e que p1 + p2 + . . . + pN = 1.
Se, além disso, o espaço amostral for equiprovável (ou homogêneo), então,
1
pi = ∀ ωi ∈ Ω, i = 1, 2, . . . , N .
N
d) σ -ÁLGEBRA:
Seja uma coleção não vazia A de subconjuntos de Ω aos quais desejamos associar
probabilidades. Então A deve ser tal que, se A e B ∈ A , faz sentido calcular probabi-
lidades de que
7
Teoria da Probabilidade Conceitos Básicos e Definições
i) Ω ∈ A ;
ii) se A ∈ A =⇒ Ac ∈ A ;
iii) se A ∈ A e B ∈ A =⇒ (A ∪ B) ∈ A .
Além disso, deseja-se que A seja fechada também para um número infinito e enumerável
de operações (uniões e intersecções).
i) Ω ∈ A ;
ii) se A ∈ A =⇒ Ac ∈ A ;
∞
[
iii) se A1 , A2 , . . . ∈ A =⇒ Ai ∈ A .
i=1
Notas:
1) toda σ -álgebra é uma álgebra, porém, nem toda álgebra é uma σ -álgebra;
∞
\
2) Seja A uma σ -álgebra de Ω, então, se A1 , A2 , . . . ∈ A =⇒ Ai ∈ A .
i=1
• A1 = { ∅, Ω } → menor σ -álgebra;
• A2 = { ∅, Ω, {1}, {2}, {1, 3}, {2, 3} } → não é σ -álgebra pois: {1} ∪ {2} ∈
/ A2
(todos os complementares estão presentes, mas não todas as uniões).
8
Teoria da Probabilidade Conceitos Básicos e Definições
card(A)
P (A) =
card(Ω)
em que Ω é o conjunto de resultados possíveis (espaço amostral).
Exemplo: Um indivíduo realiza um tiro ao acaso num alvo circular de raio R. Qual a pro-
babilidade de que acerte o círculo central de raio r (r < R)?
i) P (A) ≥ 0, ∀ A ∈ A ;
ii) P (Ω) = 1;
9
Teoria da Probabilidade Conceitos Básicos e Definições
∞
! ∞
[ X
iii) se A1 , A2 , . . . formam uma seqüência disjunta, então P Ai = P (Ai ).
i=1 i=1
Espaço amostral: Ω = { 1, 2, 3, . . . };
1
Medida de probabilidade: P (k) = , k = 1, 2, . . .
2k
Checar os axiomas:
iii) A união de eventos disjuntos, forma um conjunto ao se aplica o resultado (i), que equi-
vale à soma das suas probabilidades individuais.
10
Teoria da Probabilidade Conceitos Básicos e Definições
a) P (A) = 1 − P (Ac );
Nota: caso especial P (∅) = 1 − P (Ω) = 0.
A B
A ∩ Bc A∩ B Ac ∩ B
11
Teoria da Probabilidade Conceitos Básicos e Definições
PROVA:
i) Os conjuntos (A ∩ B c ), (A ∩ B) e (Ac ∩ B) são disjuntos, logo.
→ A ∪ B = (A ∩ B c ) ∪ (A ∩ B) ∪ (Ac ∩ B),
→ P (A ∪ B) = P (A ∩ B c ) + P (A ∩ B) + P (Ac ∩ B).
ii) Tem-se, ainda, que
→ P (A) = P (A ∩ B c ) + P (A ∩ B) e
→ P (B) = P (Ac ∩ B) + P (A ∩ B).
n
[ n
X
e) Das propriedades (c) e (d) tem-se P ( Ai ) ≤ P (Ai ).
i=1 i=1
n
! n
!
[ \
P Ai =1−P Aci .
i=1 i=1
∞
[
g) PARTE 1: Se A1 ⊂ A2 ⊂ . . . e A = Ai ou
i=1
∞
\
PARTE 2: Se A1 ⊃ A2 ⊃ . . . e A = Ai ,
i=1
PROVA: (PARTE 1)
→ seja B1 = A1 ;
12
Teoria da Probabilidade Conceitos Básicos e Definições
→ para n ≥ 2, seja Bn o conjunto de pontos que estão em An mas não estão em An−1 ,
ou seja Bn = An ∩ Acn−1 ;
→ os conjuntos Bn , n = 1, 2, . . . são todos mutuamente exclusivos e, ainda
[n [∞
An = Bi e A = Bi ;
i=1 i=1
→ conseqüentemente:
n
X
a) P (An ) = P (Bi ) ,
i=1
∞
X
b) P (A) = P (Bi ) .
i=1
Desta forma, aplicando-se o limite para n → ∞ em (a), tem-se
n
X
lim P (An ) = lim P (Bi )
n→∞ n→∞
i=1
∞
X de (b)
= P (Bi ) = P (A) ,
i=1
Ω = ω = (i, j) ∈ R2 | i = 1, . . . 6 e j = 1, . . . , 6
Sejam:
A = classe de todos os subconjuntos de Ω e
1
P = probabilidade uniforme para todos os pontos de Ω, ou seja, P ({ω}) = .
card(Ω)
1
Nesse caso, tem-se: card(Ω) = 36 ⇒ P ({ω}) = , ∀ ω ∈ Ω.
36
Considere os eventos:
A = a soma dos resultados é um número ímpar;
13
Teoria da Probabilidade Conceitos Básicos e Definições
Resultados:
18 1
I card(A) = 18 =⇒ P (A) = = ;
36 2
18 1
I card(B) = 18 =⇒ P (B) = = ;
36 2
9 1
I card(C) = 9 =⇒ P (C) = = .
36 4
Intersecções:
1
i) A ∩ B = { (1,2), (1,4), (1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6) } ⇒ P (A ∩ B) = ;
4
ii) A ∩ C = { ∅ } ⇒ P (A ∩ C) = 0;
1
iii) como C ⊂ B , segue-se que B ∩ C = C, ⇒ P (B ∩ C) = P (C) = ;
4
iv) de (ii), tem-se que A ∩ B ∩ C = { ∅ } ⇒ P (A ∩ B ∩ C) = 0;
1 1 1 3
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = + − =
2 2 4 4
14
Teoria da Probabilidade Conceitos Básicos e Definições
2 1
A = {(p, i), (i, p)} =⇒ P (A) = = ;
4 2
2 1
B = {(p, i), (i, i)} =⇒ P (B) = = ;
4 2
1
C = {(i, i)} =⇒ P (C) = .
4
→ se ω ∈ B , então ω ∈ A ⇐⇒ ω ∈ (A ∩ B).
Em outras palavras, sabendo que o evento B ocorreu, então, o evento A ocorre se, e só
se, ocorre a intersecção A ∩ B .
Nesse caso, tem-se um novo espaço amostral dado pelo evento B , uma nova σ -álgebra
AB e uma nova medida de probabilidade PB , aplicada em subconjuntos de AB , satisfazendo
os axiomas de Kolmogorov
P (A ∩ B)
PB = .
P (B)
15
Teoria da Probabilidade Conceitos Básicos e Definições
Esquematicamente:
A A∩ B B
Sejam os eventos A e B tais que P (B) > 0, então, define-se a probabilidade condicional
de B dado que ocorreu A por
P (A ∩ B)
P (A|B) = .
P (B)
Censidere os eventos:
r
A = { a bola extraída é vermelha }, logo, P (A) =
(r + b)
2
B = { a bola extraída é a de número 1 }, logo, P (B) =
(r + b)
16
Teoria da Probabilidade Conceitos Básicos e Definições
1
Como P (B ∩ A) = , então,
(r + b)
P (B ∩ A) 1/(r + b) 1
P (B|A) = = = .
P (A) r/(r + b) r
Espaço amostral =⇒ Ω = {(c, c); (c, c̄); (c̄, c); (c̄, c̄)}, em que c = cara e c̄ = coroa.
Sejam os eventos:
2
C1 = { cara na 1a moeda } =⇒ P (C1 ) = P [(c, c); (c, c̄)] = ;
4
2
C2 = { cara na 2a moeda } =⇒ P (C2 ) = P [(c, c); (c̄, c)] = .
4
1
Como P (C2 ∩ C1 ) = P [(c, c)] = ,
4
logo,
P (C2 ∩ C1 ) P [(c, c)] 1/4 1
P (C2 |C1 ) = = = = .
P (C1 ) P [(c, c); (c, c̄)] 2/4 2
b) A probabilidade de se obter 2 caras sabendo que se obteve pelo menos uma cara.
Desta forma:
Exemplo 3) (Urna de Polya) Uma caixa comtém r bolas vermelhas e b bolas brancas. Uma
bola é extraída, sua cor observada e, a seguir, a bola é recolocada na caixa com mais c > 0
bolas da mesma cor. Esse procedimento é repetido m vezes.
O interesse aqui consiste em saber qual a probabilidade de se extrair uma bola vermelha
(ou branca) em cada uma das m retiradas.
17
Teoria da Probabilidade Conceitos Básicos e Definições
Sejam:
Então:
⇒ Rj e Bj são disjuntos e
Para j = 1:
r
i) P (R1 ) = ,
b+r
b
ii) P (B1 ) = .
b+r
Para j = 2:
(r + c)
i) P (R2 |R1 ) = ;
(b + r + c)
ii) P (R1 R2 ) = P (R1 )P (R2 |R1 );
r (r + c)
⇒ P (R1 R2 ) = .
(b + r) (b + r + c)
De maneira análoga,
b r
⇒ P (B1 R2 ) = .
(b + r) (b + r + c)
Portanto:
18
Teoria da Probabilidade Conceitos Básicos e Definições
r
i) P (R2 ) = P (R1 ) = ,
b+r
b
ii) P (B2 ) = P (B1 ) = .
b+r
Para j = 3:
Qual a probabilidade de vermelha na 3a extração?
Possibilidades:
Enfim, pode-se provar por indução que, P (Rj ) = P (R1 ) e P (Bj ) = P (B1 ), ∀ 1 ≤ j ≤ m.
6
[
A = (A ∩ E1 ) ∪ (A ∩ E2 ) ∪ (A ∩ E3 ) ∪ (A ∩ E4 ) ∪ (A ∩ E5 ) ∪ (A ∩ E6 ) = (A ∩ Ei )
i=1
19
Teoria da Probabilidade Conceitos Básicos e Definições
Para um m qualquer,
m
[
A = (A ∩ E1 ) ∪ (A ∩ E2 ) ∪ . . . ∪ (A ∩ Em ) = (A ∩ Ei ),
i=1
P (Ek ∩ A)
P (Ek |A) =
P (A)
P (A|Ek )P (Ek )
P (Ek |A) = m , k = 1, 2, . . . , m, (1.1)
X
P (A|Ei )P (Ei )
i=1
o resultado em (1.1) é conhecido como teorema de Bayes. Foi obtido pelo Reverendo Thomas
Bayes e publicado em 1763, sendo um dos teoremas mais importantes da teoria estatística.
Exemplo 1) Numa população adulta 40% são homens e 60% mulheres. Sabe-se, ainda,
que 50% dos homens e 30% das mulheres são fumantes. Determine:
20
Teoria da Probabilidade Conceitos Básicos e Definições
a) A probabilidade de que uma pessoa escolhida ao acaso nesta população seja fumante.
P (F ) = P (F ∩ H) + P (F ∩ M )
P (F ) = P (F |H)P (H) + P (F |M )P (M )
P (F ) = 0.50 · 0.40 + 0.30 · 0.60
P (F ) = 0.38
P (H ∩ F )
P (H|F ) =
P (F )
P (F |H)P (H)
P (H|F ) =
P (F )
0.20
P (H|F ) =
0.38
P (H|F ) = 0.5263,
21
Teoria da Probabilidade Conceitos Básicos e Definições
Exemplo 2) Sabe-se que numa população 8% das pessoas são infectadas por um vírus
causador de uma doença muito grave. Um teste para detecção do vírus é eficiente em 99%
dos casos nos quais os indivíduos são infectados, mas resulta em 2% de resultados positivos
para os não infectados (falsos positivos).
Se o teste de uma pessoa dessa população der resultado positivo, qual a probabilidade
de que ela seja da fato infectada?
Defindo-se: I ⇒ grupo das pessoas infectadas;
I c ⇒ grupo dos não infectados;
T + ⇒ o resultado do teste é positivo;
T − ⇒ o resultado do teste é negativo;
P (I ∩ T + )
que pela regra da probabilidade condicional é dada por P (I|T + ) = .
P (T + )
22
Teoria da Probabilidade Conceitos Básicos e Definições
P (T + ) = P (I ∩ T + ) + P (I c ∩ T + )
= P (T + |I)P (I) + P (T + |I c )P (I c )
= 0.99 · 0.08 + 0.02 · 0.92
= 0.0792 + 0.0184
= 0.0976
Qual seria a confiança no teste se o resultado fosse negativo, ou seja, qual a probabilidade
de o teste sendo negativo a pessoa de fato não seja infectada?
P (I c ∩ T − )
Deseja-se: P (I c |T − ) = .
P (T − )
P (T − |I c )P (I c ) 0.9016
então, P (I c |T − ) = −
= = 0.9991,
P (T ) 0.9024
23
Teoria da Probabilidade Conceitos Básicos e Definições
P (A ∩ B) = P (A|B) P (B).
Definição: Sejam dois eventos A e B , com probabilidades maiores do que zero, tais que
a ocorrência de um deles não altera a probabilidade de ocorrência do segundo, então, esses
eventos são ditos indepententes.
Da regra da multiplicação das probabilidades, portanto, se dois eventos A e B são inde-
pendentes então a probabilidade de ocorrência conjunta dos dois é dada pelo produto das
probabilidades individuais, ou seja,
Sejam os eventos:
1
A = { cara no 2º lançamento } =⇒ P (A) = P [(c, c); (c̄, c)] = ;
2
1
B = { cara no 1º lançamento } =⇒ P (B) = P [(c, c); (c, c̄)] = .
2
Determine P (A|B).
P (A ∩ B) 1/4 1
P (A|B) = = = = P (A).
P (B) 1/2 2
24
Teoria da Probabilidade Conceitos Básicos e Definições
Propriedades de independência:
P (A) = P (A ∩ B) + P (A ∩ B c )
P (A) = P (A)P (B) + P (A ∩ B c )
P (A) − P (A)P (B) = P (A ∩ B c )
P (A)[1 − P (B)] = P (A ∩ B c )
P (A)P (B c ) = P (A ∩ B c )
25
Teoria da Probabilidade Conceitos Básicos e Definições
Considere os eventos:
H = { homem vivo daqui a 10 anos } =⇒ P (H) = 3/4 logo P (H c ) = 1/4;
M = { mulher viva daqui a 10 anos } =⇒ P (M ) = 5/6 logo P (M c ) = 1/6.
3 5 5
P (HM ) = P (H)P (M ) = · =
4 6 8
3 5 1 5 3 1
P (HM, HM c , H c M ) = · + · + ·
4 6 4 6 4 6
15 5 3 23
P (HM, HM c , H c M ) = + + =
24 24 24 24
1 1 23
P (HM ) = 1 − P (H c M c ) = 1 − · =
4 6 24
26
Teoria da Probabilidade Conceitos Básicos e Definições
Sejam os eventos:
S = { o sistema funciona no tempo t } =⇒ confiabilidade do sistema = P (S)
Ci = { o componente i funciona no tempo t } =⇒ P (Ci ) = p
P (S) = P (C1 ∩ C2 ) = p2
P (S) = P (C1 ∪ C2 ) = p + p − p2 = 2p − p2
27
Teoria da Probabilidade Conceitos Básicos e Definições
P (S) = 2p2 − p3
ii) Verifique se os eventos {ocorrem pelo menos duas caras} e {ocorre coroa no 1º lança-
mento} são independentes.
A = { ocorrem pelo menos duas caras } =⇒ A = {(c, c, c); (c, c, c̄); (c, c̄, c); (c̄, c, c)}
B = { ocorre coroa no 1º lançamento } =⇒ A = {(c̄, c, c); (c̄, c, c̄); (c̄, c̄, c); (c̄, c̄, c̄)}
No lançamento de uma moeda P (c) = P (c̄) = 1/2, logo, os eventos elementares de Ω
têm todos probabilidade 1/8. Desta forma, verifica-se facilmente que
1
P (A) = P (B) = .
2
3
Ainda, A ∩ B = {(c̄, c, c̄); (c̄, c̄, c); (c̄, c̄, c̄)} =⇒ P (A ∩ B) = ,
8
portanto,
3/8 3
P (A|B) = = 6= P (A)P (B).
1/2 4
28
Teoria da Probabilidade Conceitos Básicos e Definições
1.6 Contagem
Considere um espaço amostral finito e equiprovável Ω, no qual cada evento elementar tem
probabilidade
1
P ({ωi }) = , i = 1, 2, . . . , card(Ω).
card(Ω)
card(A)
P (A) =
card(Ω)
29
Teoria da Probabilidade Conceitos Básicos e Definições
Se, no entanto, os n conjuntos forem o mesmo conjunto S , com s pontos, então existirão
n
s n−uplas do tipo (x1 , x2 , . . . , xn ) para as quais xi , i = 1, 2, . . . , n, é um ponto de S .
Esta situação, em que o número de elementos de S permanece constante, caracteriza
uma ”amostra aleatória com reposição”. Com a condição inicial de que o espaço amostral é
equiprovável, todas as sn n−uplas têm igual probabilidade de serem selecionadas, sendo
essa probabilidade igual a
1
. (1.3)
sn
Nessa situação, o conjunto S é dado por: S = {c, c̄}, sendo que P ({c}) = P ({c̄}) = 1/2.
Como s = 2, então, o número de n−uplas possíveis é igual a 2n .
P (A) = 1 − P (Ac )
" n
!c #
[
P (A) = 1 − P Ai
i=1
n
!
\
P (A) = 1 − P Aci
i=1
n
Y
P (A) = 1 − P (Aci )
i=1
30
Teoria da Probabilidade Conceitos Básicos e Definições
1 1023
Se, por exemplo, n = 10, P (A) = 1 − = .
1024 1024
Desta forma, de (1.3) e (1.4), temos que a probabilidade acima é dada por
As,n s(s − 1) . . . (s − n + 1)
P (E) = n
=
s sn
s (s − 1) (s − n + 1)
P (E) = ...
s s s
1 2 n−1
P (E) = 1− 1− ... 1 −
s s s
n−1
Y
k
P (E) = 1− . (1.5)
k=1
s
Como na maioria das situações práticas o número de elementos do conjunto S (ou ”popu-
lação”) é muito grande, calculando o limite em (1.5), tem-se
"n−1 #
Y k
lim P (E) = lim 1− = 1,
s→∞ s→∞
k=1
s
ou seja, quando as populações são muito grandes, as amostras aleatórias “com” e “sem”
31
Teoria da Probabilidade Conceitos Básicos e Definições
reposição se equivalem.
Exemplo 3) Qual a probabilidade de que, num grupo com n pessoas, não existam duas
com aniversário na mesma data?
(este problema é muito popular, sendo conhecido como “problema dos aniversários”)
Seja: S = {1, 2, 3, . . . , 365}, então S é definido como sendo os dias do ano e, s = 365.
n−1
Y
k
P (E) = 1− .
k=1
365
Desta forma, a probabilidade de que, num grupo de quatro pessoas, pelo duas delas
façam aniversário na mesma data, é de 1 − 0.9836 = 0.0164.
1.6.2 Permutações
Pn = n (n − 1) (n − 2) . . . 1 = n!
32
Teoria da Probabilidade Conceitos Básicos e Definições
Pn−1 (n − 1)! 1
P (A) = = = .
Pn n! n
Pn−k (n − k)! 1
= = .
Pn n! An,k
(8 − 4)! 1
P (A) = = = 0.000595.
8! A8,4
Considere o conjunto S , com s elementos, logo existem As,n amostras distintas de ta-
manho n, n < s, extraídas sem reposição. Nesta situação, considera-se a ordem das ob-
servações na amostra, ou seja, amostras com os elementos em diferentes ordenações são
consideradas distintas.
Em muitas situações, no entanto, o interesse recai nos elementos da amostras, indepen-
dente da ordem em que são selecionados. É o caso de amostras desordenadas. Neste
sentido, uma amostra sem reposição {x1 , x2 , . . . , xn } pode ser reordenada de n! maneiras di-
ferentes (todas com os mesmos elementos), fato este, que deve ser considerado no momento
da contagem.
Portanto, dividindo o número de amostras sem reposição pelo total de reordenações,
obtem-se o número de amostras possíveis, sem reposição e sem considerar a ordem dos
33
Teoria da Probabilidade Conceitos Básicos e Definições
elementos, ou seja,
As,n
n!
Exemplo Considere a amostra {3, 1, 7}. como n = 3, o número de reordenações dos seus
elementos é 3! = 6:
{3, 1, 7}, {3, 7, 1}, {1, 3, 7}, {1, 7, 3}, {7, 3, 1} {7, 1, 3}
Notas:
!
a
a) O coeficiente é bem definido para a ∈ R e x ∈ N, por exemplo, se a = −π e
x
x = 3, então
!
−π −π(−π − 1)(−π − 2) π(π − 1)(π − 2)
= =− = −11.1497.
3 3! 6
34
Teoria da Probabilidade Conceitos Básicos e Definições
O número de amostras de tamanho k < n que podem ser retiradas de S tal que não hajam
repetições é An,k = n(n − 1) . . . (n − k + 1).
Dessas As,k existem k! reordenações, das quais apenas uma contém os valores em
sequência.
Portanto, a probabilidade desejada é:
k! 1
P (A) = =
As,k Cs,k
1 2 3 1 2 4 1 2 5 1 3 4 1 3 5
1 3 2 1 4 2 1 5 2 1 4 3 1 5 3
2 1 3 2 1 4 2 1 5 3 1 4 3 1 5
2 3 1 2 4 1 2 5 1 3 4 1 3 5 1
3 1 2 4 1 2 5 1 2 4 1 3 5 1 3
3 2 1 4 2 1 5 2 1 4 3 1 5 3 1
1 4 5 2 3 4 2 3 5 2 4 5 3 4 5
1 5 4 2 4 3 2 5 3 2 5 4 3 5 4
4 1 5 3 2 4 3 2 5 4 2 5 4 3 5
4 5 1 3 4 2 3 5 2 4 5 2 4 5 3
5 1 4 4 2 3 5 2 3 5 2 4 5 3 4
5 4 1 4 3 2 5 3 2 5 4 2 5 4 3
. Reordenações 3! = 6
Exemplo 6) Qual é a probabilidade de se obter um royal straight flush numa mão de pôquer,
antes da troca de cartas?
Um royal straight flush é uma sequência com as maiores cartas (A, K, Q, J, 10), sendo
todas do mesmo naipe.
35
Teoria da Probabilidade Conceitos Básicos e Definições
Fica como exercício para o leitor calcular as probabilidades de se obter as demais mãos
no jogo no pôquer (antes da troca das cartas).
. Straight flush (cinco cartas do mesmo naipe, em sequência);
. Quadra (quatro cartas do mesmo valor);
. Full house (uma trinca e um par);
. Flush (as cinco cartas do mesmo naipe);
. Straight (cinco cartas em sequência, sem consideração de naipes);
. Trinca (três cartas do mesmo valor);
. Dois pares (pares com cartas de valores distintos);
. Par (duas cartas do mesmo valor).
60!
Total de possibilidades com jogos de 6 dezenas: C60,6 = .
54! 6!
10!
Total de jogos possíveis de 6 dezenas dentre as d = 10 escolhidas: C10,6 = = 210.
4! 6!
Portanto, as chances de se ganhar na megasena são iguais para os dois casos visto que:
210
P (A) = P (B) = ≈ 4.2 × 10−6
C60,6
1.6.4 Partições
36
Teoria da Probabilidade Conceitos Básicos e Definições
k
X k
X
em que si = s e ni = n.
i=1 i=1
Desta forma:
! !
12 5
3 2 2200
P (comissão com 3 professores e 2 alunos) = ! = = 0.355,
17 6188
5
37
Teoria da Probabilidade Conceitos Básicos e Definições
Após a primeira captura tem-se N peixes no lago, dos quais m são marcados.
Da partição da população desejamos que no segundo lançamento da rede sejam captu-
rados x peixes marcados e (n − x) não marcados, logo
! !
m N −m
x n−x
P (A) = ! (1.6)
N
n
! !
50 N − 50
x 30 − x
P (A) = ! . (1.7)
N
30
38
Teoria da Probabilidade Conceitos Básicos e Definições
A seguir são apresentados a tabela com os cálculos para a obtenção de N e a curva com
o valor de P (A) versus N . Pelos valores apresentados, verifica-se que valor de N pode ser
estimatido em N = 49 ou N = 50.
N P (A)
14 0.0050
20 0.1354
30 0.3400
40 0.4165
48 0.4311
49 0.4313
50 0.4313
51 0.4311
60 0.4217
80 0.3814
100 0.3394
120 0.3029
39
Teoria da Probabilidade Conceitos Básicos e Definições
Este resultado é óbvio, uma vez que o procedimento de escolha implica a inexistência de
repetições, logo, haverá apenas um jogo de seis dezenas coincidindo com as dezenas sorte-
adas. Mas, acertando a sena, quantas quinas e quadras são, também, obtidas?
O raciocínio é o mesmo que no caso anterior, isto é, tendo feito a sena, sendo Q acertos
dentre as 6 dezenas sorteadas e (6 − Q) erros dentre as não sorteadas, então
40
Teoria da Probabilidade Conceitos Básicos e Definições
(d − 4)(d − 5)
. com Q = 4, consegue-se , quadras d > 6.
2
Tabela 1.2: Número de senas, quinas e quadras na megasena nos jogos com d dezenas
escolhidas e combinadas.
Dezenas Acertos número
apostadas 6 5 4 de
d senas quinas quadras quinas quadras quadras jogos
6 1 0 0 1 0 1 1
7 1 6 0 2 5 3 7
8 1 12 15 3 15 6 28
9 1 18 45 4 30 10 84
10 1 24 90 5 50 15 210
11 1 30 150 6 75 21 462
12 1 36 225 7 105 28 924
13 1 42 315 8 140 36 1716
14 1 48 420 9 180 45 3003
15 1 54 540 10 225 55 5005
41
Teoria da Probabilidade Variáveis Aleatórias
2 Variáveis Aleatórias
Definição 2.1. Seja o espaço de probabilidade (Ω, A , P ), então, define-se por variável alea-
tória, ou simplesmente v.a., qualquer função X : Ω → R tal que:
n o
X −1
(Ω) = ω ∈ Ω : X(ω) ∈ I ∈ A ,
42
Teoria da Probabilidade Variáveis Aleatórias
n o
b) I = N = 0, 1, 2, 3, 4, ... .
ii) VA contínua: é aquela para a qual o conjunto I é um conjunto infinito não enumerável,
ou seja, é uma v.a. que assume valores em intervalos de números reais, por exemplo:
a) I = R = (−∞, ∞);
b) I = [0, 1] ⊂ R.
Notas:
X é uma v.a. discreta, num espaço de probabilidade (Ω, A , P ), é uma n função com do- o
mínio em Ω e cujo contradomínio é um conjunto finito ou infinito enumerável x1 , x2 , x3 , . . .
n o
dos números reais R, tal que, ω ∈ Ω : X(ω) = xi é um evento para todo i e, portanto,
pode-se calcular a sua probabilidade de ocorrência
h i
P {ω ∈ Ω : X(ω) = xi } , i = 1, 2, 3, . . . .
Notas:
n o n o
a) Por simplicidade, representamos o evento ω ∈ Ω : X(ω) = xi por X = xi e as
probabilidades são simplificadas por:
h i
P {ω ∈ Ω : X(ω) = xi } = P (X = xi )
n o
∗ ∗
b) Se x ∈
/ I, então ω ∈ Ω : X(ω) = x = ∅, que também é um evento. Nesse caso,
h i
∗
P ω ∈ Ω : X(ω) = x = P (X = x∗ ) = 0
43
Teoria da Probabilidade Variáveis Aleatórias
Definição 2.2. Função de probabilidade de uma v.a. discreta X é uma função p(x) que
o de X .
atribui probabilidade a cada um dosnpossíveis valores
Seja X assumindo valores I = x1 , x2 , x3 , . . . , então, para todo x ∈ I
p(x) = P (X = x).
a) 0 ≤ p(xi ) ≤ 1, ∀ xi ∈ I;
X
b) p(xi ) = 1.
i
Prova:
X X
p(xi ) = P (X = xi )
i i
" #
[n o
=P w ∈ Ω : X(ω) = xi
i
= P (Ω) = 1.
F (x) = P (X ≤ x).
44
Teoria da Probabilidade Variáveis Aleatórias
a) F (x) é uma função do tipo escada, ou seja, para os pontos xi , xi+1 ∈ I e x tal que
xi ≤ x < xi+1 ,
F (x) = F (xi ),
Exemplo 2.2. Seja a v.a. X discreta, com distribuição de probabilidade dada por:
x p(x) F (x)
0 0.15 0.15
1 0.28 0.43
2 0.26 0.69
3 0.18 0.87
4 0.08 0.95
5 0.05 1.00
Assim, temos:
a) p(3) = P (X = 3) = 0.18;
b) F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 0.69;
Logo:
45
Teoria da Probabilidade Variáveis Aleatórias
h i
p(0) = P { c̄c̄ } X( c̄c̄ ) = 0 = 1/4
h i
p(1) = P { cc̄ } ∪ { c̄c } X( cc̄ ) = X( c̄c ) = 1 = 1/2
h i
p(2) = P { cc } X( cc ) = 2 = 1/4
x 0 1 2
p(x) 1/4 1/2 1/4
Exemplo 2.4. Seja uma v.a. X assumindo os valores { 3, 4, 5, 6 }. Obter k ∈ R de modo que
p(x) seja uma função de probabilidade:
p(x) = k (x − 2)2
46
Teoria da Probabilidade Variáveis Aleatórias
X
Das propriedades da função de probabilidade, p(x) = 1, portanto:
x
(x − 2)2
Desta forma, a função de probabilidade de X é dada por p(x) = , x ∈ {3, 4, 5, 6}.
30
Exemplo 2.5. Considere o jogo no qual um alvo circular de raio 1 é dividido em n regiões
anelares concêntricas de raio 1/n, 2/n, . . . , 1. Lança-se um dardo ao acaso e, se ele atingir a
região Ai , delimitada pelos raios (i − 1)/n e i/n, i = 1, 2, . . . , n, ganha-se (n − i) reais (ver
Figura 2.3)
An 0
An−1 1
R=1
A2 n − 2
A1
n−1
47
Teoria da Probabilidade Variáveis Aleatórias
área de Ai
P (X = n − i) =
área total
2 2
i i−1
π −π
n n
P (X = n − i) =
π
i2 − (i2 − 2i + 1)
P (X = n − i) =
n2
2i − 1
P (X = n − i) = , i = 1, 2, . . . , n.
n2
2(n − x) − 1
, x ∈ {0, 1, 2, . . . , (n − 1)}
n2
p(x) =
0, c.c.
48
Teoria da Probabilidade Variáveis Aleatórias
●
1
1
F(x)
p(x)
k k
X X
1
n, x∈I
p(x) = P (X = x) =
0, x ∈
/I
Notação: X ∼ Ud (I)
Notas:
49
Teoria da Probabilidade Variáveis Aleatórias
ii) Normalmente I é um subconjunto dos naturais (I ⊂ N) definido por limites [a, b], em que
a < b são os parâmetros do modelo. Neste caso
X ∼ Ud (a, b).
1
p(x) = , x = 1, 2, 3, 4, 5, 6;
6
x
F (x) = x = 1, 2, 3, 4, 5, 6.
6
●
1
● ●
● ●
F(x)
p(x)
● ●
● ●
● ●
1 2 3 4 5 6 1 2 3 4 5 6
X X
50
Teoria da Probabilidade Variáveis Aleatórias
Notas:
ii) Ensaio de Bernoulli é todo experimento com apenas dois resultados possíveis, denota-
dos por sucesso e fracasso. Esses resultados são representados pelos valores 1 e 0 da
v.a. X , com probabilidades de corrência p e (1 − p), respectivamente. Assim,
X = 1, representa um sucesso,
X = 0, representa um fracasso.
Seja X uma variável de Bernoulli com probabilidade de sucesso p, então, sua função de
probabilidade é definida por
1 − p, x = 0
p(x) = p, x=1
0, x 6= 1 e x 6= 0.
Notação: para indicar que uma v.a. tem distribuição de Bernoulli, usamos a seguinte
notação:
X ∼ Bernoulli(p).
A função de probabilidade para o modelo de Bernoulli pode ser mais elegantemente re-
presentada por:
p(x) = px (1 − p)1−x , x = 0, 1.
51
Teoria da Probabilidade Variáveis Aleatórias
A função de distribuição para o modelo de Bernoulli, por sua vez, é dada por
0, x<0
F (x) = 1 − p, 0 ≤ x < 1
1, x ≥ 1.
Nota: Como veremos no restante da seção, a v.a. de Bernoulli serve de base para a
definição de grande parte dos modelos discretos de probabilidade.
1−p
1
1−p
● ●
F(x)
p(x)
0 1 0 1
X X
Exemplo 2.7. Considere o experimento no qual uma moeda honesta é lançada três vezes,
sendo que a probabilidade de se obter cara em um lançamento é p e de se obter coroa é
(1 − p), 0 ≤ p ≤ 1.
Para este experimento, o espaço amostral é dado por
Ω = {(c, c, c), (c, c, c̄), (c, c̄, c), (c̄, c, c), (c, c̄, c̄), (c̄, c, c̄), (c̄, c̄, c), (c̄, c̄, c̄)}
52
Teoria da Probabilidade Variáveis Aleatórias
ω = (c, c, c) ⇒ X(c, c, c) = 3
ω = (c, c, c̄)
ω = (c, c̄, c) ⇒ X(c, c, c̄) = X(c, c̄, c) = X(c̄, c, c) = 2
ω = (c̄, c, c)
ω = (c, c̄, c̄)
ω = (c̄, c, c̄) ⇒ X(c, c̄, c̄) = X(c̄, c, c̄) = X(c̄, c̄, c) = 1
ω = (c̄, c̄, c)
Uma vez que os lançamentos da moeda são independentes, a v.a. X tem a seguinte
função de probabilidade:
x p(x)
0 (1 − p)3
1 3p(1 − p)2
2 3p2 (1 − p)
3 p3
O mesmo acontece com X = 1, resultado das possíveis combinações nas quais se obtem
uma cara nos três lançamentos da moeda, sendo a probabilidade P (X = 1) escrita por
3
p(1) = p(1 − p)2 .
1
53
Teoria da Probabilidade Variáveis Aleatórias
x 0 1 2 3
p(x) 1/8 3/8 3/8 1/8
●
1
0.3
● ●
0.8
0.2
0.6
F(x)
p(x)
● ●
0.4
0.1
0.2
● ●
● ●
●
0
0 1 2 3 4 0 1 2 3 4
X X
Notas:
i) A distribuição de Bernoulli é um caso especial da binomial para o qual n = 1.
ii) A função de distribuição acumulada F (x) não tem uma forma explicita, sendo definda
por
X
F (x) = P (X = xi ).
xi ≤x
54
Teoria da Probabilidade Variáveis Aleatórias
Y ∼ binomial(n, 1 − p).
Exemplo 2.8. Uma indústria que produz placas para componentes eletrônicos, usadas na fa-
bricação de celulares, afirma que no processo de produção dessas placas 1% sai com defeito
nas furações. Considerando que na inspeção dessas placas, 10 unidades são selecionadas
aleatoriamente e avaliadas:
Defina uma v.a. para esse caso e determine a sua função de probabilidade p(x).
Uma vez que p(x) seja definida, qual é a probabilidade de que a inspeção encontre:
A inspeção de cada uma das placas resulta em um, dentre dois resultados possíveis (placa
com defeito ou placa boa), o que caracteriza um ensaio de Bernoulli no qual o resultado
de interesse (sucesso) é dado pela placa com defeito. Alé disso, como as inspeções são
independentes, a probabilidade de uma placa ser defeituosa (dada pelo índice de defeitos da
produção, ou seja, p = 0.01) é comum a todos os ítens produzidos.
Portanto, definindo a v.a. X = número de placas com defeito encontradas na inspeção das
n = 10 placas selecionadas, X tem distribuição binomial com parâmetros n = 10 e p = 0.01
e sua função de probabilidade é dada por
10
p(x) = P (X = x) = (0.01)x (0.99)10−x , x = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
x
As probabilidades solicitadas nos itens (a), (b) e (c) são, portanto, calculadas por
10
a) p(1) = P (X = 1) = (0.01)1 (0.99)9 = 0.09135.
1
b) Pelo evento complementar temos que:
P (X ≥ 1) = 1 − P (X = 0) = 1 − (0.99)10 = 0.09562
c)
F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3)
= 0.90438 + 0.09135 + 0.00415 + 0.00011 = 0.99999
55
Teoria da Probabilidade Variáveis Aleatórias
a)
20
P (X = 1) = (0.06)(0.94)19 = 0.3703;
1
b)
F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
20 20
= (0.94) + 0.3703 + (0.06)2 (0.94)18
2
= 0.2901 + 0.3703 + 0.2246 = 0.8850.
Definição 2.5. Considere uma sequência de ensaios independentes de Bernoulli com proba-
bilidade de sucesso igual a p e seja a v.a. X que conta o número de fracassos até a ocorrência
do primeiro sucesso. Então, X tem distribuição geométrica com parâmetro p e a sua função
de probabilidade é dada pela expressão
Notação: X ∼ geométrica(p).
Exemplo 2.10. Num jogo de cassino, dois dados são lançados por um jogador que aposta
uma certa quantia de dinheiro antes do lançamento. O jogador dobra o valor apostado se
obter soma 11 ou 12 nos dados. Para tentar dobrar a posta, porém, o jogador tem até 3
tentativas, após as quais, ele perde o que apostou e precisa apostar novamente para continuar
jogando.
56
Teoria da Probabilidade Variáveis Aleatórias
3 1
p= = .
36 12
I sair soma 11 ou 12 no terceiro lançamento, não tendo saído no primeiro nem no se-
gundo lançamentos.
Desta forma, temos que calcular P (X ≤ 2), uma vez que X conta os fracassos até o
primeiro sucesso. Portanto:
F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
0 1 2
1 11 1 11 1 11
= + +
12 12 12 12 12 12
" 2 #
1 11 11
= 1+ +
12 12 12
= 0.2297.
Priopriedades:
57
Teoria da Probabilidade Variáveis Aleatórias
do resultado
∞
X
P (X ≥ x) = P (X = k)
k=x
Desta forma, temos que a função distribuição acumulada F (x) é dada por
F (x) = P (X ≤ x)
F (x) =1 − P (X ≥ x + 1)
F (x) = 1 − (1 − p)x+1 .
ii) A v.a. geométrica pode, ainda, ser definida como Y = número de ensaios até o primeiro
sucesso. Neste caso, Y assume valores a partir do 1, ou seja, y ∈ {1, 2, 3, . . .} e, em
função disto, a sua função de probabilidade passa a ser escrita como
Nota: Se a v.a. X conta o número de fracassos até o primeiro sucesso e a v.a. Y conta
o número de ensaios até o primeiro sucesso, então, a relação1 entre elas é dada por:
Y = X + 1 e:
p(y) = P (Y = y) = P (X + 1 = y) = P (X = y − 1) = p(1 − p)y−1 ;
P (Y ≥ y) = (1 − p)y−1 ;
F (y) = P (Y ≤ y) = 1 − P (Y ≥ y + 1) = 1 − (1 − p)y .
1
A relação entre duas v.a. discretas será vista em mais detalhes na seção funções de v.a.’s.
58
Teoria da Probabilidade Variáveis Aleatórias
P (X ≥ x + k)
=
P (X ≥ x)
(1 − p)x+k
=
(1 − p)x
= (1 − p)k = P (X ≥ k)
Exemplo 2.11. Considere um processo de produção cuja proporção de defeitos é de 0.03.
No processo de produção os itens são inspecionados um-a-um até que apareça o primeiro
com defeito quando, então, o processo é interrompido e ajustado.
a) Determine a probabilidade de que o processo seja ajustado sómente após o 40º item
produzido.
Seja X = número de itens bons até o primeiro com defeito.
Então: X ∼ geométrica(0.03).
Temos que calcular:
b) Sabendo que já foram produzidos 25 itens, não havendo nenhum defeito, qual é a pro-
babilidade de que o primeiro item com defeito apareça após o 35º item produzido?
P (X ≥ 35 | X ≥ 25) = P (X ≥ 35 − 25)
= (0.97)10 = 0.7374.
59
Teoria da Probabilidade Variáveis Aleatórias
c) Qual deve ser o intervalo de manutenção preventiva k se desejamos que nenhum item
com defeito ocorra entre duas manutenções consecutivas com probabilidade de pelo
menos 0.50?
Devemos obter k tal que P (X ≥ k) ≥ 0.50.
Tomando a igualdade, temos P (X ≥ k) = 0.50 = (0.97)k , logo, o valor de k é dado por
(0.97)k = 0.50
k ln(0.97) = ln(0.50)
ln(0.50)
k= = 22.8
ln(0.97)
Ainda:
Definição 2.6. Considere uma sequência de ensaios independentes de Bernoulli com proba-
bilidade de sucesso igual a p. A v.a. X que conta o número de fracassos até a ocorrência do
r−ésimo sucesso tem distribuição binomial negativa com parâmetro r > 0 e p e sua função
de probabilidade é dada por
x+r−1 r
p(x) = p (1 − p)x , x = 0, 1, 2, . . . (2.1)
r−1
Exemplo 2.12. Numa linha de montagem de uma grande indústria os parafusos são forne-
cidos em caixas com 50 unidades cada, sendo que a compra dos parafusos é feita em lotes
de 250 caixas. No recebimento dos parafusos o setor competente retira uma caixa do lote e
realiza uma inspeção, aceitando o lote se até a inspeção da metade da caixa, no máximo 2
60
Teoria da Probabilidade Variáveis Aleatórias
parafusos tiverem a rosca “espanada” (aceitando o lote a empresa arca com o prejuízo dos
demais parafusos que vierem a espanar). Por outro lado, se até a inspeção da metade da
caixa, três ou mais parafusos espanarem, o lote todo é devolvido ao fornecedor. Considerando
que o fabricante dos parafusos afirma que 9% dos parafusos produzidos acabam espanando
na hora do uso, cacule a probabilidade de que a devolução do lote ocorra exatamente ao se
testar a metade da caixa de parafusos.
Note que, o lote será devolvido se ao se testar o 25º parafuso, aparecer o 3º ruim, logo
I x = 25 − 3 = 22 parafusos bons e
I r = 3 parafusos espanados.
22 + 3 − 1
P (X = 22) = (0.09)3 (0.91)22
3−1
24
= (0.09)3 (0.91)22
2
= 0.0253.
Exemplo 2.13. Uma linha de produção adota-se como critério de parada para regulagem das
máguinas a observação do k−ésimo item com defeito. Sabendo que a proporção de defeitos
é 0 ≤ p ≤ 1, qual é a probabilidade de que a produção tenha que ser interrompida para
regulagem na n−ésima peça produzida?
(n − k) + k − 1 k
P (X = n − k) = p (1 − p)n−k
k−1
n−1 k
= p (1 − p)n−k .
k−1
Notas 2.1. Das relações entre as combinações, temos uma forma alternativa da binomial
61
Teoria da Probabilidade Variáveis Aleatórias
negativa. Considere
x+r−1 x+r−1 x −r
= = (−1) ,
r−1 x x
−r x (−r)(−r − 1) · · · (−r − x + 1)
em que: (−1) = .
x x!
Definição 2.7. Considere uma população de tamanho N , sendo que m indivíduos (ou ele-
mentos) desta população apresentam uma crarcterística de interesse e (N − m) não apre-
sentam a tal característica, portanto, a população é particionada em duas subpopulações.
Uma amostra de tamanho n é retirada ao acaso e sem reposição desta população, sendo
que, para cada elemento da amostra é observada a presença, ou não, da característica de
interesse.
Nota: A característica de interesse pode ser a presença de uma doença, um hábito de
comportamento, uma característica física, um defeito ou falha ou até o resultado de uma
mensuração classificado por um ponto de corte. Com a população particionada em duas, a
observação individual de cada elemento da amostra caracteriza um ensaio de Bernoulli.
A diferença da situação aqui apresentada com o modelo binomial é que, neste caso, a
amostra é retirada sem reposição, fazendo com que os ensaios de Bernoulli não sejam mais
independentes.
62
Teoria da Probabilidade Variáveis Aleatórias
Exemplo 2.15. Sabe-se que um gene recessivo, responsável por uma doença, aparece em
16% da população sem que a mesma se manifeste. Se, de uma população de tamanho 500,
selecionamos ao acaso uma amostra sem reposição com 20 pessoas, qual é a probabilidade
de que encontremos 3 portadoras do gene?
então 0 ≤ x ≤ 20.
Calculando a probabilidade:
80 420
3 17 (82160)(7.9737 × 1029 )
p(3) = = = 0.2456.
500 2.66720 × 1035
20
Calcule a probabilidade de que seja encontrado apenas uma pessoa portadora do gene.
80 420
1 19 (80)(3.77718 × 1032 )
p(1) = = = 0.1133.
500 2.66720 × 1035
20
63
Teoria da Probabilidade Variáveis Aleatórias
Exemplo 2.16. Quatro peças com defeito foram acidentalmente misturadas num lote com ou-
tras 16 peças boas. Selecionando-se 5 peças sem reposição, qual é a probabilidade de que
2 sejam defeituosas? E pelo menos 2?
Condição:
I min{m, n} = min{4, 5} = 4,
então 0 ≤ x ≤ 4.
Calculando
as probabilidades:
4 16
2 3 (6)(560)
p(2) = = = 0.2167.
20 15504
5
64
Teoria da Probabilidade Variáveis Aleatórias
m! (N − m)!
×
x!(m − x)! (n − x)! [(N − m) − (n − x)]!
p(x) =
N!
n!(N − n)!
n! (N − n)! m! (N − m)!
p(x) = × × × (2.2)
x!(n − x) N! (m − x)! (N − m − n + x)!
(N − n)! (N − n)!
=
N! N (N − 1) (N − 2) · · · (N − n)!
1
=
N (N − 1) (N − 2) · · · (N − n + 1)
1
= 1
2
n−1
N N 1− N
N 1− N
···N 1 − N
1
= Qn−1 i
(2.3)
Nn i=1 1− N
65
Teoria da Probabilidade Variáveis Aleatórias
m! m (m − 1) (m − 2) · · · (m − x)!
=
(m − x)! (m − x)!
= m (m − 1) (m − 2) · · · (m − x + 1)
1 2 x−1
=mm 1− m 1− ···m 1 −
m m m
x−1
Y
x j
=m 1− (2.4)
j=1
m
= (N − m) (N − m − 1) (N − m − 2) · · · [(N − m) − (n − x) + 1]
1 n−x−1
= (N − m) (N − m) 1 − · · · (N − m) 1 −
N −m N −m
n−x−1
Y
n−x k
= (N − m) 1− (2.5)
k=1
N −m
Substituindo-se os resultados em (2.3), (2.4) e (2.5) em (2.2), p(x) pode ser reescrita
como:
! " Qx−1 j Qn−x−1 #
k
n x
m (N − m) n−x
j=1 1− m
× k=1 1− N −m
p(x) = Qn−1
Nn i
x i=1 1− N
m
Aplicando o limite para N → ∞, então m → ∞, tal que → p.
N
i j k
Assim sendo: → 0, →0 e → 0.
N m N −m
66
Teoria da Probabilidade Variáveis Aleatórias
Portanto,
!
n m x N − m n−x
p(x) ∼
=
x N N
!
n
p(x) ∼
= px (1 − p)n−x .
x
Exemplo 2.17. Sabe-se que, numa população de tamanho 5000 proprietários de veículos,
apenas 130 são proprietários de Ferrari. Se uma amostra aleatória de 20 proprietários de
veículos é retirada sem reposição desta população, determine as probabilidade de que:
a) Exatamente 1 seja proprietário de ferrari;
λx e−λ
p(x) = P (X = x) = , x = 0, 1, 2, . . . .
x!
67
Teoria da Probabilidade Variáveis Aleatórias
130 4870
0 20 20
b) P (X = 0) = 0.5898 (0.026)0 (0.974)20 = 0.5904 0.10%
5000 0
20
130 4870
2 18 20
c) P (X = 2) = 0.0798 (0.026)2 (0.974)18 = 0.0799 0.13%
5000 0
20
68
Teoria da Probabilidade Variáveis Aleatórias
X ∼ P oisson(λ).
Notas:
(λ∆t)x e−λ∆t
p(x) = P (X = x) = , x = 0, 1, 2, . . . , (2.6)
x!
em que ∆t é o intervalo de ocorrência (na maioria das vezes o tempo).
Exemplo 2.18. Na fila de um banco, em horário de pico, os clientes chegam a uma taxa de
2.5 por minuto. Qual é a probabilidade de que, em um minuto:
Seja a v.a. X = número de clientes que chegam na fila do banco por minuto, então, λ = 2.5
clientes/min e X ∼ P oisson(2.5).
A função de probabilidade de X é dada por:
2.5x e−2.5
p(x) = P (X = x) = , x = 0, 1, 2, . . . .
x!
a)
2.51 e−2.5
p(1) = P (X = 1) = = 0.2052
1!
b)
69
Teoria da Probabilidade Variáveis Aleatórias
c)
P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − (0.0821 + 0.2052 + 0.2565) = 0.4562
12.510 e−12.5
pY (10) = P (Y = 10) = = 0.0956.
10!
Nota: Na prática ocorre que, se X tem distribuição de Poisson com taxa λ = 2.5 clien-
tes/min, então, em 5 minutos, a taxa será de λ = 5 × 2.5 = 12.5 clientes/5min.
1
● ●
●
● ●
● ●
0.8
0.2
● ●
0.6
F(x)
p(x)
● ●
0.4
0.1
● ●
0.2
● ●
●
0
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7
X X
Figura 2.8: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo
P oisson (2.5)
Exemplo 2.19. Uma oficina recebe microcomputadores para concerto segundo uma distri-
buição de Poisson com taxa de 3 equipamentos/dia. Qual a probabilidade de que num dia
comum cheguem 6 microcomputadores para concerto?
X = número de equipamntos que chegam para conserto em um dia, X ∼ P oisson(3).
36 e−3
p(6) = P (X = 6) = = 0.0504.
6!
2
O índice na função de probabilidade pY (10) indica que a probabilidade deve ser calculada, agora, a partir
da distribuição de probabilidade da v.a. Y .
70
Teoria da Probabilidade Variáveis Aleatórias
Considere que a oficina tem bancadas para atender no máximo 5 equipamentos/dia e que
os equipamentos além desses 5 fiquem na espera ou desistam do serviço. Sendo assim, o
proprietário planeja ampliar as instlações para poder atender a demanda diária em até 99%
dos dias. De quanto ele deve ampliar suas instalações?
O que o dono da oficina deseja encontrar o valor de k tal que P (X ≤ k) ≥ 0.99, ou seja:
k
X 3x e−3
≥ 0.99
x=0
x!
x p(x) F (x)
0 0.0948 0.0948
1 0.1494 0.1992
2 0.2240 0.4232
3 0.2240 0.6472
4 0.1680 0.8152
5 0.1008 0.9160
6 0.0504 0.9664
7 0.0216 0.9880
8 0.0081 0.9961
Portanto, com k = 8 bancadas, ele consegue atender toda a demanda em 99% dos dias,
ou seja, ele precisa ampliar suas instalações em 3 bancadas.
Aproximação da binomial pela Poisson Seja X ∼ binomial(n, p), então, para n grande
e p pequeno, tal que λ = np é constante, a distribuição binomial pode ser aproximada pela
Poisson.
n!
Prova: p(x) = px (1 − p)n−x
x!(n − x)!
71
Teoria da Probabilidade Variáveis Aleatórias
−x n
x n(n − 1)(n − 2) . . . (n − x + 1) λ λ
p(x) = λ 1− 1−
x! nx n n
−x n
λx
n n−1 n−x+1 λ λ
= ··· 1− 1−
x! n n n n n
−x n
λx
1 2 x−1 λ λ
= 1− 1− ··· 1 − 1− 1−
x! n n n n n
"x−1 # −x n
λx
Y k λ λ
= 1− 1− 1− (2.7)
x! k=1
n n n
Aplicando o limite para n → ∞ em cada uma das parcelas de (2.7), temos que:
"x−1 #
Y k
lim 1− =1 (2.8a)
n→∞
k=1
n
−x
λ
lim 1 − =1 (2.8b)
n→∞ n
n
λ
lim 1 − = e−λ (limite fundamental) (2.8c)
n→∞ n
Desta forma, substituindo (2.8a),(2.8b) e (2.8c) em (2.7), p(x) pode ser aproximada por:
λx e−λ
p(x) ≈
x!
Para n grande e p pequeno, tal que λ = np, a binomial se comporta como uma P oisson(λ).
Exemplo 2.20. O número de fraudes com cartões de crédito/débito tem aumentado ultima-
mente, mas ainda a proporção é baixa, sendo igual a 0.25%. Considerando que o gerente de
uma agência bancária possui 4000 clientes com cartões, qual é a probabilidade de ocorrência
de:
b) Cinco freudes
72
Teoria da Probabilidade Variáveis Aleatórias
c) Dez fraudes.
10x e−10
p(x) ≈
x!
101 e− 10
a) p(1) ≈ = 0.000454
1!
105 e− 10
b) p(5) ≈ = 0.0378
5!
101 0e− 10
c) p(10) ≈ = 0.1251
10!
15
X 10k e− 10
d) F (15) = P (X ≤ 15) ≈ = 0.9513
k=0
k!
Nota: Valores calculados pelo R considerando a distribuição binomial (erro relativo entre
parênteses):
4000
a) p(1) = (0.0025)1 (0.9975)3999 = 0.000449, (1.01%)
1
4000
b) p(5) = (0.0025)5 (0.9975)3995 = 0.0377, (0.25%)
5
4000
c) p(10) = (0.0025)10 (0.9975)3990 = 0.1253, (0.13%)
10
15
X 4000
d) F (15) = P (X ≤ 15) = (0.0025)k (0.9975)4000−k = 0.9515, (0.023%)
k=0
k
73
Teoria da Probabilidade Variáveis Aleatórias
iii) p(2) = P (Z = 2) e o ponto z tal que P (Z ≤ z) = 0.975, em que Z ∼ HG(10, 80, 12).
74
Teoria da Probabilidade Variáveis Aleatórias
>
19 > qpois (0.25 ,3)
[1] 2
21 >
> ## hipergeométrica
23 > dhyper (2 ,10 ,80 ,12)
[1] 0.2705104
25 >
> qhyper (0.975 ,10 ,80 ,12)
27 [1] 4
>
29 > ##
75
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
Definição 3.1. O valor esperado de uma v.a. discreta X , definida no espaço de probabilidade
(Ω, A , P ) é dado por
X
E(X) = X(ω) · P (ω),
ω∈Ω
Lema 3.1. Considere uma v.a. discreta X , com função de probabilidade p(x), tal que
∞
X
|xi |p(xi ) < ∞,
i=1
∞
X
Por outro lado, se |xi |p(xi ) = ∞ (não converge), então, X não tem esperança finita.
i=1
1
p(x) = , x = 1, 2, 3, . . .
x (x + 1)
∞ ∞
X X 1
p(x) =
x=1 x=1
x (x + 1)
76
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
∞ ∞
X X 1 1
p(x) = −
x=1 x=1
x x+1
1 1 1 1 1
= lim 1 − + − + ··· + −
k→∞ 2 2 3 k k+1
1
= lim 1 − = 1,
k→∞ k+1
∞ ∞
X |x| X x
=
x=1
x(x + 1) x=1
x(x + 1)
∞
X 1
= = ∞ (não converge),
x=1
x+1
77
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
iii) Se Y é uma v.a. discreta tal que E(Y ) < ∞, então, para a e b constantes
=⇒ E(a X + b Y ) existe.
I 2ª parte:
X
E(aX + bY ) = (aX + bY ) (ω)P (ω)
ω∈Ω
X
= [aX(ω) + bY (ω)] P (ω)
ω∈Ω
X X
=a X(ω)P (ω) + b Y (ω)P (ω)
ω∈Ω ω∈Ω
= a E(X) + b E(Y )
∞
X
iv) Seja a v.a. Y = g(X) tal que |g(xi )|p(xi ) < ∞, então
i=1
X
E(Y ) = E[g(X)] = g(x) p(x).
x
78
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
Prova:
Seja Y = g[(X)], então, se E[g(X)] existe, considere ω ∈ Ω para os quais y = g[X(ω)].
Assim, para todos g[X(ω)] com valores iguais a y tem-se:
X X
g(x)p(x) = g[X(ω)]P (ω)
x ω
X X
= yP (ω)
y ω:g[X(ω)]=y
X X
= y P (ω)
y ω:g[X(ω)]=y
X
= yP (Y = y) = E[g(X)]
y
= (−2)2 0.3 + (−1)2 0.2 + (0)2 0.1 + (2)2 0.1 + (4)2 0.3
= (4)(0.3 + 0.1) + (1)0.2 + (16)0.3
= 6.6
a ≤ E(X) ≤ b;
79
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
vi) Sejam X e Y v.a.’s discretas com esperanças finitas E(X) e E(Y ), respectivamente.
Teorema 3.1. Seja uma v.a. X , inteira não negativa. Então, X tem esperança finita se, e
∞
X
somente se, a série P (X ≥ x) converge e, neste caso,
i=1
∞
X
E(X) = P (X ≥ x).
i=1
∞
X ∞
X
E(X) = xP (X = x) = xP (X = x),
i=0 i=1
ou seja,
∞
X
E(X) = 1P (X = 1) + 2P (X = 2) + 3P (X = 3) + · · · (3.1)
i=1
E(X) = P (X = 1)
+ P (X = 2) + P (X = 2)
+ P (X = 3) + P (X = 3) + P (X = 3)
+ P (X = 4) + P (X = 4) + P (X = 4) + P (X = 4)
.. .. .. ..
+ . + . + . + .
E(X) = P (X ≥ 1) + P (X ≥ 2) + P (X ≥ 3) + P (X ≥ 4) + · · ·
∞
X
E(X) = P (X ≥ x).
i=1
80
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
x p(x) F (x)
0 0.15 0.15
1 0.20 0.35
2 0.40 0.75
3 0.25 1.00
Então, pelo teorema (3.1), o valor esperado de X é calculado pela soma das áreas desta-
cadas na figura 3.1
Figura 3.1: Valor Esperado de uma v.a. como soma das áreas sobre F (x)
∞
X
E(X) = xp(1 − p)x
x=0
∞
X
= p(1 − p) x(1 − p)x−1
x=1
∞
X d
= p(1 − p) − [(1 − p)x ]
x=1
dp
81
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
" ∞ #
d X
E(X) = p(1 − p) − (1 − p)x
dp
x=1
d 1−p
= − p(1 − p)
dp p
−1
= − p(1 − p) 2
p
1−p
Portanto: E(X) = .
p
∞
X ∞
X
P (X ≥ x) = (1 − p)x
x=1 x=1
1−p
=
1 − (1 − p)
1−p
= = E(X).
p
Exemplo 3.5. Calcular o valor esperado dos principais modelos discretos: Bernoulli, binomial,
binomial negativo, Poisson, hipergeométrico. (resolução, ver slides)
ou seja,
X
V ar(X) = [x − E(X)]2 p(x).
x∈I
Notas 3.1. A variância de uma v.a. pode, ainda, ser escrita nas seguintes formas:
82
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
λx e−λ
p(x) = , x = 0, 1, 2, . . . ;
x!
E(X) = λ.
∞
2
X λx e−λ
E(X ) = x2
x=0
x!
∞
X λx−1 e−λ
=λ x
x=1
(x − 1)!
83
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
+ +
V ar(X −
Y ) = V ar(X) + V ar(Y ) −
2Cov(X, Y );
em que:
+ +
V ar(aX −
bY ) = a2 V ar(X) + b2 V ar(Y ) −
2abCov(X, Y );
+
v) Se X e Y forem independentes: V ar(X −
Y ) = V ar(X) + V ar(Y ).
Prova: O resultado acima é extensão das propriedades (iii ) e (iv) e a prova é feita por
indução (Magalhães, pag. 252).
84
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
Cov(X, Y ) σx,y
ρx,y = Corr(X, Y ) = p =
V ar(X) V ar(Y ) σx σy
Resultado 3.2. Sejam X e Y v.a.’s com coeficiente de correlação ρx,y , então, valem as se-
guintes relações
i ) | ρx,y | ≤ 1; (3.3a)
ii ) se | ρx,y | = 1, então a relação entre X e Y é linear; (3.3b)
Além disso,
2
E(XY ) = E(X 2 )E(Y 2 )
⇐⇒ Y = aX. (3.5)
85
Teoria da Probabilidade Valor esperado e momentos de uma v.a. discreta
Prova: De (3.3a):
Sejam µx = E(X) e µy = E(Y ). Aplicando a desigualdade de Cauchy-Schwarz à (X−µx )
e (Y − µy ), tem-se
n o2
≤ E (X − µx )2 E (Y − µy )2 .
E (X − µx )(Y − µy )
o que implica que ρx,y ≤ 1.
Prova: De (3.3b):
Se ocorre a igualdade, ou seja, se ρ2x,y = 1, então vale a igualdade em Cauchy-Schwarz
e, segundo (3.5)
(Y − µy ) = a(X − µx )
86