Você está na página 1de 17

Variáveis Aleatórias Discretas

Em um experimento aleatório, realizamos a observação de uma variável aleatória, mas em um sentido


amplo. Esta variável pode ser quantitativa, mas também pode ser qualitativa, ou até mesmo uma permutação
ou combinação de objetos. No que segue, consideramos o conceito de variável aleatória em um sentido restrito.

Considere um experimento aleatório, com espaço amostral . Uma variável aleatória X é uma função
X: ! R. Ou seja, é uma função que associa a cada resultado possível do experimento um número real.

Para começar, vamos considerar variáveis aleatórias discretas. Ou seja, variáveis com contradomínio
enumerável (mesmo que não seja enumerável). Assim, os valores possíveis para X são: x1 ; x2 ; :::; xm ; :::.
Podemos ter um conjunto …nito ou in…nito de valores possíveis.

Agora, temos o problema: levantar a distribuição de probabilidades para X. Para começar, de…nimos os
eventos:
Ai = f! 2 : X (!) = xi g :
Trata-se da imagem inversa de xi . Ou seja, o conjunto de todos os elementos do domínio com imagem xi .
Estabelecemos que, a probabilidade de X = xi é a probabilidade do evento Ai . Portanto,
X
P (xi ) = P (Ai ) = P (!) :
!2Ai

Note que, a soma é feita sobre todos os elementos de Ai .

Note que, dados xi e xj , com i 6= j, temos Ai \ Aj = ?. Com efeito, suponha que exista ! 2 Ai \ Aj .
Então, X (!) = xi e X (!) = xj . Como X é uma função, devemos ter xi = xj , o que contradiz i 6= j. Assim,
os eventos Ai são mutuamente exclusivos.

Note também que, A1 [ A2 [ ::: [ Am [ ::: = . Com efeito, suponha que ! não está em qualquer um dos
Ai . Então, X (!) não tem imagem, o que contradiz o carácter de função de X. Assim, temos
X
1 = P ( ) = P (A1 [ A2 [ ::: [ Am [ :::) = P (Ai ) :
i

Ou seja,
X
P (xi ) = 1:
i

Considere n observações de X. Suponha que, xi ocorre n (xi ) vezes. Então, a frequência relativa de xi é
fR (xi ) = n(xi)
n . Segue uma representação grá…ca para estas frequências relativas.

Observamos que, as frequências relativas se aproximam de uma curva, chamada curva de distribuição.
Suponha que esta curva seja o grá…co de uma função f . Ou seja, a equação desta curva é y = f (x).
Então, temos as aproximações:
fR (xi ) ' f (xi ) :

1
Agora, no limite em que n ! 1, temos, exatamente,

fR (xi ) = f (xi ) :

Assim, tendo em conta que

P (xi ) = lim fR (xi ) ;


n!1

podemos escrever

P (xi ) = f (xi ) :

Com isto, dizemos que a função f descreve a distribuição de probabilidades para X. Apropriadamente, nos
referimos a ela por função distribuição de probabilidades. É esta função que devemos especi…car para de…nir
um modelo probabilístico para X:

Exemplo 1. O modelo probabilístico mais simples é o modelo uniforme. Ele é estabelecido por uma f dp
da forma f (x) = c, em que c é uma constante. Neste
P caso, se o número de valores possíveis para a variável
1
X é …nito, e igual a m, então, tendo em conta que i P (xi ) = 1 e P (xi ) = f (xi ), temos c = m .

Agora, o que acontece se o número de valores possíveis para X é in…nito? Neste caso, a função f (x) = c
não descreve uma f dp, qualquer que seja o valor de c. Ou seja, neste caso, não podemos ter um modelo
uniforme.

Exemplo 2. Seja X uma variável aleatória discreta que admite apenas os valores: 1, 2, ..., m. Considere
a função

f (x) = (x + 1) :

Obter .de modo que esta função estabeleça um modelo probabilístico para X.
P
Temos que, i P (xi ) = 1 e P (xi ) = f (xi ). Além disso, xi = i. Assim,
m
X m
X m
X
1= f (xi ) = f (i) = (i + 1) :
i=1 i=1 i=1

Note que,
m
X m
X
m (m + 1)
i= ; 1 = m:
i=1
2 i=1

Com isto,

m (m + 1)
1= +m ;
2

2
= :
m (m + 3)

2
Valor Esperado e Variância

Tendo em conta uma amostra de tamanho n, a média amostral da variável X é


X
x= xi fR (xi ) :
i

Esta média amostral é uma aproximação (ou estimativa) da média exata de X, indicada por E (X). Para
obter esta média exata, consideramos o limite em que n ! 1. Assim,
X
E (X) = xi P (xi ) :
i

Se a distribuição de probabilidades de X é determinada pela fdp f (x), então P (xi ) = f (xi ) e


X
E (X) = xi f (xi ) :
i

Uma notação alternativa é: E (X) = X. Dependendo do caso, podemos omitir X, e escrever apenas .

A variância amostral da variável X é


n X 2
s2 = (xi x) fR (xi ) :
n 1 i

Esta variância amostral é uma aproximação (ou estimativa) da variância exata de X, indicada por V ar (X).
Para obter esta variância exata, consideramos o limite em que n ! 1. Assim,
X 2
V ar (X) = (xi E (X)) P (xi ) :
i

Tendo em conta a função de distribuição de probabilidades de X,


X 2
V ar (X) = [xi E (X)] f (xi ) :
i
2 2
Uma
p notação alternativa para a variância é X, ou, caso não haja ambiguidade, apenas . A quantidade
2 = é o desvio padrão de X.

1
Exemplo 3. Seja X uma variável com distribuição uniforme. Então, a fdp de X é f (x) = m. Assim, o
valor esperado e a variância de X são
m
1 X
E (X) = xi ;
m i=1
m
1 X 2
V ar (X) = [xi E (X)] :
m i
Para ilustrar, suponha xi = i. Neste caso,
m
1 X m+1
E (X) = i= :
m i=1 2

Observe, E (X) é o ponto médio do intervalo [1; m]. Quanto à variância,


m
1 X
2
m+1
V ar (X) = i
m i=1 2
m
" #
1 X 2
2
m+1
= i (m + 1) i + :
m i=1 2

3
Temos que,
m
X m
X
1 1
i2 = m (2m + 1) (m + 1) ; i= m (m + 1) :
i=1
6 i=1
2

Com isto,
1
V ar (X) = m2 1 :
12

Dada a variável X, com função distribuição de probabilidades f (x), considere a variável h (X), função
de X. Se existir uma correspondência um-a-um entre h (X) e X, isto é, se h é uma função bijetora de X,
então a função distribuição de probabilidades para h (X) também é f (x).

Assim, o valor esperado e a variância de h (X) são


X
E (h (X)) = h (xi ) f (xi ) ;
i
X 2
V ar (h (X)) = [h (x) E (h (X))] f (xi ) :
i

Para ilustrar, suponha h (X) = aX + b, com a e b constantes. Então, correspondente aos valores xi para
X, temos os valores h (xi ) = axi + b para h (X). O valor esperado de h (X) é
X
E (h (X)) = (axi + b) f (xi )
i
X X
= a xi f (xi ) + b f (xi ) :
i i
P
Tendo em conta que i f (xi ) = 1, obtemos
E (h (X)) = aE (X) + b:
Quanto à variância de h (X), ela é
X 2
V ar (h (X)) = [(axi + b) (aE (X) + b)] f (xi )
i
X 2
= [axi aE (X)] f (xi )
i
X 2
2
= a [xi E (X)] f (xi )
i
2
= a V ar (X) :

Para ilustrar, suponha h (X) = X 2 . Se xi 0 para todo i, então, correspondente ao valor xi , temos
h (xi ) = x2i . O valor esperado de h (X) é
X
E (h (X)) = x2i f (xi ) = E X 2 :
i

Segue uma consequência do fato de h (X) ter a mesma distribuição de probabilidades de X. Temos que,
X 2
V ar (X) = [xi E (X)] f (xi )
i
X 2
= x2i 2xi E (X) + [E (X)] f (xi )
i
X X 2
X
= x2i f (xi ) 2E (X) xi f (xi ) + [E (X)] f (xi ) :
i i i

4
Note que, identi…camos
X
x2i f (xi ) = E X 2 :
i

Assim, temos
2
V ar (X) = E X 2 [E (X)] :

Distribuição de Bernoulli

Um experimento aleatório em que apenas dois resultados são possíveis, indicados por S e F, é chamado
ensaio de Bernoulli. O espaço amostral correspondente é

= fS, Fg

Para obter a probabilidade de S, considere uma amostra. Neste caso, a amostra consiste em n ensaios de
Bernoulli, todos independentes entre si. Isto signi…ca que, cada um dos n ensaios são realizados exatamente
sob as mesmas condições. Se S ocorre n (S) vezes, então a frequência relativa de S é fR (S) = n(S)
n . No limite
em que n ! 1, esta frequência relativa é identi…cada com a probabilidade de S. Ou seja,

P (S) = lim fR (S) p:


n!1

Como o evento F é complementar ao evento S, temos

P (F) = 1 P (S) = 1 p:

Segue, de modo natural, a variável aleatória B : ! R de…nida por:

B (F) = 0; B (S) = 1:

Tal variável é chamada variável de Bernoulli. A distribuição de probabilidades desta variável é:

P (1) = p; P (0) = 1 p;

e é chamada distribuição de Bernoulli.

Temos que, o valor esperado de B é

E (B) = 1 p + 0 (1 p) = p:

Note que, E B 2 = 12 p + 02 (1 p) = p. Assim, a variância de B é


2
V ar (B) = E B 2 [E (B)] = p p2 = p (1 p) :

Por exemplo, se p = 0:5, então E (B) = 0:5 (ponto médio entre 0 e 1) e V ar (B) = 0:25.

5
Distribuição Binomial

Considere uma sequência de n ensaios de Bernoulli, todos independentes entre si. De modo que, a
distribuição de probabilidades de B é a mesma em cada ensaio. Esta sequência de…ne um experimento
binomial. O espaço amostral deste experimento é
n
::: = = f(b1 ; b2 ; :::; bn ) : bi 2 g :
1
Temos que, a probabilidade de ocorrer (b1 ; b2 ; :::; bn ) é

P (b1 ; b2 ; :::; bn ) = P (b1 ) P (b2 ) :::P (bn ) :

Se, em (b1 ; b2 ; :::; bn ) constam k S e (n k) F, então,


k n k
P (b1 ; b2 ; :::; bn ) = [P (S)] [P (F)] :

Se P (S) = p e P (F) = 1 p, então


n k
P (b1 ; b2 ; :::; bn ) = pk (1 p) :

Note que, existem

n n!
=
k k! (n k)!
n
elementos de com k S e (n k) F.

Seja X : n ! R a variável de…nida como segue: se, em (b1 ; b2 ; :::; bn ), S aparece k vezes, então
X (b1 ; b2 ; :::; bn ) = k. Assim, X é uma variável discreta, podendo assumir apenas os valores: 0; 1; 2; ...;
n. Tal variável é chamada uma variável binomial.

n
Observe que, os elementos (b1 ; b2 ; :::; bn ) de são mutuamente exclusivos (por serem eventos simples
em n ). Assim, a probabilidade de X = k vale

n k n k
P (k) = p (1 p) :
k

Então, temos a distribuição de probabilidades da variável binomial X, chamada distribuição binomial.

Note que, se a e b são números reais arbitrários e n é um número inteiro positivo, então
n
X
n n k n k
(a + b) = a b :
k
k=0

Se a = p e b = 1 p, então
n
X n
X
n k n k
1= p (1 p) = P (k) ;
k
k=0 k=0

como deveria.
1 Sejam E e E experimentos aleatórios, com espaços amostrais
1 2 1 e 2 , respectivamente. Então, o espaço amostral do
experimento E 1 E 2 , que consiste na realização simultânea de E 1 e E 2 (ou, nas realizações em sequência, e independentes, de E 1
e E2 ) é 1 2 = f(! 1 ; ! 2 ) : ! 1 2 1 ; ! 2 2 2 g.

Quanto à distribuição de probabilidades de E 1 E 2 , ela é dada por P (! 1 ; ! 2 ) = P (! 1 ) P (! 2 ).

6
Para ilustrar, considere n = 10. Segue as distribuições de X para p = 0:25, p = 0:5 e p = 0:75.

Valor esperado e variância

O valor esperado de X é
n
X n
X n k n k
E (X) = kP (k) = k p (1 p) :
k
k=0 k=1

Note que,
n n!
k = k
k k! (n k)!
(n 1)! n 1
= n =n :
(k 1)! ((n 1) (k 1))! k 1

7
Com isto,
n
X n 1 k n k
E (X) = n p (1 p)
k 1
k=1
Xn
n 1 k 1 (n 1) (k 1)
= n p p (1 p)
k 1
k=1
Xn
n 1 k 1 (n 1) (k 1)
= np p (1 p) :
k 1
k=1

Sejam n0 = n 1 e k0 = k 1. Então,
0
n
X n0 k 0 n0 k 0
E (X) = np p (1 p) = np:
k0
k0 =0

A variância de X é
2
V ar (X) = E X 2 [E (X)] :

Então, precisamos obter E X 2 . Temos que,


n
X n
X n k n k
E X2 = k 2 P (k) = k2 p (1 p) :
k
k=0 k=1

Temos que,
n n n 1
k2 =k k =k n :
k k k 1
Com isto,
n
X n 1 k n k
E X2 = n k p (1 p)
k 1
k=1
Xn
n 1 k 1 (n 1) (k 1)
= np k p (1 p) :
k 1
k=1

Sejam n0 = n 1 e k0 = k 1. Então,
0
n
X n0 k 0 n0 k 0
E X2 = np (k 0 + 1) p (1 p)
k0
k0 =0
2 0 0
3
n
X 0 n
X 0
n 0 n 0
k 0 n 0 n 0
k 0
= np 4 k0 pk (1 p) + pk (1 p) 5:
k0 k0
k0 =0 k0 =0

Note que, o segundo termo no colchete vale 1. Quanto ao primeiro termo:


0 0
n
X n
X
0 n0 k 0 n0 k 0 n0 k 0 n0 k 0
k p (1 p) = k0 p (1 p)
k0 k0
k0 =0 k0 =1
0
n
X
0 n0 1 k0 n0 k 0
= n p (1 p)
k0 1
k0 =1
0
n
X n0 1 k0 n0 (k0
p)(
0 1 1) 1)
= np p (1 :
k0 1
k0 =1

8
Sejam n00 = n0 1 e k 00 = k 0 1. Então,
0 00
n
X n
X
0 n0 k 0 n0 k 0 0 n00 k00 n00 k00
k p (1 p) =np p (1 p) = n0 p:
k0 k 00
k0 =0 k00 =0

Ficamos com

E X2 = np [n0 p + 1]
= np [(n 1) p + 1]
= n2 p2 np2 + np:

Assim, …nalizamos:
2
V ar (X) = E X2 [E (X)]
2
= n2 p2 np2 + np (np)
= np (1 p) :

Distribuição Hipergeométrica

Considere um conjunto com N objetos. Suponha que r destes objetos têm a propriedade . Considere
um sorteio de n destes N objetos, com n < r, e sem reposição. Se a sequência exata em que os objetos são
sorteados é irrelevante, então o espaço amostral correspondente é formado por todas as combinações destes
N objetos tomados n a n. Note que, o total de tais combinações é

N! N
= :
n! (N n)! n

Seja X o número de objetos na combinação que possuem a propriedade . Então, X pode assumir os valores:
0, 1, ..., n. No que segue, obtemos a distribuição de probabilidades para X.

Para obter a probabilidade de X = k, devemos considerar todas as combinações em que constam k


objetos com e (n k) objetos sem . Como existem r objetos com , o número de combinações destes r
objetos tomados k a k é

r! r
=
k! (r k)! k

Como existem (N r) objetos sem , o número de combinações destes (N r) objetos tomados (n k) a


(n k) é

(N r)! N r
=
(n k)! [(N r) (n k)]! n k

Então, a probabilidade de ocorrer X = k é


r N r
k n k
P (k) = N
:
n

Esta distribuição de probabilidades é chamada distribuição hipergeométrica.

9
Exemplo 4. Considere um jogo de cartas usual, com 52 cartas, não marcadas. Temos que, 13 destas cartas
têm a propriedade "copas". Considere a extração de 5 cartas, sem reposição.

Seja X a variável: número de cartas de copas entre as 5 sorteadas. Repare, esta variável tem distribuição
hipergeométrica. No caso, temos r = 13 cartas de copas em um total de N = 52 cartas. Vamos extrair n = 5
cartas, sem reposição. A probabilidade de ocorrer X = k é
13 39
k 5 k
P (k) = 52 :
5

Segue uma representação grá…ca para a distribuição de probabilidades de X.

Distribuição de Poisson

Seja X uma variável que admita apenas valores inteiros não-negativos. Dizemos que X tem distribuição
de Poisson se a probabilidade de ocorrer X = k é
k
e
P (k) = ;
k!
em que é um parâmetro positivo.

Note que,
1
X 1
X k 1
X k
e
P (k) = =e :
k! k!
k=0 k=0 k=0

Tendo em conta a expansão em serie de Taylor de e , temos


1
X
P (k) = e e = 1:
k=0

O valor esperado de X é
1
X 1
X k 1
X k 1
X k 1
e
E (X) = xk P (k) = k =e =e :
k! (k 1)! (k 1)!
k=0 k=0 k=1 k=1

10
Seja ` = k 1. Então,
1
X `
E (X) = e = :
`!
`=0

Ou seja, o parâmetro corresponde ao valor esperado, ou média, de X.

A variância de X é
2
V ar (X) = E X 2 [E (X)] :

Segue o cálculo de E X 2 . Temos que,


1
X 1
X k 1
X k 1
X k 1
e
E X2 = x2k P (k) = k2 =e k =e k :
k! (k 1)! (k 1)!
k=0 k=0 k=1 k=1

Seja ` = k 1. Então,
1
X `
E X2 = e (` + 1)
`!
`=0
" 1 1
#
X ` X `
= e ` +
`! `!
`=0 `=0
"1 #
X `
= e +e
(` 1)!
`=1
" 1 #
X ` 1
= e +e :
(` 1)!
`=1

Seja m = ` 1. Então,
" 1
#
X m
2
E X =e +e =e e +e = ( + 1) :
m=0
m!

Assim, …nalizamos:
2
V ar (X) = ( + 1) = :

Exemplo 5. Em 230 dias, um pescador registrou o número de peixes capturados em sua rede de pesca.
Com isto, elaborou o histograma que segue.

11
O pescador concluli que a distribuição pode ser descrita pelo modelo de Poisson, escreve um artigo, e submete
para publicação. O artigo deve ser aceito?

Vejamos, a média amostral da distribuição de frequências relativas obtidas pelo pescador é


10
X
x= kfR (k) = 4:4826:
k=0

Vamos supor que o número de observações é su…cientemente grande, de modo que, a média exata da dis-
tribuição é muito próxima de x. Assim, podemos comparar a distribuição de frequências relativas acima com
a distribuição de Poisson com valor médio = x.

Acima, em azul, temos a distribuição de frequências relativas obtida pelo pescador. Em amarelo, temos a
distribuição exata, supondo o modelo de Poisson. Repare, temos uma boa aproximação. De modo que, sim,
o artigo deve ser aceito.

Modelo de Poisson como aproximação do modelo binomial

Considere uma variável de Bernoulli. Suponha que a probabilidade p de ocorrer S é muito pequena.
Neste caso, para que possamos observar o evento S, precisamos realizar um número n relativamente grande
de ensaios 2 .

Suponha que p é muito pequeno e n é muito grande, mas com np sendo um "valor razoável" (do ponto de
vista computacional). Neste caso, podemos aproximar o modelo binomial pelo modelo de Poisson. Vejamos.

A probabilidade do evento S ocorrer k vezes em n ensaios de Bernoulli é


n! n k
P (k) = pk (1 p) :
k! (n k)!
Re-escrevemos esta expressão como
1) : : : (n (k 1)) np k
n (n np n k
P (k) = 1
k! n n
k
n (n 1) : : : (n (k 1)) (np) np n k
= k
1
n k! n
k n k
1 (k 1) (np) np
= 1 1 ::: 1 1 :
n n k! n
2 Por exemplo, se p = 0:001, então, para garantir a ocorrência de S pelo menos uma vez, precisamos realizar 1000 ensaios.

12
Considere o limite em que p ! 0 e n ! 1, mas de tal forma que np é …nito. Temos que,

1 (k 1)
lim 1 1 ::: 1 = 1;
n!1 n n

np n k np n np k
(np)
lim 1 = lim 1 lim 1 =e
n!1 n n!1 n n!1 n
No primeiro fator, empregamos:
x n
lim 1+ = ex :
n!1 n
Assim, temos a expressão efetiva para o modelo binomial, na situação em que p é muito pequeno e n é muito
grande:
k
(np) (np)
P (k) ' e :
k!
Repare, temos o modelo de Poisson em que = np. Observe a coerência: a média de uma variável com
distribuição binomial é, justamente, np.

238 238
Exemplo 6. Considere o isótopo 238 do urânio, U. Eventuamente, um núcleo de U sofre decaimento
, e torna-se o isótopo 234 do tório, 234 Th.
238 234
U ! Th + .

Para estimar a probabilidade de este evento ocorrer em um intervalo de 1 segundo, consideramos uma amostra
de urânio 238, e contamos o número de partículas emitidas no tempo de 1 segundo. A probabilidade
procurada é estimada como a razão entre o número de partículas detectadas e o número de núcleos de
238
U presentes na amostra. Esta estimativa é bem segura, pois, o número de núcleos é muito grande. Ela
vale 4:9 10 18 .

238
Agora, considere uma amostra de 0.30 mg de U. Vamos obter a probabilidade de um contador Geiger
registrar k partículas por segundo.

Para começar, observe que, temos um processo de Bernoulli: no tempo de 1 segundo, cada núcleo na
amostra pode emitir uma partícula , ou não. Temos a probabilidade deste evento ocorrer: p = 4:9 10 18 .
Quanto ao número n de ensaios de Bernoulli, ele é o número de núcleos na amostra. Temos que, 1 mol
de núcleos 238 U, ou seja, 6:02 1023 núcleos 238 U, tem massa de 238 gramas. Portanto, em 0.30 mg, ou
0:3 10 3 gramas, temos
3
0:3 10
n= 6:02 1023 = 7:59 1017 :
238

Repare, a probabilidade p é muito pequena, e n é muito grande. No entanto,

np = 3:72:

Assim, podemos aproximar a distribuição binomial pela distribuição de Poisson com média = 3:72. Repare,
isto signi…ca que, em média, temos 3.72 detecções de partículas por segundo. Segue a distribuição de

13
probabilidades.

Por exemplo, a probabilidade de k = 4 partículas serem detectadas no tempo de um segundo é 0.1934. Isto
signi…ca que, se considerarmos 100 intervalos de 1 segundo, em 19 deles teremos a detecção de 4 partículas
.

14
Exercícios

1. Uma editora de livros técnicos deve ter cuidado especial em relação a erros tipográ…cos. Um estudo
encomendado pela editora revelou que, contrário ao que se espera, ou seja, diminuição do número de erros
a cada página que se avança, a probabilidade de a página conter erro é constante, e igual a 0.005. Obter a
probabilidade de um livro de 1400 páginas conter no máximo três páginas com erros.

2. Em um experimento devido a Rutherford e Geiger, contou-se o número de partículas emitidas por


uma substância radioativa em 2608 intervalos de 7.5 segundos. A tabela que segue apresenta as frequências
obtidas.
k Frequência, n (k)
0 57
1 203
2 383
3 525
4 532
5 408
6 273
7 139
8 45
9 27
10 16
Total 2608

Veri…que se o modelo de Poisson é adequado para descrever esta distribuição.

3. Entre 1930 e 2016 foram registrados 14 tornados F5 ou EF5 no estado do Kansas, Estados Unidos.
Assumindo que as condições climáticas se mantenham constantes, obter a probabilidade de ocorrer um
tornado F5 ou EF5 no Kansas nos próximos 5 anos.

4. Gafanhotos distribuem-se em um vasto campo, de modo que, em média, podem ser encontrados 2
deles por metro quadrado. Supondo que a distribuição possa ser descrita pelo modelo de Poisson, obter o
raio R, em metros, de uma região circular tal que, a probabilidade de encontrar pelo menos um gafanhoto
nessa região seja 0.99.

5. Uma ‡oricultura envia limoeiros de três anos em lotes de 24. Quando eles chegam ao destino, um
inspetor seleciona ao acaso três árvores de cada lote. Se essas três árvores estão saudáveis, todo o lote é
aceito. Caso contrário, todo o lote é recusado. Agora, suponha que existam 6 entre as 24 árvores que não
passariam pela inspeção. Obter a probabilidade de o lote ser recusado.

6. Supondo que 20 % de todas as cópias de um livro-texto apresentem falha em um determinado teste


de resistência de encadernação. Obter a probabilidade de pelo menos 3 dos 30 livros-texto distribuídos para
uma turma de 30 alunos precisarem ser reformados.

7. Um fabricante de eletrônicos alega que no máximo 10 % de seus geradores precisam de reparo no


período de garantia. Para investigar a declaração, técnicos de um laboratório de testes adquiriram 20
unidades e as submeteram a um teste acelerado para simular o uso durante o tempo de garantia. Considere

15
a regra de decisão: rejeitar a alegação do fabricante se o número de unidades que apresentarem falha nos
testes for pelo menos 5. Obter a probabilidade de esta decisão ser tomada.

8. O cirurgião japonês Doutor Shine realiza cirurgias de alto risco. Tem-se que, 55 % dos pacientes que
ele opera não sobrevivem. Obter a probabilidade de mais da metade dos próximos 10 pacientes que ele vai
operar virem à óbito.

9. Considere o jogo Cho-Han Bakuchi. Ele consiste no lançamento de dois dados usuais, com 6 lados. Se
a soma dos pontos nas faces voltadas para cima é par, tem-se Cho; caso contrário, Han. Hatori, apostador
veterano na casa de apostas Baka, sempre realiza uma sequência de 5 apostas. Após 800 sequências, ele
elabora a distribuição que segue.

Veri…que se o modelo binomial é apropriado para descrever esta distribuição.

10. Considere que, em um lote de 150 LEDs, no máximo 5% são defeituosos, conforme declarado pelo
fabricante. Suponha que, os LEDs do lote sejam embalados em grupos de 5, para distribuição no varejo.
Obter a probabilidade de uma embalagem não conter qualquer LED defeituoso.

11. O professor de …loso…a Helmut Muthel nunca …naliza sua aula antes do …nal do horário e sempre
termina dentre de 30 segundos após o horário. Analisando os tempos em que a aula se extende além
do horário, alguns estudantes construíram o seguinte modelo para a distribuição de probabilidades para a
variável T , tempo excedido, em segundos.
1
f (t) = b + at t2 :
4495
Estimar o número de aulas, em um total de 120, em que o professor …naliza sua aula 15 segundos após o
horário.

12. Em uma terça-feira típica, um radar registra que 5% dos veículos passam por ele a uma velocidade
acima da máxima permitida. Obter a probabilidade de pelo menos um dos próximos 10 veículos que passarem
pelo radar serem multados.

13. O processo de montagem de um produto envolve uma peça que é constituída por dois componentes,
um cilindro oco de base circular e uma esfera. O projeto prevê que o diâmetro da esfera seja igual ao diâmetro
interno da base do cilindro, e prevê um certo valor para a altura do cilindro.

16
Cada componente é classi…cado como sendo bom, ou seja, dentro das especi…cações; longo, ou seja,
superior às especi…cações; ou curto, ou seja, inferior às especi…cações. Após análise de uma amostra, extraída
do lote contendo os cilindros e as esferas, levantou-se a distribuição de frequências relativas que segue.

Classi…cação Freq. Rel. Freq. Rel.


p/ os cilindros p/ as esferas
Bom 0.80 0.70
Curto 0.10 0.20
Longo 0.10 0.10

Agora, suponha que cada componente tenha um custo de produção de 5 reais. Se a peça …nal apresentar
algum componente curto, então ele é irrecuperável, e a peça é vendida como sucata, ao preço de 5 reais. Se
a peça …nal apresentar algum componente longo, então ele pode ser recuperado, mas a um custo adicional
de 5 reais.

Tendo em conta que o preço de venda da peça …nalizada é de 25 reais, obter a distribuição de probabili-
dades para a variável lucro. Obter também a média e a variância desta variável

17

Você também pode gostar