Você está na página 1de 16

INSTITUTO TECNOLÓGICO DE AERONÁUTICA

GED-13: Probabilidade e Estatística


Filipe RODRIGUES de Souza Moreira

AULA 3

PRINCIPAIS VARIÁVEIS ALEATÓRIAS DISCRETAS

Na aula 02, foi apresentada, de maneira geral, a definição de Variável Aleatória. Naquele contexto
foi estudado o porquê de se usar esse tipo de variável e em que tipos de problemas ela pode ser útil. Além
disso, foram definidos os conceitos de valor esperado, ou esperança e de variância de uma variável
aleatória, bem como foi apresentado como se calcula cada um desses parâmetros.
Nessa aula serão aplicados os conhecimentos adquiridos na aula 2, pois aqui serão estudados
alguns tipos de problemas probabilísticos, muito comuns no dia a dia, além de apresentados alguns tipos
de distribuições de probabilidade específicos para cada tipo de problema.
Um problema comum a qualquer cidadão é o uso de um SAC de alguma empresa. Infelizmente o
histórico diz que é necessário esperar um pouco para que se consiga um atendimento, mas nem sempre
isso acontece. Existe uma probabilidade de o consumidor ligar para o SAC e já conseguir o atendimento
de imediato. O fato é que ou o consumidor é atendido de imediato ou não o é. Esse problema
probabilístico pode ser mapeado utilizando-se de dois tipos de resultados: Sucesso ou Fracasso. Se X for a
variável aleatória que descreve esse problema, observa-se que ela gera apenas dois resultados. Esse é um
caso típico que é resolvido utilizando-se uma variável aleatória de Bernoulli.

I. Modelo de Bernoulli

Conforme foi comentado anteriormente, o modelo de Bernoulli é aquele cujo espaço amostral é
composto por um conjunto finito e com dois elementos. Cada experimento só possui dois possíveis
resultados, o que é chamado de experimento binário. Traduzindo os possíveis resultados, Sucesso e
Fracasso em números, considera-se X ( S ) = 1 e X ( F ) = 0 , tais que:
P( X= 1)= p e P( X = 0) = 1 − p

Utilizando a definição, se pode calcular o valor esperado dessa va:

n
E( X ) = ∑x
k =1
k p ( xk ) = 1. p + 0.(1 − p ) = p ⇔

E( X ) = p (1)

Também com o uso da definição, se calcula a variância dessa va:

2
Var ( X ) = ∑ ( xk − µ X ) 2 p ( xk ) = (1 − p ) 2 . p + (0 − p ) 2 .(1 − p ) = p (1 − p ) ⇔
k =1

Var ( X=) p (1 − p ) (2)

Uma maneira de escrever a função massa de probabilidade da va Bernoulli é como:

P( X = p x (1 − p )1− x , x ∈ {0,1}
x) = (3)

Há algumas situações em que cada experimento se baseia em vários experimentos, independentes


entre si, do tipo Bernoulli. Considere o exemplo 1.1, mostrado abaixo:

Exemplo 1.1 Suponha que serão feitos quatro lançamentos de mísseis, tal que cada míssil tenha uma
probabilidade p de atingir o alvo. Considere que cada lançamento é independente do outro. A missão será
considerada concluída de no mínimo dois mísseis acertarem o alvo. Observe que não importa a ordem em
que esses mísseis vão acertar o alvo, mas interessa que dois, três ou os quatro mísseis acertem o alvo.
Vamos definir uma variável aleatória X que denota o número de mísseis que acertam o alvo, dessa forma
o espaço amostral dos resultados de X é X ∈ {0,1, 2,3, 4} . Passando para a linguagem matemática, tem-se
que:
 4  4  4 4
4
P( X =2 ou X =3 ou X =4) =  p 2 (1 − p ) 2 +   p 3 (1 − p )1 +   p 4 (1 − p )0 =∑   p x (1 − p ) 4− x
 2 3  4 x=2  x 

Como X = 2 significa que exatamente dois mísseis atingiram o alvo, então X = 2 , X = 3 e


X = 4 são eventos mutuamente exclusivos, logo:

P( X =
2 ou X =
3 ou X =
4) =
P( X =
2) + P( X =+
3) P( X =
4)

É bom que as condições para que esse problema fosse resolvido da maneira como foi proposta
sejam bem evidenciadas:
• Os lançamentos de cada míssil são independentes, dois a dois;
• A probabilidade de acerto de cada míssil não muda conforme mudam os lançamentos;
• A quantidade de lançamentos é fixa e nesse caso igual a 4; e,
• O resultado de cada lançamento é um experimento de Bernoulli, ou seja, resultará em sucesso ou
fracasso.

II. Variável Aleatória Binomial

A questão do Exemplo 1.1 é um problema típico para ser modelado por uma variável aleatória
binomial. Isso porque as quatro condições enunciadas nesse exemplo, foram obedecidas cabalmente. A
variável aleatória binomial pode ser definida como sendo o número de sucessos entre “n” tentativas, nas
condições levantadas no Exemplo 1.1.
Sua função massa de probabilidade é dada por:

 n  x
 p (1 − p ) n − x , x ∈ {0,1, , n}
B( x; n, p ) =  x  (4)
 x ∉ {0,1, , n}
 0,

Quando dizemos que X é descrito por uma va binomial, será usada a notação: X ~ Bin(n, p ) .
Utilizando a definição, podemos calcular o valor esperado dessa va:
E ( X ) = np (5)

Também com o uso da definição, se calcula a variância dessa va:

Var (=
X ) np (1 − p ) (6)

Fica como exercício para o leitor fazer a demonstração da expressão do valor esperado e da
 n  n  n − 1
variância da va binomial. Uma dica é usar a propriedade dos números binomiais:   =  .
 x  x  x − 1

ER1) Considere que para uma aeronave quadrimotor, a probabilidade que qualquer motor falhe em voo é
0,01 e que a falha de um motor não depende das falhas dos outros. A aeronave consegue voar caso haja
pelo menos dois motores funcionando. Determine a probabilidade de que a aeronave falhe.

Solução

Para que a aeronave falhe, deve haver 0 ou 1 motor funcionando. Observe que o enunciado não fala quais
motores devem falhar ou não, apenas se refere ao número. Esse é um tipo de problema que pode ser
descrito pelo modelo binomial, dessa forma se X for o número de motores funcionando, então:

 4  4
P(avião falhar ) =
P( X =+
0) P( X == 3,97.10−6
1)   (0,99)0 (0, 01) 4 +   (0,99)1 (0, 01)3 =
0 1 

Cálculo de probabilidades com o R

As funções do R que fornecem cálculo de probabilidades para a distribuição binomial são:


a) Distribuição acumulada: P( X ≤ a ) = pbinom(a, n, p)
b) P(a ≤ X ≤ b) = pbinom(b, n, p)- pbinom(a-1, n, p)
c) Probabilidade no ponto: P( X = a ) = dbinom(a, n, p)
d) Para gerar números aleatórios que seguem a distribuição binomial: y = rbinom(m, n, p). Essa função
cria um vetor, nesse caso nomeado por y, com m números aleatórios da distribuição binomial de
parâmetros n, p.
ER2) Suponha que 20% de todas as cópias de um livro-texto apresentem falha em um determinado teste
de resistência de encadernação. Seja X o número de cópias que apresentam falhas entre 15 cópias
selecionadas aleatoriamente. Então X tem distribuição binomial com n = 15 e p = 0,2.
a) A probabilidade de no máximo 8 apresentarem falha.
b) A probabilidade de exatamente 8 apresentarem falha.
c) A probabilidade de no mínimo 8 apresentarem falha.

Solução

a) pbinom(8,15,0.2) = 0.999215
b) dbinom(8,15,0.2) = 0.003454764
c) 1-pbinom(7,15,0.2) = 0.00423975

ER3) Suponha que apenas 25% de todos os motoristas parem completamente um cruzamento com
semáforos vermelhos para todas as direções quando não há outros carros à vista. Qual é a probabilidade
de que, entre 20 motoristas selecionados aleatoriamente chegando em um cruzamento nessas condições,
a. no máximo seis parem totalmente?
b. exatamente seis parem completamente?
c. ao menos seis parem completamente?
d. quantos dos 20 motoristas você espera que parem completamente?

Solução

a) pbinom(6,20,0.25)

R. 0.7857819

b) dbinom(6,20,0.25)

R. 0.1686093

c) 1 - pbinom(5,20,0.25)

R. 0.3828273

d) 20*0.25 = 5
III. Variável Aleatória de Poisson

As variáveis aleatórias de Bernoulli e Binomial estão diretamente ligadas à quantidade de sucessos


ou fracassos durante um experimento. Há, porém outros problemas tais que o interesse é discutir quantas
ocorrências de um evento aconteceram em um intervalo. Esse intervalo pode ser o tempo, área,
comprimento, volume, etc. Esses problemas são exatamente do tipo que podem ser modelados por uma
distribuição de probabilidades de Poisson. Observe alguns exemplos:

a) Número de falhas de um equipamento em um intervalo específico de tempo;


b) Número de pessoas, em uma unidade militar, que frequentam um rancho, em um dia;
c) Número de aviões que decolam de um aeroporto em um dia;
d) Número de clientes que chegam ao caixa de uma loja;
e) Número de bolhas por unidade de volume, encontradas após o processo de carregamento de um motor
foguete;
f) Número de usuários, por hora, online no instragram;
g) Número de acidentes de automóveis em um cruzamento, em determinada hora do dia;

Para a discussão de um tratamento matemático sobre a distribuição de Poisson, vamos considerar


um problema que servirá de motivação para a introdução do assunto.

Exemplo 3.1 Em uma malha ferroviária há um ponto de cruzamento, com tráfego intenso de trens, tal
que a probabilidade de haver um acidente é muito pequena e igual a p = 0, 00001 . Normalmente, entre o
período de 05:00 h às 21:00 h, aproximadamente 500 trens passam por esse ponto de cruzamento. Com as
condições apontadas, qual a probabilidade de se haver dois ou mais acidentes naquele período?

Solução

Para resolver essa questão vamos estabelecer algumas hipóteses:

• A probabilidade de haver o acidente (o valor de p) é constante para cada trem;


• O fato da ocorrência de um acidente com um determinado trem não interfere na probabilidade de
haver acidente com os outros trens;
• A quantidade de trens que vai passar por esse cruzamento, embora na realidade seja uma variável
aleatória, aqui será fixada em 500.

Com base nas hipóteses acima, podemos dizer que esse problema pode ser modelado por uma
distribuição binomial com n = 500 e p = 0, 00001 . Dessa forma:

 500  500 − k
P( X= k=
)  k
 (0, 00001) (0,99999) .
 k 
Para o caso dessa questão, o que se quer é:

500

∑ P( X =
k =2
k) =
1 − P( X =
0) − P( X =
1) =
1 − (0,99999) 500
− 500.(0, 00001)1 (0,99999) 499  1, 2433 ×10−5 .

Trata-se de uma conta impraticável, assim para que não sejam feitas grandes arredondamentos que
prejudiquem o resultado daremos outro tratamento matemático a essa questão.
Observe, novamente, a expressão da distribuição de probabilidades binomial para P( X = k ) :

n k n−k n! n(n − 1) (n − k + 1) k


P( X =
k) =
  p (1 − p ) = p k (1 − p ) n − k = p (1 − p) n − k .
k  k !(n − k )! k!

α α n −α
Se fizermos np = α , então p = e 1 − p =1 − = , assim substituindo os valores de p, em termos
n n n
da nova variável α , na expressão acima se tem que:

n−k n−k
n(n − 1) (n − k + 1)  α   n − α  αk   1   2   k − 1   α 
k

P( X =
k) =     = (1) 1 −  1 −  1 −  1 −  =
k! n  n  k!   n  n   n    n 

−k
αk  k − 1   α   α
n

(1) 1 −  1 −  1 −


1 2
=   1 −  1 −  .
k!   n  n   n    n   n

Observe que em nosso problema o valor de n é muito grande, e isso foi o fator que dificultou o
desenvolvimento das contas na formulação anterior. Dessa forma, vamos fazer uma estrapolação, fazendo
o limite da expressão de P( X = k ) , quando n → ∞ , de tal maneira que np → α . Os termos da forma
−k
 b  α
1 −  → 1 , assim como o termo 1 −  . Logo a expressão acima fica escrita na forma:
 n  n

 α k   1   2   k − 1    α n  α − k   α k   α
n

lim [ P( X =k ) ] =lim  (1) 1 −  1 −  1 −  1 −  1 −   =  lim 1 −  =


n →∞
   n   n  
n →∞ k ! n    n   n    k !  n→∞  n 

α k e −α
P( X= k=
) . (7)
k!

A expressão acima é exatamente a distribuição de Poisson com parâmetro α e isso mostra que em
alguns casos, a distribuição binomial pode ser aproximada para uma Poisson. Continuando a resolução do
Exemplo 3.1, dados que p = 0, 00001 e n = 500 , então np = 0, 005 . Assim,

P ( X ≥ 2) =
1 − P( X =
0) − P ( X = 1 − e −0,005 − 0, 005.e −0,005 =
1) = 1 − (1 + 0, 005)e −0,005  1, 2458 ×10−5 .

Em termos de regra geral, uma distribuição binomial pode ser aproximada por uma Poisson
quando n > 50 e np < 5 . No entanto, embora nessa seção a Poisson tenha sido tratada como uma
aproximação da binomial, talvez essa não seja a melhor abordagem para demonstração da sua fmp. Essa
distribuição é extremamente importante, porque ela por si só se mostra um modelo probabilístico bem
razoável para uma grande quantidade de problemas dessa natureza.

III.1 O Processo de Poisson

Aqui será mostrado como, de fato, se chega à expressão da fmp da distribuição de Poisson. A
dedução mostrada nessa seção não será matematicamente rigorosa, mas tendo em vista que se trata de um
resultado muito importante, então se considera que vale a pena entender como essa expressão surge e
como são as hipóteses que embasam a demonstração.
Considere X uma variável aleatória de Poisson que caracteriza o número de ocorrências de um
determinado evento em um período de tempo específico [0, t[ . Suponha as seguintes hipóteses:
1. O número de ocorrências do evento durante intervalos de tempo disjuntos caracterizam variáveis
aleatórias independentes;
2. A distribuição do número de ocorrências do evento depende apenas do comprimento do intervalo
de tempo, ou seja, X t e X t +∆t possuem a mesma distribuição;

3. A probabilidade de “uma” ocorrência do evento em um intervalo de tempo ∆t , suficientemente


pequeno, é chamada de p1 (∆t ) e é proporcional ao comprimento do intervalo, dessa forma vale

p1 (∆t ) = λ∆t ;

4. A probabilidade de se ter ocorrência alguma, em t = 0 é p0 (0) = 1 .

Uma consequência das hipóteses 1 e 3 é que a probabilidade de haver duas ou mais ocorrências no
mesmo intervalo ∆t é desprezível, pois como ∆t é suficientemente pequeno, então potências de ∆t
tendem a zero, resumindo, p2 (∆t ) ≈ p3 (∆t ) ≈  ≈ 0 . Seja p=
n (t ) P=
( X t n) , ou seja, pn (t ) é a

probabilidade de se observar exatamente n ocorrências no intervalo [0, t[ .


Considere pn (=
t + ∆t ) P=
( X t +∆t n) . Mas, X t +∆t = n se e somente se X t = r e X t +∆t − X t =n − r ,
logo se usarmos as hipóteses 1 e 2, conclui-se que:

≈0
n n−2  
pn (t + ∆t ) ∑ pr (t=
= ) pn − r (∆t ) ∑ pr (t ) pn − r (∆t ) + pn −1 (t ) p1 (∆t ) + pn=
(t ) p0 (∆t )
=r 0=r 0

pn (t + ∆t ) ≈ pn −1 (t ) p1 (∆t ) + pn (t ) p0 (∆t ) (8)

Das hipóteses 3 e 4, podemos concluir que:


≈0
 

p0 (∆t ) =1 − p1 (∆t ) − ∑ pk (∆t ) ≈ 1 − λ∆t . (9)
k =2

Assim:

pn (t + ∆t ) − pn (t )
pn (t + ∆t ) ≈ pn −1 (t ) ( λ∆t ) + pn (t ) (1 − λ∆t ) ⇒ ≈ λ pn −1 (t ) − λ pn (t )
∆t
Fazendo o limite para quando ∆t → 0 , chega-se em:

 p (t + ∆t ) − pn (t )  dpn (t ) dpn (t )
lim  n  = ⇔ = λ pn −1 (t ) − λ pn (t ) (10)
∆t → 0
 ∆t  dt dt

Defina a função bn (t ) = eλt pn (t ) . Fica como exercício para o leitor demonstrar que com essa
transformação, chega-se em:

bn ' (t ) = λbn −1 (t ) . (11)

A relação (11) é mais simples que (10), no entanto, para se fazer um processo de indução finita, a
fim de se obter uma expressão geral para bn (t ) , necessariamente precisa-se da expressão de b0 (t ) ou de

p0 (t ) . Façamos como foi feito para a relação (8):

p0 (t + ∆t )= P( X t +∆=
t 0)= P( X =
t 0 e ( X t +∆t − X t )= 0) .

Mas como X t e ( X t +∆t − X t ) são variáveis aleatórias independentes,

p0 (t + ∆t ) = P( X t = 0).P(( X t +∆t − X t ) = 0) = p0 (t ) p0 (∆t ) ≈ p0 (t )(1 − λ∆t ) ⇒

p0 (t + ∆t ) − p0 (t )  p (t + ∆t ) − p0 (t ) 
⇒ ≈ −λ p0 (t ) ⇒ lim  0  = −λ p0 (t ) ⇔
∆t ∆t → 0
 ∆t 

⇔ p0 ' = e − λt ⇒ b0 (t ) =
−λ p0 (t ) ⇒ p0 (t ) = 1 (12)

Usando as relações (11) e (12) chega-se em:

λb0 (t ) ⇔ b1' (t ) =
b1' (t ) = λ ⇔ b1 (t ) =+
λt c
Dado que pela construção do problema, pn (0) = 0 ⇒ bn (0) = 0, ∀ n ≥ 1 , logo:

(λ t ) 2
λt ⇒ b2 ' (t ) =
b1 (t ) = λ 2t ⇒ b2 (t ) =
2

(λ t ) n
Fazendo uma indução finita na relação (11), tem – se que bn (t ) = , dessa forma:
n!

e − λ t (λ t ) n
P( X=
t n=
) pn (t=
) (13)
n!

A equação (13) mostra a expressão da fmp de uma Poisson, de parâmetro (λt ) . O valor de λ
representa a taxa esperada segundo a qual as ocorrências acontecem.
O valor esperado da variável aleatória de Poisson pode ser obtido da definição e é calculado por:

 e − λ t (λ t ) n  − λ t ∞  (λ t ) n 
∞ ∞
 (λt ) n −1 
=∑= 
E( X )
n  e= ∑ n   λ te=− λt
∑  =
n 1  ( n − 1)! 
− λt λt
 λte (e ) λt ⇔
=n 0 = n!  n 1=  n! 

E ( X ) = λt (13.a)

De posse do valor de E ( X ) agora é possível calcular, sem usar diretamente a definição, a

= ( X ) E ( X 2 ) − ( E ( X ) ) , chega-se que:
2
variância, lembrando de que Var

Var ( X ) = λt (13.b)

Observe que essa variável aleatória possui a curiosa propriedade de ter o seu valor esperado igual
à variância.
Exercício Desafio

Seja X t o número de partículas emitidas por uma fonte radioativa, durante um intervalo de tempo de

duração t. Admita-se que X t possua distribuição de Poisson com parâmetro (λt ) . Um dispositivo
contador é colocado para registrar o número de partículas emitidas. Suponha-se que exista uma
probabilidade constante p de que qualquer partícula não seja contada. Se Rt for o número de partículas

contadas durante o intervalo especificado, mostre que a distribuição de probabilidade de Rt é uma


variável aleatória de Poisson com parâmetro (1 − p )λt .

IV. Distribuição Geométrica

Nessa seção será discutida outros tipos de problemas. Esses são mais parecidos com aqueles que
foram estudados nas primeiras seções. Suponha que sejam realizados varias vezes, o mesmo experimento,
tal que os possíveis resultados sejam sucesso ou fracasso. A questão aqui é quantas vezes esse
experimento precisa ser repetido até que se obtenha o primeiro sucesso. Observe que nesse caso, a
variável aleatória é quantidade total de experimentos. Considerando que a probabilidade de se obter um
sucesso seja p, supondo que a variável aleatória X seja a quantidade de repetições do experimento até que
se obtenha o primeiro sucesso e que cada repetição do experimento é independente das outras, então:

P( X =
k) = (1 − p ) k −1 p
P( fracasso k − 1 vezes ).P( sucesso na k − ésima vez ) = (14)

Observe que na formulação dada nesse material é que k seja o número TOTAL DE REPETIÇÕES
DO EXPERIMENTO, incluindo o primeiro sucesso. Há outras fontes que consideram k como sendo o
número de falhas, e nesse contexto, a expressão da fmp é diferente da que foi calculada em (14).
Qualquer variável aleatória que tenha uma distribuição de probabilidades como essa mostrada em
(14) é chamada de distribuição geométrica.
Fica como exercício para o leitor, a demonstração de que, de fato, a função discreta (14)

representa uma distribuição de probabilidades. Para isso basta mostrar que ∑ (1 − p)
k =1
k −1
p=
1.
O valor esperado dessa distribuição é obtido através da definição resolvendo o somatório
∞ ∞
E ( X ) =∑ k (1 − p ) k −1 p = p ∑ k (1 − p ) k −1 . Considere, portanto, o somatório:
=k 1=k 1


d  ∞ k d  x 

=
d k
(
∑ kx k −1

= x ) =  ∑ x  =  
1
dx  k 1  dx  1 − x  (1 − x) 2
.
=k 1=k 1 dx =

Fazendo a igualdade x = 1 − p chega-se em:

1
E( X ) = . (15)
p

Para o cálculo da variância da distribuição geométrica, primeiramente vamos calcular E ( X 2 ) .


∞ ∞ =x ∞
d2 k
E ( X )=
2
∑ k (1 − p)
2 k −1
p= p ∑ k (1 − p ) k −1= p ∑ k 2 x k −1 . Mas,
2

dx 2
( x ) =k (k − 1) x k −2 =k 2 x k −2 − kx k −2 .
=k 1 =k 1=k 1

∞ ∞ ∞
d2 k d2 k
2 ( ) ∑ 2 ( ) ∑ ∑
2 k −1 k −1 2 k −1
Logo, x x = k x − kx ⇔ x x = k x − kx k −1 . Por consequência:
dx = k 1 dx=k 1 =k 1


 ∞ d2 ∞

E ( X 2 ) = p ∑ k 2 x k −1 = p  ∑ x 2 ( x k ) + ∑ kx k −1  =
2 xp
+
p
=
(1 + x ) p (15.b)
 (1 − x) (1 − x) (1 − x)3
3 2
= k 1=  k 1=
dx k 1

2− p
Fazendo a igualdade x = 1 − p , na expressão (15.b), chega-se que E ( X 2 ) = . Para calcular a
p2

= ( X ) E ( X 2 ) − ( E ( X ) ) . Assim:
2
variância, vamos usar o resultado Var

2
 2 − p   1  1− p
Var ( X )=  2  −   = (16)
 p   p p2
V. Outras Distribuições Discretas

Nas quatro seções anteriores, foram estudadas as distribuições mais comuns em problemas
probabilísticos, em todo caso, há outros problemas para os quais esses modelos de distribuições vistos são
insuficientes.

V.1 Distribuição de Pascal

Suponha que um dado experimento vem sendo repetido até que um evento específico A ocorra a
primeira vez. Essa é exatamente a formulação da distribuição geométrica. Agora suponha que X seja o
número de vezes que esse experimento tenha que ser repetido, tal que o evento A ocorra r vezes.
Considere que X = k . Observe que estamos interessados na quantidade TOTAL de repetições do
experimento, e não no número de falhas que precedem o r-ésimo sucesso (conforme definido na seção de
Distribuição Binomial Negativa do Devore 6º edição). Dessa forma, necessariamente, na k-ésima vez
ocorreu o evento A e nas outras k-1 vezes, o evento A ocorreu r-1 vezes. Se a probabilidade de o evento A
acontecer é p, então:

P( X =
k) =
P(evento A ocorre r − 1 vezes em k − 1 repetições ).P (evento A ocorre na k − ésima vez ) =

 k − 1 r −1 ( k −1) − ( r −1)  k − 1 r k −r
P( X = k ) = p   p (1 − p ) =   p (1 − p ) , ∀ k ≥ r . (17)
 r −1   r −1 

A variância e o valor esperado dessa distribuição são:

r (1 − p ) r
Var ( X ) = 2
e E( X ) = . (18)
p p

Fica a cargo do leitor, como desafio, a demonstração do porquê ambas as formulações, feitas
nesse material e no Devore, levaram à mesma expressão de variância.

V.2 Distribuição Hipergeométrica


Considere um lote com n peças e entre essas, r peças defeituosas. Colhe-se uma amostra de v
peças desse lote, sem reposição. Se X for o número de peças defeituosas encontradas, então X tem uma
distribuição hipergeométrica. Usando o conceito clássico de probabilidades, a expressão matemática da
distribuição geométrica é:

(k peças ruins, dentre r do lote).(v − k peças boas, dentre as n − r do lote)


P( X= k=
) =
(v peças, dentre n)

 r  n − r 
  
 k v − k 
P( X = k ) = , ∀ k ≥ 0. (19)
n
 
v 

Observe que mesmo que o domínio dessa função seja os inteiros não negativos, necessariamente
r 
quando k > r então   = 0 , o que faz todo o sentido, pois não se pode achar na amostra mais peças
k 
defeituosas que a quantidade total de peças defeituosas do lote inteiro.
A variância e o valor esperado dessa distribuição são:

vr  r   n − v  vr (n − r )(n − v) vr
Var ( X ) =− 1   =2 e E( X ) = . (20)
n  n   n −1  n (n − 1) n

r  r
É possível mostrar que para n grande, P( X = k ) ≈   p k (1 − p ) r − k , ∀ 0 ≥ k ≥ r , em que p = .
k  n
Essa prova fica para o leitor.

BIBLIOGRAFIA

MEYER, P. L. Probabilidade: Aplicações à Estatística. 1º Edição. Rio de janeiro: LIVROS


TÉCNICOS E CIENTÍFICOS EDITORA S.A., 1976. 405 p.

DEVORE, J. L. Probability & Statistics for Engineering and the Sciences. 8th edition. California:
BROOKS/COLE CENGAGE Learning, 2010. 687 p.
SPIEGEL, M. Y. R. Estatística. 2º Edição, 2º Reimpressão. Rio de Janeiro: McGRAW HILL DO
BRASIL, LTDA, 1971. 571 p.

Você também pode gostar