Você está na página 1de 60

Principais Distribuições

de Probabilidade
Discretas

Alberto Barros
Cursos: CST em Sistemas de Telecomunicações
Bacharelado em Engenharia Elétrica
1
Roteiro
 Principais distribuições de probabilidade que
envolvem variáveis discretas:
 A distribuição de Bernoulli

 A distribuição Binomial

 A distribuição de Poisson

 A distribuição Geométrica

 A distribuição de Pascal

 A distribuição Hipergeométrica

 A distribuição Multinomial 2
A Distribuição de Bernoulli
Talvez os experimentos mais simples são aqueles
caracterizados pela ocorrência ou não de algum
evento de interesse, tais como:

 Lançar um dado e observar se ocorre face seis ou não;

 Observar se uma peça, retirada aleatoriamente de uma


linha de produção, é defeituosa ou não;

 Observar, durante um período de tempo, se o sinal de


uma determinada operadora de telefonia móvel cai ou
não;

 Observar, em um determinado instante, se a corrente


que passa em um resistor está abaixo do limite
adequado ou não; 3
A Distribuição de Bernoulli
Todos os experimentos descritos no slide anterior são
conhecidos como ensaios de Bernoulli.

Denominamos de sucesso a ocorrência do evento de


interesse, e de fracasso a não ocorrência.

O ensaio de Bernoulli é caracterizado por uma variável


aleatória X, definida por X = 1, se sucesso e X = 0 se
fracasso. A função de probabilidade de X, denominada
de distribuição de Bernoulli é dada por:
x 0 1
p(x) 1 – p p

onde p = P(sucesso)
4
O Valor Esperado e a Variância de
uma Variável Aleatória de Bernoulli
E(X) = 0⋅(1- p) + 1⋅p = p

E(X2) = 02⋅(1- p) + 12⋅p = p

Var(X) = E(X2) – [E(X)]2 = p – p2 = p(1 – p)

Portanto, se X segue uma distribuição de


probabilidade de Bernoulli com probabilidade de
sucesso p (Notação: X~Ber(p)), então,

E(X) = p Var(X) = p(1 – p)


5
A Distribuição Binomial
Na maioria das vezes, são realizados n ensaios de Bernoulli, e
estamos interessados no número de sucessos ocorridos nessas n
repetições. Por exemplo:

 Observar o número de vezes que ocorre face seis em 10


lançamentos de um dado;

 Observar o número de peças defeituosas dentre 100 peças


retiradas aleatoriamente de uma linha de produção;

 Verificar, em um período de 30 dias, em quantos dias foi


observado uma determinada falha na transmissão do sinal de
uma operadora de telefonia móvel;

 Observar, dentre 4 resistores ligados em paralelo, quantos


apresentam falha;
6
A Distribuição Binomial
Se, nos exemplos do slide anterior pudermos
supor que:

 os n ensaios de Bernoulli sejam independentes;

a probabilidade de sucesso p permaneça


constante em cada um dos ensaios;

então, a variável aleatória X que representa o


número de sucessos em n ensaios de
Bernoulli tem uma distribuição de
probabilidade Binomial. 7
A Distribuição Binomial
Note que uma variável aleatória com distribuição de
probabilidade Binomial depende de 2 parâmetros:

n (número de repetições de um ensaio de Bernoulli)

p (probabilidade de sucesso a cada ensaio)

Além disso, esta variável pode ser vista como uma


soma de variáveis de Bernoulli independentes, ou
seja, se X é uma variável aleatória com distribuição
Binomial com parâmetros “n” e “p” (Notação: X ~
Bin(n , p)), então

X = X1 + X2 + ... + Xn,
sendo Xi ~ Ber(p) 8
O Valor Esperado e a Variância de
uma Variável Aleatória Binomial
Pela expressão anterior, fica mais simples
deduzir o valor espersdo e a variância de uma
Binomial:

E(X) = E(X1 + X2 + ... + Xn)


= E(X1) +E(X2) + ... + E(Xn)
= p + p + ...+ p = np

Var(X) = Var(X1 + X2 + ... + Xn)


= Var(X1) +Var(X2) + ... + Var(Xn)
= p(1 – p) + p(1 – p) + ...+ p(1 – p) = np(1 – p)
9
O Valor Esperado e a Variância de
uma Variável Aleatória Binomial

Portanto se X segue uma distribuição de


probabilidade Binomial com parâmetros n e p,
então
E(X) = np
Var(X) = np(1 – p)

Qual é a função de probabilidade de X?


Deduziremos a distribuição de probabilidade da
Binomial através do próximo exemplo.
10
Exemplo
Exemplo 1: Seja X a variável aleatória que
representa o número de caras em 3
lançamentos de uma moeda. Achar a função de
probabilidade de X.

Solução:

Experimento: Lançar uma moeda 3 vezes


Variável X: Número de caras obtidas nos 3
lançamentos
11
Solução do Exemplo 1
Possíveis resultados
Valor de X onde
do experimento

(k, k, k) 0 c = cara
K = coroa
(k , k, c)
(k , c, k) 1
(c , k, k)
(k , c, c)
(c , k, c) 2
(c , c, k)

(c , c, c) 3

12
Solução do Exemplo 1
1 1 1 1
P(X = 0) = P[(k, k, k)] = ⋅ ⋅ =
2 2 2 8

P(X = 1) = P[(k, k, c) ou (k, c, k) ou(c, k, k)]


1 1 1 1 1 1 1 1 1 3
= ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ =
2 2 2 2 2 2 2 2 2 8

P(X = 2) = P[(k, c, c) ou (c, k, c) ou(c, c, k)]


1 1 1 1 1 1 1 1 1 3
= ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ =
2 2 2 2 2 2 2 2 2 8
1 1 1 1
P(X = 3) = P[(c, c, c)] = ⋅ ⋅ =
2 2 2 8 13
Expressão Geral da Distribuição de
Probabilidade Binomial
Podemos concluir, a partir do exemplo anterior, que se X
tem uma distribuição Binomial com parâmetros n e p,
então a função de probabilidade de X é dada por:

n x
P(X = x) =  p (1 − p) n − x x = 0, 1, 2, ..., n
x
n n!
onde   =
 x  x!(n − x)!

representa o número de maneiras que podemos


combinar x sucessos entre n ensaios de Bernoulli.
14
Uso da Fórmula da Distribuição
Binomial para a Variável do Exemplo 1
X ~ Bin(3,1/2)
0 3− 0 3
 3  1   1  1 1
P(X = 0) =    1 −  = 1 ⋅1 ⋅   =
 0  2   2  2 8
1 3−1 2 3
  1   1 
3 1 1 1 3
P(X = 1) =    1 −  = 3 ⋅ ⋅   = 3 ⋅   =
 1  2   2  2 2 2 8
2 3− 2 2 1 3
 3  1   1 1 1 1 3
P(X = 2) =    1 −  = 3⋅  ⋅  = 3⋅  =
 2  2   2 2 2 2 8

3 3− 3 3
 3  1   1 1 1
P(X = 3) =    1 −  = 1 ⋅   ⋅1 =
 3  2   2 2 8 15
A Distribuição de Poisson
Considere as situações em que se avalia o número de
ocorrências de um tipo de evento por unidade de
tempo, de comprimento, de área, ou de volume. Por
exemplo:

 número de consultas a uma base de dados em um minuto;

 número de falhas em um sistema de telefonia num intervalo


de tempo;

 número de erros de tipografia em um formulário;

 número de defeitos em um m2 de piso cerâmico;

 número de acidentes ocorridos em 2 km de certa rodovia; 16


Suposições sobre a
Distribuição de Poisson
Suposições básicas:

 Independência entre as ocorrências do


evento considerado;

 Os eventos ocorrem de forma aleatória, de tal


forma que não haja tendência de aumentar
ou reduzir as ocorrências do evento, no
intervalo considerado.
17
Obtendo a Função de
Probabilidade de uma Poisson
Para desenvolvermos a distribuição de Poisson,
consideremos a variável aleatória X que
representa o número de consultas a uma base
de dados em um minuto. Ou seja X é a
contagem de ocorrências de consultas no
intervalo de tempo [0, 1], como representado a
seguir:

0 1 t
18
Obtendo a Função de
Probabilidade de uma Poisson
Considere o intervalo [0, 1] particionado em n
subintervalos de amplitude ∆t = 1/n;

t
0 1
Seja n suficientemente grande para que a probabilidade
de ocorrer duas ou mais consultas, em cada
subintervalo de amplitude ∆t, seja desprezível. Assim,
considere que em cada subintervalo só possa ocorrer 0
ou 1 consulta.
19
Obtendo a Função de
Probabilidade de uma Poisson
Sendo p a probabilidade de ocorrer uma consulta em ∆t,
as probabilidades associadas a X podem ser calculadas,
aproximadamente, pela Binomial. Então,

n x
P(X = x) ≅  p (1 − p)n − x , x = 0, 1, 2, ..., n
x

Mas quando n → ∞ temos que p → 0, de tal sorte que o


valor esperado E(X) = np permanece constante e igual a
λ (λ > 0). Assim, é possível mostrar que:
n x e -λ λ x
 p (1 − p) n − x n→ ∞
x = 0, 1, 2, ..., n
x p→ 0 x!
np → λ 20
Expressão da Função de
Probabilidade de uma Poisson

Então, sendo λ a taxa média de consultas por


unidade de tempo, as probabilidades de X
podem ser calculadas pela chamada
distribuição de Poisson, cuja função de
probabilidade é dada por:

e- λ λ x
P(X = x) = , x = 0, 1, 2, ...
x!

21
O Valor Esperado e a Variância de
uma Variável Aleatória de Poisson

No slide anterior mencionamos que λ


representa uma taxa média, ou seja, é a média
ou valor esperado de X. A demonstração desse
fato vem a seguir:

e -λ λ x
∞ ∞
e -λ λ x
E(X) = ∑ xP(X = x) = ∑ x = 0+∑x
x =0 x =0 x! x =1 x!


e -λ λ x ∞
λ x
= ∑x = e -λ ∑
x =1 x(x - 1)! x =1 (x - 1)!
22
O Valor Esperado e a Variância de
uma Variável Aleatória de Poisson

fazendo s = x – 1, teremos:

λ s +1
∞ ∞
λs
E(X) = e ∑-λ
= e λ∑

s = 0 s! s = 0 s!

Lembrando que

λs λ λ2 λ3

s = 0 s!
= 1 + +
1 2
+
6
+ .... converge para e λ
, temos que

E(X) = e -λ λe λ = λ
23
O Valor Esperado e a Variância de
uma Variável Aleatória de Poisson

Para calcular a variância, precisaremos


primeiramente obter E(X2)


e -λ λ x
∞ ∞ -λ x
2 e λ
E(X ) = ∑ x P(X = x) = ∑ x
2 2 2
= 0+∑x
x =0 x =0 x! x =1 x!


e -λ λ x ∞
e -λ λ x
= ∑x 2
= ∑x
x =1 x(x - 1)! x =1 (x - 1)!

24
O Valor Esperado e a Variância de
uma Variável Aleatória de Poisson
fazendo novamente s = x – 1, temos

∞ -λ s +1 ∞ -λ s +1 ∞ -λ s +1
e λ e λ e λ
E(X 2 ) = ∑ (s + 1) = ∑s +∑
s =0 s! s=0 s! s =0 s!


e -λ λ s ∞
e -λ λ s
= λ∑ s + λ∑
s=0 s! s =0 s!


= λE(S) + λ ∑ P(S = s)
s=0
25
O Valor Esperado e a Variância de
uma Variável Aleatória de Poisson

Como S segue uma distribuição de Poisson, então E(S)


= λ e ΣP(S = s) = 1

E(X 2 ) = λλ + λ = λ 2 + λ

Var(X) = E(X 2 ) − [E(X)]2 = λ 2 + λ - λ 2 = λ

Conclusão: se X é uma variável aleatória que segue


uma distribuição de Poisson de parâmetro λ, então

E(X) = Var(X) = λ 26
Generalização da Função de
Probabilidade de uma Poisson
A expressão para a distribuição de probabilidade do
slide 21 era para uma variável X que representava o
número de consultas à uma base de dados em um
intervalo de 1 minuto, ou seja, no intervalo [0, 1]. E se o
intervalo considerado fosse de [0 , t] (t > 0)?

Pode ser mostrado que, sob determinadas condições(*),


se X representa o número de consultas à uma base de
dados no intervalo [0, t], então a distribuição de
probabilidade de X equivale a uma Poisson de
parâmetro λt, ou seja,
e -λ t (λ t) x
P(X = x) = , x = 0, 1, 2, ...
x! 27
Generalização da Função de
Probabilidade de uma Poisson
As condições necessárias para a distribuição de
probabilidade mostrada no slide anterior são as
seguintes:

 O número de ocorrências em intervalos de tempo não


sobrepostos constituem variáveis aleatórias
independentes.
 Duas variáveis aleatórias X e Y, que representam o
número de ocorrências em intervalos de tempo
diferentes, mas de mesmo tamanho, têm a mesma
distribuição de probabilidade.
 No instante inicial de tempo t = 0, o número de
ocorrências também é zero. 28
Exemplo
Exemplo 2: Supondo que as consultas em um
banco de dados ocorrem de forma
independente e aleatória, com uma taxa média
de 3 consultas por minuto, calcule a
probabilidade de que
a) no próximo minuto ocorram menos do que 3
consultas;

b) nos próximos dois minutos ocorram mais do


que 2 consultas;

29
Solução do Exemplo 2a
Seja X: o número de consultas em um intervalo de 1
minuto

λ = E(X) = 3
P(X < 3) = P(X = 0 ou X = 1 ou X = 2) = P(X = 0) + P(X = 1) + P(X = 2)

e-3 30 e-3 31 −3 P(X = 2) = e -3 2


3
= 4,5e −3 ;
P(X = 0) = = e −3 ; P(X = 1) = = 3e ;
0! 1! 2!

P(X < 3) = e-3 + 3e −3 + 4,5e −3 = (1 + 3 + 4,5)e −3


= 8,5e −3 ≅ 8,5 ⋅ 0,0498 ≅ 0,4233
30
Solução do Exemplo 2b
Seja Y: o número de consultas em um intervalo de 2
minutos

E(Y) = λt = 3⋅2 = 6
P(Y > 2) = 1 − P(Y ≤ 2)

= 1 − [P(Y = 0) + P(Y = 1) + P(Y = 2)]

-6 0
e 6 e-6 61
P(Y = 0) = = e−6 P(Y = 1) = = 6e − 6
0! 1!
e-6 6 2
P(Y = 2) = = 18e − 6
2! 31
Solução do Exemplo 2b

P(Y > 2) = 1 − [e −6 + 6e −6 + 18e −6 ]


= 1 − (1 + 6 + 18)e −6
= 1 − ( 25e −6 ) ≅ 1 − ( 25 ⋅ 0,0025) ≅ 1 − 0,0625 ≅ 0,9375

32
Aproximação da Binomial
pela Poisson
Justificamos a distribuição de Poisson a partir da
Binomial, fazendo n → ∞ e p → 0. logo, em
experimentos Binomiais, quando n for muito grande ep
for muito pequeno, podemos usar a distribuição de
Poisson com:
λ = np

Observe que se n for grande (acima de 100, por


exemplo) as combinações da Binomial ficam difíceis de
serem calculadas. Nesse caso, o uso da aproximação
da Poisson torna-se imprescindível.

33
Exemplo
Exemplo 3: Seja uma linha de produção em que a taxa
de itens defeituosos é de 0,5%. Calcule a probabilidade
de ocorrer mais do que 2 defeituosos, em uma amostra
de 500 itens.

Solução:

Pela binomial seria muito complicado, pois teríamos


números elevados a potências muito altas (n = 500)

34
Solução do Exemplo 3
Uma alternativa é usar a aproximação da binomial pela
Poisson:

λ = np = 500⋅0,005 = 2,5

P(X > 2) = 1 − P(X ≤ 2)


= 1 − [P(X = 0) + P(X = 1) + P(X = 2)]

- 2,5 0 e - 2,5 2,51


P(X = 0) =
e 2,5
= e − 2,5 P(X = 1) = = 2,5e − 2,5
0! 1!

35
Solução do Exemplo 3

e -2,5 2,5 2
P(X = 2) = = 3,125e − 2,5
2!

P(X > 2) = 1 − [e −2,5 + 2,5e −2,5 + 3,125e −2,5 ]

= 1 − (1 + 2,5 + 3,125)e − 2,5 = 1 − (6,625e − 2,5 )

≅ 1 − (6,625 ⋅ 0,0821) ≅ 1 − 0,544 ≅ 0,456


36
A Distribuição Geométrica
Considere as situações em que estamos interessados
em avaliar o número de repetições de um experimento
até que ocorra um determinado evento de interesse.
Por exemplo:

 número de lançamentos de uma moeda até ocorrer uma cara;

 número de tentativas de lançamento de um foguete até


ocorrer o primeiro sucesso;

 número de chamadas numa central telefônica até ocorrer a


primeira falha (queda da ligação);

 número de tentativas de conexão à internet até ocorrer a


primeira falha (falta de conexão);
37
A Distribuição Geométrica
Seja X a variável aleatória que representa o número
de tentativas até ocorrer um sucesso (evento de
interesse).

Seja p a probabilidade de sucesso. Como esse


sucesso ocorre apenas uma única vez em k tentativas,
teremos 1 sucesso e (k – 1) fracassos.

Seja q = (1 – p) a probabilidade de fracasso. Como as


tentativas são independentes, a distribuição de
probabilidade de X é dada por:

P(X = k) = qk-1p k = 1, 2, ....


38
A Distribuição Geométrica
A distribuição de probabilidade dada pela equação
anterior é conhecida como Distribuição Geométrica.

Vale salientar dois fatos importantes que caracterizam


tal distribuição:

 As k tentativas são independentes uma das outras.

 A probabilidade de sucesso p permanece constante a


cada tentativa.

39
O Valor Esperado e a Variância de uma
Variável com Distribuição Geométrica
O valor esperado da distribuição geométrica é dado
por:

∞ ∞ ∞ ∞
d k d ∞ k
E(X) = ∑ kP(X = k) = ∑ kq p = p∑ kq
k -1 k -1
= p∑ q = p ∑ q
k =1 k =1 k =1 k =1 dq dq k =1

Note que o somatório acima é dado por

q + q2 + q3 +.... = q(1 + q + q2 + ...) ,

a parte (1 + q + q2 + ...) trata-se da soma de uma P. G.


infinita (com a0 = 1) de razão q e converge para 1
1- q 40
O Valor Esperado e a Variância de uma
Variável com Distribuição Geométrica
Então,
d q (1 - q) + q 1 1 1
E(X) = p =p 2
=p 2
=p 2 =
dq 1 − q (1 − q) (1 − q) p p

Através de um cálculo semelhante, chegaremos à


expressão para a variância:
q
Var(X) = 2
p
Portanto, se X segue uma distribuição de probabilidade
Geométrica com parâmetro p (Notação: X ~ Geo(p)),
então
1 q
E(X) = e Var(X) = 2
p p 41
Exemplo
Exemplo 4: Em uma determinada localidade, a
probabilidade de ocorrência de uma tempestade em
algum dia do mês de janeiro é de 0,1. Admitindo
independência de um dia para o outro, qual é a
probabilidade da primeira tempestade no mês de janeiro
ocorrer apenas no dia 3?

Solução:

Seja X: número de dias ocorridos até acontecer a


primeira tempestade

P(X = 3) = 0.93-10,1 = 0,920,1 = 0,081 42


A Distribuição de Pascal
É uma generalização da distribuição Geométrica.
Nessa distribuição, Y é uma variável aleatória que
representa o número de tentativas até que o
sucesso ocorra r vezes.

Nesse caso, ocorre um sucesso na k-ésima tentativa e


nas k-1 tentativas anteriores ocorrem r-1 sucessos.
Como p = P(sucesso) e q = 1- p = P(fracasso), então a
distribuição de probabilidade de Y é dada por:
 k - 1 r
P(Y = k) =  p (1 − p) k − r , k = r, r + 1, ...
 r -1 
A distribuição de probabilidade que tem a forma
mencionada acima é denominada de distribuição de
43
Pascal.
A Distribuição de Pascal
O termo
 k - 1
 
 r - 1  representa o número total de maneiras de
obtermos r – 1 sucessos em k – 1 tentativas e é
calculado da seguinte maneira:

 k - 1 (k − 1)! (k − 1)!
  = =
 r - 1  (r − 1)!((k − 1) − (r − 1))! (r − 1)!(k − r)!

Note que fazendo r = 1 na equação da distribuição de


Pascal, teremos a distribuição Geométrica.

A distribuição de Pascal também é conhecida como


distribuição Binomial Negativa. 44
A Distribuição de Pascal
Uma variável aleatória que segue uma distribuição de Pascal
pode ser vista como uma soma de r variáveis aleatórias
independentes que seguem uma distribuição Geométrica, ou
seja,

Y = X1 + X2 + ... + Xr

onde
X1 = número de tentativas necessárias até ocorrer o primeiro
sucesso.
X2 = número de tentativas necessárias após o primeiro
sucesso até ocorrer o segundo sucesso.
M
Xr = número de tentativas necessárias após o sucesso de
ordem (r-1) até ocorrer o r-ésimo sucesso. 45
O Valor Esperado e a Variância de
uma Variável Aleatória de Pascal
E(Y) = E(X1 + X 2 + ... + X r )
= E(X1 ) + E(X 2 ) + ... + E(X r )
1 1 1 r
= + + ... + =
p p p p

Var(Y) = Var(X1 + X 2 + ... + X r )


= Var(X1 ) + Var(X2 ) + ... + Var(Xr )
q q q rq
= 2 + 2 + ... + 2 = 2
p p p p
46
Exemplo

Exemplo 5: Suponha que a probabilidade de


queda do sinal de uma determinada tv a cabo
num certo dia do mês de julho é de 10%.
Supondo que haja independência entre os dias,
e que em cada dia haja no máximo 1 queda de
sinal, qual a probabilidade de serem
necessários 6 dias consecutivos desse mês,
para ocorrerem 3 quedas de sinal?

47
Solução do Exemplo 5
Seja Y o número de dias necessários para
ocorrerem 3 quedas de sinal.
 6 - 1
Então, P(Y = 6) =  (0,10)3 (1 − 0,10) 6−3
 3 - 1

 5
=  (0,001)(0,90)
3

 2

5!
= ⋅ 0,001⋅ 0,729
2!3!

= 10 ⋅ 0,000729 = 0,00729 48
Distribuição Hipergeométrica
Suponha que tenhamos um lote com N peças, r das
quais sejam defeituosas e (N – r) não defeituosas.
Suponha que escolhamos, ao acaso, n peças desse lote
(n ≤ N), sem reposição.

Seja X o número de peças defeituosas encontradas


entre as n peças escolhidas.

Então,  r  N - r 
  
 k  n - k 
P(X = k) = , k = 0, ... , min(r, n)
 N
 
n
A distribuição de probabilidade acima é denominada de
distribuição Hipergeométrica. 49
Distribuição Hipergeométrica
Note que
 N
O termo   representa o número total de maneiras de se extrair
n
n peças de um lote com N peças existentes.

r
O termo   representa o número total de maneiras de se extrair
k
k peças defeituosas das r peças defeituosas existentes.

N -r
O termo   representa o número total de maneiras de se extrair
n -k
(n - k) peças não defeituosas das (N - r) peças não defeituosas existentes.
50
O Valor Esperado e a Variância de
uma Variável Aleatória com
Distribuição Hipergeométrica

Pode ser mostrado que se X é uma variável aleatória


que segue uma distribuição hipergeométrica, então

E(X) = np, onde p = r/N

N-n
Var(X) = npq , onde q = 1 - p
N -1

51
Exemplo
Exemplo 6: Qual é a probabilidade de um
indivíduo acertar os 6 números da mega sena
fazendo uma aposta com 10 números?
Solução:

No sorteio da mega sena, 6 números são sorteadas de


um total de 60.

Podemos dividir esses 60 números em 2 grupos: Um


grupo formado pelas 10 dezenas marcadas pelo
indivíduo na aposta e um outro grupo formado pelas 50
dezenas não apostadas.
52
Solução do Exemplo 6
Seja X a variável aleatória que representa o número de
dezenas marcadas pelo indivíduo que são iguais às
sorteadas. Com isso, o indivíduo ganhará na mega
sena somente se X = 6. Então, a probabilidade desejada
é
 
10 50  10! 50!
   ⋅
 6  0  = 6!4! 0!50!
P(X = 6) =
 60  60!
 
6 6!54!
10 ⋅ 9 ⋅ 8 ⋅ 7
⋅1
4 ⋅ 3 ⋅ 2 ⋅1 210
= =
60 ⋅ 59 ⋅ 58 ⋅ 57 ⋅ 56 ⋅ 55 36.045.979.200
6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1 720
210
= ≅ 0,0000042 ou 0,00042%
50.063.860 53
Exemplo
Exemplo 7: Ainda sobre o exemplo anterior,
calcule E(X), ou seja, o número esperado de
dezenas marcadas pelo apostador que são
iguais às sorteadas.
Solução:

Como X tem uma distribuição hipergeométrica, teremos

r 10
E(X) = np = n = 6⋅ = 1
N 60

54
A Distribuição Multinomial
É uma generalização da distribuição Binomial.

Enquanto a Binomial preocupa-se em contar o número


de vezes que ocorreu um evento A em n repetições de
um experimento de Bernoulli, a multinomial preocupa-se
em contar, dentre as n repetições, em quantas vezes
aconteceu cada um dos eventos de interesse A1, A2, ...,
Ak.

No contexto da multinomial os eventos A1, A2, ..., Ak são


disjuntos, ou seja, em cada repetição do experimento
apenas um deles pode ocorrer.
55
A Distribuição Multinomial
Seja Xi a variável aleatória que representa o número de
vezes que o evento Ai ocorre nas n repetições de um
experimento. i = 1, 2, ..., k

Note que os Xi não são variáveis aleatórias


independentes, já que ΣXi = n

Então, podemos afirmar que


k
n!
P(X1 = n1 , X 2 = n 2 , ..., X k = n k ) = p1 ... p k , com ∑ n i = n
n1 nk

n1!n 2 !...nk ! i =1

A distribuição de probabilidade conjunta acima é


denominada de distribuição Multinomial. 56
Exemplo
Exemplo 8: Em 10 jogadas de um dado
honesto, qual é a probabilidade de ocorrerem 2
vezes a face 1, 2 vezes a face 2, 1 vez a face 3,
1 vez a face 4, 2 vezes a face 5 e 2 vezes a face
6?
Solução:

Seja Xi a variável aleatória que representa o número de


vezes que ocorreu a face i, i = 1, 2, ..., 6

57
Solução do Exemplo 8

2 2 1 1 2 2
10! 1 1 1 1 1 1
P(X1 = 2, X 2 = 2, X 3 = 1, X 4 = 1, X 5 = 2, X 6 = 2) =            
2!2!1!1!2!2!  6  6 6 6 6 6

10
10 ⋅ 9 ⋅ 8 ⋅ 7 ⋅ 6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1  1 
= ⋅ 
16 6

226800 226800
= 10
= ≅ 0,00375
6 60466176

58
Referências Bibliográficas
 Meyer, Paul L.; Probabilidade: Aplicações à
Estatística, LTC Editora, 2a edição;

 Bussab, Wilton de O. e Morettin, Pedro A.;


Estatística Básica, Editora Saraiva, 5a edição;

 Ross, Sheldon; Probabilidade – Um Curso


Moderno com Aplicações, Bookman, 8a edição;

59
Próxima Aula...

Principais Distribuições de
Probabilidade Contínuas

60

Você também pode gostar