Você está na página 1de 62

PROBABILIDADE

ESTATÍSTICA
Thays Souza

E-book 3
Neste E-Book:
INTRODUÇÃO����������������������������������������������������������� 3
MEDIDAS DE DISPERSÃO E
DISTRIBUIÇÃO DE PROBABILIDADE���������������� 4
Medidas de dispersão��������������������������������������������������������������4
Distribuições de probabilidade discretas������������������������������17
Distribuição de probabilidade contínua��������������������������������33

NOÇÕES SOBRE O TEOREMA DO LIMITE


CENTRAL������������������������������������������������������������������47
Processos de amostragem����������������������������������������������������49

ESTIMADORES E ESTIMATIVAS PONTUAIS���51


CONSIDERAÇÕES FINAIS�����������������������������������54
SÍNTESE�������������������������������������������������������������������� 55

2
INTRODUÇÃO
Neste e-book, aprenderemos a calcular a esperança,
variância e a covariância. Em seguida, abordaremos
as principais distribuições de probabilidade discreta,
tais quais Poisson, Bernoulli, Binomial, Geométrica
e Uniforme Discreta. Feito isso, passamos ás princi-
pais distribuições de probabilidade contínua, como
Exponencial, Gama, Normal e Uniforme contínua.

Abordaremos ainda os processos de amostragem,


noções relativas ao limite central e, por fim, os esti-
madores e as estimativas pontuais.

Vamos lá?

3
MEDIDAS DE DISPERSÃO
E DISTRIBUIÇÃO DE
PROBABILIDADE
Neste ponto, já estudamos as medidas de localiza-
ção, dispersão e de associação para uma variável.
Ademais, conceituamos as classes e frequências.
Mais adiante, estudamos os conceitos referentes
à probabilidade e às distribuições de probabilidade
para uma variável aleatória discreta e para uma va-
riável contínua. Descobrimos, ainda, que podemos
aplicar o conceito de probabilidade para mais de
uma variável, com isso, estudamos o conceito de
probabilidade conjunta.

Prosseguindo com nossos estudos, neste módulo


aprofundaremos nosso conhecimento sobre os con-
ceitos sobre a distribuição de probabilidades para
variáveis contínuas e para variáveis discretas.

Medidas de dispersão
Aprendemos as medidas de localização para uma
variável x qualquer, que são a média, a moda e a
mediana, conforme proposto por Martins (2015a).
Também estudamos as medidas de dispersão, sen-
do que a medida de dispersão mais importante foi
a variância, com base em Martins (2015b).

Na sequência, estudamos dois tipos de variáveis


aleatórias: as discretas e as contínuas. Depois, abor-

4
damos a forma da distribuição de probabilidade para
a variável aleatória discreta e para a variável aleatória
contínua. Ainda assim, vamos retomar esses dois
tipos de distribuição de probabilidade.

Tanto as variáveis aleatórias discretas quanto as


variáveis aleatórias contínuas podem ser calculadas
suas medidas de localização e medidas de disper-
são. No entanto, neste tópico vamos estudar apenas
as seguintes medidas:

● A medida de localização: a esperança matemática


ou média.
● A medida de dispersão: a variância.
● A medida de associação: a covariância.

Sobre as distribuições de frequências, temos a se-


guinte explicação:

As distribuições de probabilidade são mode-


los teóricos em que as probabilidades dos
valores assumidos pela v.a (variável aleatória)
podem ser interpretadas como frequências
relativas (Fi) em um número sempre crescente
de provas, ou seja, como limites de frequên-
cias relativas. Podemos, pois, definir, para as
distribuições de probabilidade, as mesmas
medidas de tendência central e de dispersão
utilizadas nas distribuições de frequências
(BALESTRASSI; PAIVA, 2007, p. 66).

5
Com base nessa afirmação, vamos definir as medi-
das mais importantes para as distribuições de pro-
babilidade para variáveis aleatórias.

Cálculo da esperança matemática para


distribuições de probabilidade

Para as distribuições de probabilidade, costumamos


chamar a média de esperança matemática. Segundo
Balestrassi e Paiva (2007), a esperança matemática
é também chamada de valor esperado, ou média
populacional. Usamos a expressão E( X ) para nos
referirmos à esperança matemática; já para nos re-
ferirmos à média populacional, usamos o termo µ.

Para a variável aleatória do tipo discreta, a esperança


matemática é obtida assim (BALESTRASSI; PAIVA,
2007, p. 66):
n
E ( X ) = å xi f ( xi ) (1)
i =1

Na equação (1), x i é o valor da variável aleatória dis-


creta, ao passo que f (x i) é a frequência relativa ou a
probabilidade para essa variável. Na Tabela 1, temos
os dados de ocorrências de empresas conforme sua
faixa de quantidade de empregados.

Número de empregados Frequência absoluta - ni


0 ├ 10 5
10 ├ 20 20
20 ├ 30 35
30 ├ 40 40

6
Número de empregados Frequência absoluta - ni
40 ├ 60 50
60 ├ 80 30
80 ├ 100 20
100 ├ 140 20
140 ├ 180 15
180 ├ 260 15

Tabela 1: Empresas e suas faixas de quantidade de empregados.


Fonte: Balestrassi e Paiva (2007, p. 12).

Calculemos, pois, o ponto médio de cada classe e a


frequência f (x i) para a classe. Com isso, obteremos
o produto do ponto médio de cada classe pela sua
frequência. Após calcularmos esses produtos, obte-
remos a soma deles, que se encontram na Tabela 2:

Número de Ponto médio ni f (x i) x i( f x i)


empregados xi
0 ├ 10 5 5 0,02 0,10
10 ├ 20 15 20 0,08 1,2
20 ├ 30 25 35 0,14 3,5
30 ├ 40 35 40 0,16 5,6
40 ├ 60 50 50 0,20 10,0
60 ├ 80 70 30 0,12 8,4
80 ├ 100 90 20 0,08 7,2
100 ├ 140 120 20 0,08 9,6
140 ├ 180 160 15 0,06 9,6
180 ├ 260 220 15 0,06 13,2
Somatória 250 1,00 68,4

Tabela 2: Cálculo do ponto médio de cada classe e da frequência


relativa. Fonte: Elaboração própria.

7
Nessa tabela, a somatória do produto x if(x i) resultou
em 68,4. Ou seja, a esperança matemática dessa
distribuição de probabilidade para uma variável ale-
atória discreta será:

10
E ( X ) = å xi f ( xi ) = 68, 4
i =1

Vamos determinar a esperança matemática para a


variável aleatória contínua. Segundo Balestrassi e
Paiva (2007), a esperança matemática para uma va-
riável contínua é determinada pela seguinte fórmula:

E(X ) = ò xf ( x )dx (2)

A integral da equação (2) parece assustadora, não


é? Mas não é. A fim de esclarecer, passemos a um
exemplo de função de distribuição. Dada a função de
distribuição de probabilidade (fdp), escrita da forma
mostrada a seguir:

2 + 𝑥𝑥, −2 ≤ 𝑥𝑥 ≤ 0
𝑓𝑓 𝑥𝑥 = $
2 − 𝑥𝑥, 0 ≤ 𝑥𝑥 ≤ 2

Primeiramente, vamos construir o gráfico da função


de distribuição de probabilidade (Figura 1):

8
f(x)

2,5

1,5
f(x)

0,5

-3 -2 -1 0 1 2 3

Figura 1: Gráfico da função de densidade de probabilidade. Fonte:


Elaboração própria.

E como vamos obter a esperança matemática para a


fdfp da Figura 1? É simples! Basta aplicar o conceito
de integral da equação (2), com isso, a esperança
matemática será obtida pela seguinte expressão:

0 2
E(X ) = ò x ( 2 + x )dx + ò x ( 2 - x )dx
-2 0

Agora, vamos obter as integrais passo a passo,


acompanhe o raciocínio:

0 2
E(X ) = ò x ( 2 + x )dx + ò x ( 2 - x )dx
-2 0
0 2
E ( X ) = ò 2 x + x 2 dx + ò 2 x - x 2 dx
-2 0

9
0 2
æ x3 ö æ x3 ö
E ( X ) = ç x2 + ÷ + ç x2 - ÷
è 3 ø -2 è 3 ø0
æ 2 03 ( -2 ) ö æ 2 23 ( 0) ö
3 3

E ( X ) = ç 0 + - ( -2 ) - ÷ + ç 2 - - ( 0) -
2 2
÷
ç 3 3 ÷ø çè 3 3 ÷ø
è
8 8
E(X ) = 0+0-4+ +4- = 0
3 3

Nesse caso, a esperança matemática é igual a zero:


E( X )= 0.

Cálculo da variância para distribuições de


probabilidade

Agora vamos definir a variância, que é uma medida


de dispersão primeiro para uma variável aleatória
discreta!

Para a variável aleatória discreta, determina-se a va-


riância pela seguinte fórmula (BALESTRASSI; PAIVA,
2007, p. 70):

Var[ X ]=E( X 2 )–[ E( X )] 2 (3)

Vamos voltar para a nossa Tabela 2:

Número de Ponto ni f (x i) x if (x i)
empregados médio xi
0 ├ 10 5 5 0,02 0,10
10 ├ 20 15 20 0,08 1,2
20 ├ 30 25 35 0,14 3,5
30 ├ 40 35 40 0,16 5,6
40 ├ 60 50 50 0,20 10,0
60 ├ 80 70 30 0,12 8,4

10
Número de Ponto ni f (x i) x if (x i)
empregados médio xi
80 ├ 100 90 20 0,08 7,2
100 ├ 140 120 20 0,08 9,6
140 ├ 180 160 15 0,06 9,6
180 ├ 260 220 15 0,06 13,2
Somatória 250 1,00 68,4

Tabela 2: Cálculo do ponto médio de cada classe e da frequência


relativa. Fonte: Elaboração própria.

Obtivemos E( X )=68 ,4. E como calculamos [E( X )] 2 ?


Observe a equação (4):
n
E ( X 2 ) = å xi2 f ( xi ) (4)
i =1

A esperança matemática da variável aleatória dis-


creta X elevada ao quadrado é igual à somatória da
variável xis elevada ao quadrado vezes a sua frequ-
ência relativa. Vamos calcular o quadrado da variável
aleatória xi e, depois, multiplicar pela sua frequência
para cada classe e, no final, obteremos a somatória
que corresponde à esperança de xis ao quadrado.
Acompanhe os cálculos (Tabela 3):

Número de Ponto ni f (x i) x if (x i) 𝑥𝑥"# 𝑥𝑥"# 𝑓𝑓(𝑥𝑥" )


empregados médio
xi
0 ├ 10 5 5 0,02 0,10 25 0,5
10 ├ 20 15 20 0,08 1,2 225 18
20 ├ 30 25 35 0,14 3,5 625 87,5
30 ├ 40 35 40 0,16 5,6 1225 196

11
Número de Ponto ni f (x i) x if (x i) 𝑥𝑥"# 𝑥𝑥"# 𝑓𝑓(𝑥𝑥" )
empregados médio
xi
40 ├ 60 50 50 0,20 10,0 2500 500
60 ├ 80 70 30 0,12 8,4 4900 588
80 ├ 100 90 20 0,08 7,2 8100 648
100 ├ 140 120 20 0,08 9,6 14400 1152
140 ├ 180 160 15 0,06 9,6 25600 1536
180 ├ 260 220 15 0,06 13,2 48400 2904
Somatória 250 1,00 68,4 7630
)

Tabela 3: Cálculo da esperança 𝐸𝐸 𝑋𝑋# = % 𝑥𝑥'# 𝑓𝑓 𝑥𝑥' . Fonte: Elaboração


'*+
própria.

Com base nos cálculos, obtivemos o seguinte resul-


tado: E( X 2 )=7630.

Sabendo que temos E( X )= 68 ,4 e E( X 2 )=7630, ob-


temos a variância para os dados da Tabela 3 desta
forma:

Var [ X ] = E ( X 2 ) - éë E ( X ) ùû
2

Var [ X ] = 7630 - 68, 4


Var [ X ] = 7561, 6

Devemos nos lembrar ainda de que o desvio-padrão


corresponde à raiz quadrada da variância. Assim,
a equação para o desvio-padrão é (BALESTRASSI;
PAIVA, 2007, p. 71):

DP ( X ) = Var ( X ) (5)

12
Para a distribuição de probabilidade discreta da
Tabela 3, o desvio-padrão será:

DP ( X ) = Var ( X )
DP ( X ) = 7561, 6
DP ( X ) = 86,96

E para a variável aleatória contínua? A equação (3)


também é válida:

Var[ X ]=E( X 2 )–[ E( X )] 2 (3)

Mas para a variável aleatória contínua, segundo


Balestrassi e Paiva (2007, p. 72), o termo E( X 2 ) é
calculado assim:

E(X2) = ò x f ( x )dx
2
(6)

Vamos voltar ao caso da função de distribuição de


probabilidade para a variável contínua:

2 + 𝑥𝑥, −2 ≤ 𝑥𝑥 ≤ 0
𝑓𝑓 𝑥𝑥 = $
2 − 𝑥𝑥, 0 ≤ 𝑥𝑥 ≤ 2

A esperança matemática obtida foi E( X )= 0. Agora,


calculamos E( X 2) por meio dessa integral:

0 2
E(X 2
) = ò x ( 2 + x )dx + ò x ( 2 - x )dx
2 2

-2 0

13
Acompanhe o cálculo dessa integral passo a passo:

0 2
E(X2) = ò x ( 2 + x )dx + ò x ( 2 - x )dx
2 2

-2 0
0 2
E ( X 2 ) = ò 2 x 2 + x 3dx + ò 2 x 2 - x 3dx
-2 0
0 2
æ2 x4 ö æ2 x4 ö
E ( X 2 ) = ç x3 + ÷ + ç x3 - ÷
è3 4 ø -2 è 3 4 ø0

( -2 ) + 2 2 3 - 24 - 2 0 3 + 04
4
2 3 04 2
E(X2) = ( 0 ) + - ( -2 ) - ( ) ( )
3

3 4 3 4 3 4 3 4
16 16 16 16
E(X2) = 0+0+ - + - +0+0
3 4 3 4
64 - 48 + 64 - 48 32
E(X2) = =
12 12
8
E(X ) =
2

3
8
Como obtivemos 𝐸𝐸 𝑋𝑋# = e E( X )= 0. A variância
3

será obtida para a variável contínua assim:

Var [ X ] = E ( X 2 ) - éë E ( X ) ùû
2

8
Var [ X ] = - [ 0]
2

3
8
Var [ X ] =
3

O desvio-padrão para a variável contínua pode ser


obtido assim também:

DP ( X ) = Var ( X )
8
DP ( X ) =
3

14
2 2
DP ( X ) =
3
2 2æ 3ö
DP ( X ) = ç ÷
3 çè 3 ÷ø
2 6
DP ( X ) =
3

Cálculo da covariância para distribuições


de probabilidade

Segundo Liberal (2013a), se tivermos X e Y como


duas variáveis aleatórias discretas, a covariância
para as duas variáveis é determinada assim:
Cov ( X , Y ) = å x å ( x - µ ) ( x - µ ) p ( x, y )
y x y (7)

Os termos da equação (7) podem ser explicados da


seguinte maneira:

µ x = média ou esperança matemática da variável


discreta X

µ y = média ou esperança matemática da variável


discreta Y

p(x , y) = probabilidade conjunta das variáveis alea-


tórias discretas x e y

Com relação à variável aleatória contínua, Liberal


(2013a) também explica que a covariância é deter-
minada por meio da seguinte equação:
+¥ +¥
Cov ( X , Y ) = ò ò å ( x - µ ) ( x - µ ) f ( x, y )dxdy
-¥ -¥
y x y (8)

15
Para a equação (8), temos esta explicação para os
termos:

µ x = média ou esperança matemática da variável


discreta X

µ y = média ou esperança matemática da variável


discreta Y

f (x , y) = função de probabilidade conjunta das vari-


áveis aleatórias discretas x e y

É muito difícil trabalharmos com a probabilidade con-


junta, conforme estudamos apenas alguns conceitos
de probabilidade conjunta. Para não termos que fazer
os cálculos de probabilidade conjunta, que podem
nos levar a erros (LIBERAL, 2013a), calcula-se a cova-
riância para duas variáveis discretas, reescrevendo-se
as equações (7) e (8) da seguinte forma:
Cov ( X , Y ) = E ( XY ) - E ( X )(Y ) (9)

Para o caso da variável aleatória discreta, levamos


em conta a frequência das variáveis xi e yi no cálculo
da equação (9), ao determinarmos a covariância, tal
qual fizemos quando tínhamos uma única variável xi.

No caso da variável aleatória contínua, vamos calcu-


lar a integral nos intervalos de menos infinito a mais
infinito para variável xi e para a variável yi. Quando
tivermos que obter a esperança E( X Y ), deveremos
calcular a integral dupla de menos infinito a mais
infinito para o produto das funções que definem xi e
yi, pois se trata de uma variável aleatória contínua.

16
Não vamos fazer o cálculo da covariância aqui, mas
estamos explicando de que maneira deve ser feito,
caso tenha que resolver um problema de covariân-
cia para duas variáveis aleatórias discretas ou duas
variáveis aleatórias contínuas.

Distribuições de probabilidade
discretas
Neste item, estudaremos as distribuições de probabi-
lidade para variáveis aleatórias discretas e suas apli-
cações. Para isso, abordaremos as distribuições de
probabilidade discretas: Poisson, Bernoulli, Binomial,
Geométrica e Uniforme Discreta.

Distribuição de Poisson

Segundo Zabetti (2019a), a distribuição de Poisson


é uma distribuição discreta associada a “eventos
raros”, que podem ser do tipo:

● Acidentes automotivos.
● Erros de digitação.
● Chegada de um cliente em um banco etc.

Segundo Shimakura (2005a) e Zabetti (2019a), a


Distribuição Poisson tem apenas um parâmetro: λ,
que é interpretado como uma taxa média de ocor-
rência do evento, e a probabilidade de ocorrerem
exatamente x eventos é dada por:

l x e- l
P ( X = x) = (10)
x!

17
Para a distribuição de probabilidade de Poisson, a
esperança é igual a:

E[ X ]= λ=np (11)

A probabilidade p é igual a:

l
p= (12)
n

A variância para a distribuição de Poisson é calcu-


lada assim:

Var[ X ]= λ (13)

Finalmente, o desvio-padrão para a distribuição de


probabilidade de Poisson é determinado pela equa-
ção (14):

DP [ X ] = l (14)

Vamos a um exemplo de aplicação da distribuição


de Poisson, elaborado por Zabetti (2019a), cujo enun-
ciado é: Um vendedor de seguro de vida vende em
média três seguros de vida por semana. Utilize a
distribuição de Poisson para calcular qual é a proba-
bilidade de, em uma semana, esse vendedor vender
alguns seguros?

Vender alguns seguros significa vender um núme-


ro de seguros maior que zero. Isso significa vender
mais do que um seguro por semana. Vamos, então,
escrever em forma de probabilidade:

P( X>0)=1– P( X= 0)

18
E como obter a probabilidade P( X= 0) ? Basta aplicar
a fórmula da equação (10) assim:

l x e- l
P ( X = x) =
x!

l 0e- l
P ( X = 0) =
0!

E qual é o valor de λ? Segundo o enunciado λ=3, pois


o vendedor de seguros vende em média 3 seguros
de vida por semana. Então, basta substituirmos λ=3
na equação de P( X= 0), ou seja,

l 0e- l
P ( X = 0) =
0!

30 e -3
P ( X = 0) =
0!
1( e )
-3

P ( X = 0) =
1
P ( X = 0 ) = 0, 05

Agora que calculamos P( X= 0)= 0,05, vamos substi-


tuir esse valor na equação P( X>0)=1–P( X=0), assim,
temos

P ( X > 0) = 1 - P ( X = 0)
P ( X > 0 ) = 1 - 0, 05
P ( X > 0 ) = 0,95

Portanto, a probabilidade de o vendedor de seguros


vender algum seguro em uma semana será igual a

19
P( X>0)= 0,95. Assim, pode-se calcular a probabi-
lidade de o vendedor vender o número de seguros
desejado ao aplicar a fórmula da equação (10).

Distribuição de Bernoulli

Liberal (2014) afirma que usamos a Distribuição de


Bernoulli para estudar experimentos nos quais são
possíveis somente dois resultados, por exemplo:

● Passar ou não na disciplina de Probabilidade e


Estatística.
● Dar positivo ou negativo o resultado de um exame
médico para detecção de uma doença.
● Ocorrer ou não ocorrer a face 6 no lançamento de
um dado.
● Ocorrer ou não ocorrer, no lançamento de uma
moeda, cara ou coroa.

Liberal (2014) explica que essas situações têm


alternativas dicotômicas, ou seja, só temos duas
possibilidades de respostas, que podem ser re-
presentadas genericamente por resposta do tipo
sucesso-fracasso.

Associaremos, dessa maneira, p a probabilidade de


sucesso, ao evento que nos interessa, e 1-p será a
probabilidade de fracasso.

Schommer (2019) propõe que escrevamos da seguin-


te maneira a função de distribuição de probabilidade
de Bernoulli:

20
𝑝𝑝, 𝑠𝑠𝑠𝑠 𝑘𝑘 = 1
𝑓𝑓 𝑘𝑘; 𝑝𝑝 = &
1 − 𝑝𝑝, 𝑠𝑠𝑠𝑠 𝑘𝑘 = 0

Ou ainda pode ser expresso assim: f( k;p)=p k(1–p) 1-


–k para k ∈{0,1}.

Segundo Schommer (2019), o valor esperado (ou es-


perança matemática) para a distribuição de Bernoulli
é obtido por meio da equação (15):

E[ X ]=p (15)

Assim, a variância e o desvio-padrão para a distri-


buição Bernoulli são descritos pelas equações (16)
e (17):

Var[ X ]p(1–p) (16)

DP [ X ] = p (1 - p ) (17)

Vamos a um exemplo em que podemos aplicar o


conceito de distribuição de Bernoulli e que foi de-
senvolvido por Bertolo (2019), cujo enunciado é: uma
urna contém 20 bolas brancas e 20 bolas vermelhas.
Uma bola é retirada da urna e a variável aleatória X
denota o número de bolas vermelhas obtidas. Calcule
a média E[ X ], a variância Var[ X ] e o desvio-padrão
DP[ X ].

Vamos chamar a ocorrência de bolas vermelhas


de evento com probabilidade de sucesso. Temos
50 bolas no total, das quais 20 são vermelhas. A
probabilidade de obtermos o evento de sucesso é
calculada assim:

21
20
p=
50
p = 0, 4

A nossa probabilidade de fracasso, igual 1–p, é ob-


tida assim:

1–p

1–p=1– 0,4

1–p= 0, 6

A média (ou esperança matemática) para a distribui-


ção de Bernoulli é igual a E[ X ]=p, conforme determi-
nado na equação (15). Nesse caso temos:

E[ X ]=p

E[ X ]= 0,4

De acordo com a equação (16), a variância para equa-


ção de Bernoulli será igual a:

Var[ X ]=p(1–p)

Nesse caso temos:

Var [ X ] = p (1 - p )
Var [ X ] = 0, 4 (1 - 0, 4 )
Var [ X ] = 0, 4 ( 0, 6 )
Var [ X ] = 0, 24

O desvio-padrão corresponde à raiz quadrada da va-


riância, com isso, para a distribuição de Bernoulli do
nosso exemplo, teremos:

22
DP [ X ] = p (1 - p )
DP [ X ] = 0, 4 (1 - 0, 4 )
DP [ X ] = 0, 4 ( 0, 6 )
DP [ X ] = 0, 24
DP [ X ] = 0, 489

Distribuição binomial

Bonafini (2015) e Bertolo (2019) descrevem situa-


ções nas quais podemos obter dois tipos de res-
postas: “sim” ou “não”, “sucesso” ou “fracasso” etc.
Devido ao fato de só podermos obter dois tipos de
respostas, são chamados de binomiais. Por isso,
usamos a seguinte notação para tais experimentos:

Símbolo Descrição
n O número de vezes em que uma tenta-
tiva é repetida
p = P(S ) A probabilidade de sucesso em uma
tentativa única
p =P( F ) A probabilidade de fracasso em uma
tentativa única
k Variável que apresenta o total de su-
cessos encontrado ou buscado.
Varia de 0 a n.

Tabela 4: Nomenclatura da Distribuição Binomial. Fonte: Bonafini


(2015, p. 61).

Para Bonafini (2015) e Bertolo (2019), determinamos


a função de probabilidade por meio da equação:

ænö
f ( x ) = P ( X = x ) = ç ÷ p k q n-k (18)
èk ø

23
𝑛𝑛
O termo 𝑘𝑘 é igual ao coeficiente binomial de n
sobre k, conforme explicam os autores supracitados.
Assim, esse coeficiente binomial é escrito:

ænö n!
ç ÷= (19)
è k ø ( n - k ) !k !

Baseados na definição da equação (19), a função


de distribuição de probabilidade binomial é escrita
desta forma:

n!
f ( x) = P ( X = k ) = p k q n-k (20)
( n - k ) !k !

Segundo Bonafini (2015, p. 65), “para a distribuição


binomial, a esperança matemática, a variância e o
desvio-padrão são obtidos conforme mostram as
equações (21), (22) e (23):

E [ X ] = µ = np (21)
Var [ X ] = s 2 = npq (22)

DP [ X ] = s 2 = s = npq (23)

Passemos a um exemplo de aplicação para a dis-


tribuição binomial. Note que o enunciado dado por
Bertolo (2019): Dois times de futebol (A e B) jogam
entre si seis vezes. Encontre a probabilidade de o
time A ganhar quatro jogos.

Primeiro, devemos saber que em um jogo a possibi-


lidade de ganhar é igual a 1 , pois 2 correspondem
3 3
à probabilidade de o time perder ou empatar, lembra?

24
1 2
Então, nesse caso, temos p = e q = . Temos n= 6
3 3

(total de jogos) e k=4, dado que buscamos o sucesso


em 4 jogos.

Retomemos a equação (20):

n!
f ( x) = P ( X = k ) = p k q n-k (20)
( n - k ) ! k !

Adaptando a equação (20) para o nosso problema,


teremos o seguinte:

4 6-4
6! æ1ö æ 2ö
f ( x ) = P ( X = 4) =
( 6 - 4 ) çè 3 ÷ø çè 3 ÷ø
!4!

Vamos resolver o passo a passo:

4 6-4
6! æ1ö æ 2ö
f ( x ) = P ( X = 4) =
( 6 - 4 ) çè 3 ÷ø çè 3 ÷ø
!4!
4 2
6! æ 1 ö æ 2 ö
f ( x ) = P ( X = 4) = ç ÷ ç ÷
2!4! è 3 ø è 3 ø
6.5.4! æ 1 öæ 4 ö
f ( x ) = P ( X = 4) = ç ÷ç ÷
2!4! è 81 øè 9 ø
6.5 æ 1 öæ 4 ö
f ( x ) = P ( X = 4) = ç ÷ç ÷
2.1 è 81 øè 9 ø
6.5.4
f ( x ) = P ( X = 4) =
2.81.9
120
f ( x ) = P ( X = 4) =
1458
20
f ( x ) = P ( X = 4) = = 0, 0823
243

25
Portanto, a probabilidade de o time A ganhar quatro
jogos é:

20
f ( x ) = P ( X = 4) = = 0, 0823
243

Convém observar que a Distribuição de Bernoulli é


um caso especial da Distribuição Binomial, por isso,
a probabilidade da Distribuição de Bernoulli é obtida
de forma mais fácil e simplificada.

SAIBA MAIS
Para gerar a distribuição binomial no MS Excel,
existe o comando DIST.BINOM. Experimente usar
o comando no Excel, mas antes consulte quais
são os parâmetros que se deve informar na linha
de comando do Excel para que o cálculo funcione
corretamente.
Saiba mais ao consultar o suporte da função bino-
mial, cujo endereço está disponível clicando aqui.

Distribuição geométrica

Zabetti (2019b) informa sobre a existência de uma


classe de problemas chamados de problemas de
tempo de espera, cuja descrição é:

Imagine um exemplo em que nós podemos


lançar uma moeda, repetidamente, até que
seja observado uma “cara”, ou ainda, pode-
mos lançar uma bola de basquete na cesta

26
repetidamente até acertarmos. A partir desse
experimento, temos interesse em calcular al-
gumas probabilidades. Dessa forma, suponha
que iremos conduzir repetidos experimentos
de Bernoulli, observando as falhas e sucessos.

A distribuição geométrica surge da necessidade de


se medir a probabilidade para eventos de tempos de
espera em que ocorram experimentos repetidos de
Bernoulli. Para esse tipo de evento, em que temos de
medir o tempo de espera, a função de probabilidade
é descrita desta forma:

pX ( x ) = p (1 - p ) , em que x = 0,1, 2!
x
(24)

Para Zabetti (2019), calculamos a esperança matemá-


tica, a variância e os desvios-padrão para a distribui-
ção geométrica, como as equações (25), (26) e (27):

1
E[X ] = (25)
p
1- p
Var [ X ] = 2 (26)
p
1- p
DP [ X ] = (27)
p2

Vamos resolver mais um exemplo de aplicação da


distribuição geométrica que é dado por Zabetti (2019)
e cujo enunciado é: A probabilidade de um alinhamen-
to ótico bem-sucedido na montagem de produto de
armazenamento de dados é 0,80. Assume-se que
as tentativas são independentes. Qual é a probabili-
dade de que o primeiro alinhamento bem-sucedido

27
requeira exatamente quatro tentativas? Determine a
esperança matemática, variância e o desvio-padrão
para o alinhamento.

A probabilidade de alinhamento é igual a p = 0 , 8 0.


Nosso número de tentativas é igual a 4. Então, te-
mos x= 4. Aplicando a equação (24), obteremos este
resultado:

p X ( x = 4 ) = 0,8 (1 - 0,8 )
4

p X ( x = 4 ) = 0,8 ( 0, 2 )
4

p X ( x = 4 ) = 0,8 ( 0, 0016 )
p X ( x = 4 ) = 0, 00128

A probabilidade de o alinhamento requerer quatro


tentativas é:

pX ( x = 4) = 0,00128

Vamos aos cálculos das medidas de localização e


dispersão, para isso, usaremos as equações (25),
(26) e (27):

1
E[X ] =
p
1
E[X ] = = 1, 25
0,8
1- p
Var [ X ] = 2
p
1 - 0,8
Var [ X ] =
0,82
0, 2
Var [ X ] =
0, 64
Var [ X ] = 0,3125

28
DP [ X ] = Var [ X ]
DP [ X ] = 0,3125
DP [ X ] = 0,559

Portanto, temos que a probabilidade do alinhamento


ótico para quatro tentativas é p x=(x= 4)= 0, 0 0128.
A esperança matemática é E[ X ]=1, 25, a variância é
Var[ X ]= 0, 3125 e o desvio-padrão é DP[ X ]= 0, 559.

Distribuição uniforme discreta

Segundo Rodrigues (2011), a Distribuição uniforme


discreta é uma distribuição simples, na qual se as-
sume um número finito de valores. Cada valor tem
igual probabilidade de ocorrência. Assim, de acordo
com a notação da autora, temos:

Se X segue uma distribuição uniforme discreta,

I) os possíveis valores de X são x1, . . . , xn …


II) todos os valores da variável discreta X têm pro-
babilidade igual a 1
n

Escrevemos a função probabilidade da variável dis-


creta xi assim: f ( xi ) = 1 . Dessa forma,
n

O primeiro dígito de um número de uma peça


é igualmente provável de ser cada um dos
números de 0 a 9. Uma peça é selecionada
aleatoriamente. Seja X o primeiro dígito do
número da peça. X tem uma distribuição uni-
forme discreta. Seus valores possíveis são R
= {0, 1, 2, . . . , 9}. Sua função de probabilida-

29
de é dada por f(xi) = 0, 1 para cada xi em R
(RODRIGUES, 2011).

Dito de outra maneira, como temos 10 dígitos de 0


a 9, a probabilidade de cada dígito ocorrer foi deter-
minada assim:

1
f ( xi ) =
n
1
f ( xi ) = = 0,1
10

Usando uma regra geral para o caso da distribuição


uniforme discreta X, na qual ela possa assumir os
seguintes valores consecutivos: a , a+1 , a+2 , . . . . , b
para a ≤b. Com isso, teremos esta fórmula para a
probabilidade da variável X:

1
f ( xi ) = (28)
b - a +1

Para x i∈{a, a+1 , a+2 , . . . . , b}

Em conformidade com a autora, determinamos a


esperança matemática, a variância e o desvio-padrão,
tais quais mostram as equações (29), (30) e (31):

b+a
E[X ] = (29)
2
( b - a + 1) - 1
2

Var [ X ] = (30)
12
( b - a + 1)
2
-1
DP [ X ] = (31)
12

30
Passemos, então, a um exemplo de aplicação. Um
sistema de comunicação tem 58 linhas externas.
Seja X o número de linhas em uso. Considere que X é
um variável uniforme discreta e que assume valores
de 0 a 58. Determine a probabilidade, a esperança
matemática, a variância e o desvio-padrão para o
caso em questão.

Segundo a equação (28), determinaremos a função


da probabilidade assim:

1
f ( xi ) =
b - a +1

Para o nosso caso, temos a= 0 e b=58. Então, a fun-


ção de probabilidade será:

1
f ( xi ) =
58 - 0 + 1
1
f ( xi ) =
59

E equação (29) nos dá a esperança matemática


assim:

b+a
E[X ] =
2
58 + 0
E[X ] =
2
E [ X ] = 29

Agora obteremos a variância da equação (30) assim:

31
( b - a + 1)
2
-1
Var [ X ] =
12
( 58 - 0 + 1)
2
-1
Var [ X ] =
12
592 - 1
Var [ X ] =
12
3481 - 1 3480
Var [ X ] = =
12 12
Var [ X ] = 290

O desvio-padrão será igual então:

( b - a + 1)
2
-1
DP [ X ] =
12
( 58 - 0 + 1)
2
-1
DP [ X ] =
12
2
59 - 1
DP [ X ] =
12
3481 - 1
DP [ X ] =
12
3480
DP [ X ] =
12
DP [ X ] = 290
DP [ X ] = 17, 02

Podcast 1

32
Distribuição de probabilidade
contínua
Anteriormente, estudamos os casos particulares
de distribuição de probabilidade para as variáveis
aleatórias discretas. Neste tópico, estudaremos as
distribuições de probabilidade para o caso de termos
as variáveis aleatórias contínuas. Portanto, aborda-
remos as distribuições de probabilidades contínuas
exponencial, gama, uniforme contínua e normal.

Distribuição exponencial

Liberal (2013b) explica que a distribuição exponencial


descreve o tempo que se leva para completar uma
tarefa ou a duração de um equipamento. A distribui-
ção exponencial pode ser usada para os seguintes
exemplos:

● Tempo para realizar uma prova.


● Tempo de chegadas de pacotes em um roteador.
● Tempo de vida de aparelhos.
● Tempo de espera em restaurantes, caixas de banco,
postos de saúde.

A função de probabilidade da função de distribuição


exponencial é descrita assim:

𝑓𝑓 𝑥𝑥 = 𝜆𝜆𝑒𝑒 ()* , 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑥𝑥 ≥ 0


!
𝑓𝑓 𝑡𝑡 = 0, 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑥𝑥 < 0

33
Segundo Zabetti (2019c), podemos simplificar essa
notação e escrever a função densidade de probabili-
dade da distribuição exponencial como:

f x(x)= λ e –λ x , 0≤ x ≤∞ (32)

Ainda de acordo com Zabetti (2019c), calculamos


a esperança matemática, a variância e os desvios-
-padrão para a distribuição exponencial por meio das
equações (33), (34) e (35) a seguir:

1
E[X ] = (33)
l
1
Var [ X ] = (34)
l2
1
DP [ X ] = (35)
l2

Para essa distribuição, temos a seguinte função de


distribuição acumulativa:

F x(x)=P( X ≤ x)=1– e –λ x , com x ≥0 , λ >0 (36)

Vamos a um exemplo de aplicação da distribuição


exponencial. Seja uma distribuição exponencial X, em
que X é o tempo entre as avarias (quebras) que ocor-
rem em uma máquina de lavar. Sabendo que temos
λ=2,determine a função probabilidade, a função de
distribuição acumulativa, calcule a esperança matemá-
tica, a variância e o desvio-padrão para a distribuição.

Como temos λ=2, que é o número de quebras ocorri-


das para a máquina de lavar, vamos usar as equações
(33), (34), (35) e (36), para esse caso e teremos:

34
f X ( x ) = le-l x ,0 £ x < ¥

f X ( x ) = 2e-2 x ,0 £ x < ¥

1
E[X ] =
l
1
E[X ] =
l
1
E[X ] = = 0,5
2

1
Var [ X ] =
l2
1
Var [ X ] = = 0, 25
22
1
DP [ X ] =
l2
1
DP [ X ] =
22
1
DP [ X ] = = 0,5
2

FX ( x ) = P ( X £ x ) = 1 - e- l x
FX ( x ) = P ( X £ x ) = 1 - e-2 x

Para essa distribuição exponencial, teremos:

f X ( x ) = 2e-2 x ,0 £ x < ¥

FX ( x ) = P ( X £ x ) = 1 - e-2 x

E [ X ] = 0,5

Var [ X ] = 0, 25

DP [ X ] = 0,5

35
Distribuição gama
Segundo Liberal (2013c), a variável aleatória contínua
X tem distribuição gama quando sua função densi-
dade de probabilidade é dada por:

ì b a a -1 b x
ï f ( x) = G a x e , x > 0
í ( ) (37)
ï f x = 0, x ³ 0
î ( )

Dessa maneira, Liberal (2013c) informa que temos as


seguintes definições para os parâmetros α e β: onde
α é o parâmetro de forma (α > 0) e β é o parâmetro
de escala (β > 0). A função gama é igual a:

¥
G (a ) = ò xa -1e - x dx (a > 0 )
0

Não resolveremos essa integral aqui, devido ao seu


grau de dificuldade, mas o resultado da função gama
que é a resolução dessa integral, segundo Liberal
(2013c), será: Γ(α)=(α–1)Γ(α–1)!

A autora afirma ainda que, se temos α como um


número natural, então temos a seguinte definição:
Γ(4)=(4–1)!=3!

E há um caso particular para a função gama, onde:


1
Γ = 𝜋𝜋 , conforme elucidado por Liberal (2013c).
2
Temos os seguintes valores para a esperança ma-
temática, a variância e o desvio-padrão (LIBERAL,
2013c):

36
a
E(X ) = (38)
b
a
Var ( X ) = 2 (40)
b
a
DP ( X ) = (41)
b2

Para Liberal (2013c), é muito importante explicar a


existência da relação estreita entre a distribuição
exponencial e a distribuição gama. Se α = 1, a dis-
tribuição gama se reduz à distribuição exponencial.

Não vamos resolver exercícios de distribuição gama


aqui. Iremos apresentar esse tipo de distribuição de
probabilidade apenas para a variável contínua, que
é muito importante na literatura de probabilidade e
estatística.

Distribuição uniforme contínua

Segundo Liberal (2013d), se tivermos X como uma


variável aleatória que tome todos os valores no in-
tervalo [a,b], no qual os extremos a e b sejam finitos.
A função de densidade de probabilidade é dada por:

1
, 𝑎𝑎 ≤ 𝑥𝑥 ≤ 𝑏𝑏,
𝑓𝑓 𝑥𝑥 = $𝑏𝑏 − 𝑎𝑎
0, 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞 𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣

Diremos que X é uniformemente distribuída sobre


o intervalo [a, b], com isso, temos a seguinte repre-
sentação gráfica para a função uniforme contínua
(Figura 2):

37
f(x)

x
a b

Figura 2: Representação de uma distribuição uniforme contínua.


Fonte: Adaptado de Liberal (2013d).

Liberal (2013d) diz ainda que a distribuição uniforme


contínua apresenta as seguintes características:

1. Uma v.a. uniformemente distribuída tem uma


função densidade de probabilidade que é constante
sobre

o intervalo de definição. Logo, devemos ter:
ò f ( x )dx = 1.

2. Uma v.a uniformemente distribuída representa o


análogo contínuo dos resultados igualmente prováveis,
no seguinte sentido: para qualquer intervalo [c, d], onde
a ≤ c < d ≤ b, P(c ≤ X ≤ d) é a mesma para todos os su-
bintervalos que tenham o mesmo comprimento, isto é,

d
d -c
P ( c £ X £ d ) = ò f ( x )dx =
c
b-a

38
Podemos entender que se trata de uma convenção
para quando estamos trabalhando com uma variável
aleatória contínua,

matematicamente comprovada
pelo valor ò f ( x )dx = 1 da integral mostrada no item 1.

Para a variável contínua, sempre assumimos que os


valores das profundidades tinham a mesma proba-
bilidade de ocorrer. Agora, podemos entender que
estávamos estudando uma distribuição uniforme
contínua, na qual os valores para a profundidade
eram equiprováveis. Esta é uma condição imposta
no item 2.

Para finalizarmos o estudo de distribuição uniforme


contínua, precisamos apenas saber que a esperança
matemática, a variância e o desvio-padrão são ob-
tidos conforme descritos nas equações (41), (42) e
(43) (LIBERAL, 2013d):

b+a
E(X ) = (41)
2

(b - a )
2

Var ( X ) = (42)
12

(b - a )
2

DP ( X ) = (43)
12

Vamos retomar o exemplo de aplicação, um caso já


estudado (Figura 3):

39
Densidade de
Probabilidade

1/80

x
20 100

Figura 3: Histograma para o solo dividido em n intervalos. Fonte:


Adaptado de Magalhães e Lima (2004, p. 166).

Vamos calcular as medidas de localização e dis-


persão mostradas nas equações (41) a (43), para
o caso em que tínhamos uma sonda que devia des-
cobrir em qual valor da profundidade maior que 20
metros e menor que 80 metros estava o nosso len-
çol freático, lembra? Para tais casos, temos: a=20
e b = 8 0. Faremos os cálculos usando as equações
(41), (42) e (43):

b+a
E(X ) =
2
100 + 20
E(X ) =
2
120
E(X ) =
2
E ( X ) = 60m

40
(b - a )
2

Var ( X ) =
12
(100 - 20 )
2

Var ( X ) =
12
( 80 )
2

Var ( X ) =
12
6400
Var ( X ) =
12
Var ( X ) = 533,33m 2

(b - a )
2

DP ( X ) =
12
(100 - 20 )
2

DP ( X ) =
12
2
80
DP ( X ) =
12
6400
DP ( X ) =
12
DP ( X ) = 23, 09m

Portanto, para a distribuição uniforme contínua


do caso do uso da sonda, teremos os seguintes
valores para esperança matemática, variância
e desvio-padrão, respectivamente: E ( X ) = 6 0 m ,
Var( X )=533, 33m 2 e DP( X )=23, 0 9m.

Distribuição normal

Segundo Zabetti (2019d), a função de destruição


normal para variável aleatória contínua é definida
para uma variável contínua cuja média é chamada
de µ, onde x se define no intervalo – ∞< x<+∞ e cujo
desvio-padrão é representado como σ>0.

41
Assim, a função densidade de probabilidade para a
variável aleatória contínua normal é:
2
1 æ x-µ ö
1 - ç ÷
fX ( x) = e 2è s ø
, -¥ < x < +¥ (44)
2ps 2

Podemos dizer que X possui uma distribuição nor-


mal e, dessa maneira, podemos escrever X~N(μ,σ2)
X~N(μ,σ2).

Segundo Zabetti (2019d), calculamos a esperança


matemática, a variância e o desvio-padrão para a
distribuição normal conforme as equações (45), (46)
e (47):

E( X )=µ (45)

Var( X )= σ 2 (46)

DP ( X ) = s 2 = s (47)

Segundo Zabetti (2019d), para a distribuição de pro-


babilidade normal, calcula-se a probabilidade por
meio da equação (48):

2
b 1 æ x-µ ö
1 - ç ÷
P (a < X < b) = ò e 2è s ø
dx (48)
a 2ps 2

Para a equação de probabilidade supracitada, obtere-


mos ilustrado o gráfico de probabilidades (Figura 4):

42
f(x)

μ - 3σ μ - 2σ μ-σ μ μ + σ μ + 2σ μ + 2σ x
68%
95%
99,7%

Figura 4: Gráfico da distribuição de probabilidade para a distribuição


normal. Fonte: Adaptado de Zabetti (2019d).

O que significa o gráfico da Figura 4? Vamos interpre-


tá-lo, então! Segundo a função de probabilidade e o
gráfico (Figura 4), teremos 68% de probabilidade de
encontrarmos um valor que seja maior que a média
µ da distribuição e esteja contido no seguinte inter-
valo: µ– σ< x<µ+σ.

A partir da leitura do gráfico (Figura 4), temos a


probabilidade igual a 95% de acharmos, na distri-
buição normal, um valor que esteja no intervalo:
µ–2 σ< x<µ+2 σ.Ou seja, a probabilidade de termos
um valor maior que a média menos duas vezes o
desvio-padrão e que seja menor que a média mais
duas vezes o desvio-padrão é igual a 95%.

Finalmente, podemos dizer que temos 99,7% de


probabilidade de obtermos na distribuição nor-
mal um valor que esteja contido nesse intervalo:
µ–3σ< x<µ+3σ. Em outras palavras, temos 99,7% de
probabilidade de obtermos um valor que seja maior

43
que a média µ menos três vezes o desvio-padrão e
que esse valor seja menor que a média mais três
vezes o desvio-padrão.

Para padronizarmos uma variável aleatória normal


cuja média seja E( X)=µ e a variância seja Var( X)=σ 2,
basta fazermos a seguinte transformação: 𝑍𝑍 = 𝑥𝑥 − µ
𝜎𝜎

e obteremos uma variável aleatória normal, com


E[Z]=0, E[Z]=0 e V(Z)=1. Ou seja, Z é uma variável
aleatória normal padrão.

A curva de probabilidade mostrada (Figura 4) tam-


bém se chama Curva Gaussiana, devido ao formato
característico que lembra uma curva em forma de
sino, conforme explica Pitard (1993, p. 33).

Vamos a um exemplo de aplicação da distribuição


para um conjunto de dados sobre pesos de recém-
-nascidos que nos é dado por Shimakura (2005b) e
cujo enunciado é: Suponhamos que temos dados
referentes ao peso de recém-nascidos e estes da-
dos apresentam a média µ=2800 g e desvio-padrão
igual a σ=50 0 g. Sabendo que os dados de recém-
-nascidos seguem uma distribuição normal, como
podemos dividir os pesos dos recém-nascidos em
conformidade com a faixa de probabilidade deles?

Sobre a curva de distribuição normal, sabemos que te-


mos as seguintes faixas de probabilidades (tabela 5):

Faixa Probabilidade
µ– σ< x<µ+ σ 68,3%
µ–2 σ< x<µ+2 σ 95%

44
Faixa Probabilidade
µ–3 σ< x<µ+3 σ 99.7%

Tabela 5: Distribuição de probabilidades para a distribuição normal.


Fonte: Shimakura (2005b).

Para esse caso, temos µ =2 8 0 0 g e σ = 5 0 0 g .


Calculemos, portanto, os valores de uma vez o des-
vio-padrão, duas vezes o desvio-padrão e três vezes
o desvio-padrão:

σ=50 0 g

2σ=1.0 0 0 g

3σ=1. 50 0 g

Teremos de somar e subtrair os valores obtidas


acima do valor da média do peso dos recém-nas-
cidos para obtermos as faixas de peso conforme o
desvio-padrão:

Para µ– σ< x<µ+σ, teremos neste caso:

µ– σ< x<µ+σ

2 . 8 0 0 –50 0< x<2 . 8 0 0+50 0

2 . 30 0< x<3 . 30 0

Para µ–2σ< x<µ+2σ, teremos neste caso:

µ–2σ< x<µ+2σ

2 . 8 0 0 –1.0 0 0< x<2 . 8 0 0+1.0 0 0

1. 8 0 0< x<3 . 8 0 0

45
Para µ–3 σ< x<µ+3 σ, teremos neste caso:
µ–3 σ< x<µ+3 σ

2 . 8 0 0 –1. 50 0< x<2 . 8 0 0+1. 50 0

1. 30 0< x<4. 30 0

Então, seguindo a Tabela 5, para o caso de pesos dos


recém-nascidos, teremos a seguinte distribuição de
probabilidades (Tabela 6):

Faixa Probabilidade
2 . 3 0 0 < x< 3 . 3 0 0 68,3%
1 . 8 0 0 < x< 3 . 8 0 0 95%
1 . 3 0 0 < x<4 . 3 0 0 99.7%

Tabela 6: Distribuição de probabilidades para distribuição normal de


pesos dos recém-nascidos. Fonte: Elaboração própria.

Com isso, terminamos por aqui o nosso estudo de


tipos de distribuições de probabilidade para variá-
veis contínuas. Convém reforçar que a distribuição
normal é uma das distribuições mais importantes
(SHIMAKURA, 2005b; PITARD, 1993; ZABETTI, 2019d).
As distribuições normais contínuas estão presentes
ao longo de todo o seu estudo de Estatística.

Podcast 2

46
NOÇÕES SOBRE O TEOREMA
DO LIMITE CENTRAL
No desenvolver do tópico Distribuição Normal
Contínua, mencionamos o modelo Gaussiano.
Segundo Pitard (1993), o Gaussiano é o modelo mais
comumente utilizado na estatística convencional, por
isso, o autor fornece a seguinte explicação:

Este modelo é caracterizado por uma única


propriedade. Se um conjunto de possíveis con-
teúdos de um determinado componente for de
amostras grandes o suficiente, a distribuição
dos valores médios dessas amostras a uma
distribuição gaussiana em forma de sino. Essa
propriedade é chamada de teorema do limite
central (PITARD, 1993, p. 33).

Quando tivermos um número n muito grande de


amostras para a variável contínua X, teremos a se-
guinte situação:

Uma razão para a Distribuição Normal ser con-


siderada tão importante é porque qualquer
que seja a distribuição da variável de interes-
se para grandes amostras, a distribuição das
médias amostrais será no geral normalmen-
te distribuída, e tenderá a uma distribuição
normal à medida que o tamanho de amostra
crescer. Então podemos ter uma variável ori-

47
ginal com uma distribuição muito diferente da
Normal (pode até mesmo ser discreta), mas
se tomarmos várias amostras grandes desta
distribuição, e então fizermos um histograma
das médias amostrais, a forma se parecerá
como uma curva Normal (SHIMAKURA, 2016).

Esta configuração se dá em função do Teorema do


Limite Central, conforme elucida Shimakura (2016) e
Pitard (1993). O teorema permite coletar uma quan-
tidade de amostras grandes o suficiente de forma
que possamos modelar a população estudada por
meio da distribuição de probabilidade normal para
variável contínua. Assim, mesmo que estejamos es-
tudando variáveis discretas que variem segundo uma
faixa de valores, poderemos transformá-las em uma
curva normal para uma variável aleatória contínua.
O número grande de amostras colhida “normalizará”
a variável a ser estudada, ou seja, transformará a
variável em uma variável contínua normal.

SAIBA MAIS
Para gerar a distribuição normal no MS Excel,
existe o comando DIST.NORMAL. Clique aqui para
acessar caso queira usá-la, sugerimos antes uma
consulta ao suporte. Fique à vontade para gerar
suas distribuições normais no Excel.

48
Processos de amostragem
Há muitos processos de amostragem, mas abordare-
mos apenas os três tipos de técnicas de amostragem
mais comumente utilizados, que segundo Bonafini
(2015, p. 11) são:

1. A amostragem estratificada.
2. A amostragem por agrupamento.
3. A amostragem sistemática.

Bonafini (2015) afirma que a amostragem estratifica-


da consiste em dividir a população total em estratos
de acordo com o interesse. Por exemplo, jovens/
idosos, homens/mulheres, solteiros/casados etc.
e, de dentro desses grupos, retiramos os indivíduos
aleatoriamente. Por exemplo, fazemos uma entre-
vista segundo as classes sociais A, B, C e D, sobre
determinado assunto.

Na amostragem por agrupamento, agrupamos os


indivíduos conforme o interesse. Por exemplo, farí-
amos uma pesquisa de opinião sobre o lançamento
de um produto, na FAM, apenas com alunos dos pri-
meiros anos de todos os cursos da área de Exatas.
Chamamos os agrupamentos de clusters.

Por último, temos a amostragem sistemática, que


consiste na liberdade de o entrevistador estabelecer
a própria regra de amostragem. Por exemplo, esco-
lheremos entrevistar os alunos da FAM que estejam
na instituição às segundas, quartas e sextas-feiras.

49
Suponha que se deseja abrir uma balada nas proxi-
midades da FAM, desejando-se apenas fazer a pes-
quisa com os alunos que se encontram na faculdade
nesses três dias, assim, podemos investigar se eles
frequentarão o novo estabelecimento que se deseja
abrir.

Há outros tipos de processos de amostragem.


Contudo, neste momento, só falaremos sobre os três
tipos, devido ao fato de serem os mais comumente
usados e os mais relevantes do ponto de vista desta
disciplina.

50
ESTIMADORES E
ESTIMATIVAS PONTUAIS
Vamos definir o último assunto do presente módulo:
estimadores e estimativas pontuais. Temos a seguin-
te definição para o conceito de estimador:

Estimador: é uma função dos elementos da


amostra, que será usada no processo de esti-
mação do parâmetro desejado. O estimador é,
como vemos, uma estatística. Será, portanto,
uma variável aleatória caracterizada por uma
distribuição de probabilidade e seus respecti-
vos parâmetros próprios (USP [s. d.]).

A partir dessa definição, podemos notar que o esti-


mador se diferencia do conceito de estimativa, por-
que a estimativa é cada valor particular assumido
por um estimador.

O estimador pontual é uma estimativa de um único


valor para um parâmetro populacional. O que nós
estudamos até agora foram os valores da média, da
variância e do desvio-padrão. Essas três medidas
nada mais são do que exemplos de estimadores pon-
tuais. Com isso, temos uma importante definição:

Um estimador 𝜃𝜃" é uma função dos valores


amostrais que é usado para estimar o valor de
um parâmetro desconhecido θ. O estimador é

51
uma variável aleatória com uma distribuição
de probabilidade. Quando uma variável alea-
tória é selecionada de uma população e 𝜃𝜃" é
calculado a partir dos dados, o valor numérico
obtido é chamado de estimativa da amostrada
considerada (USP [s. d.]).

Ao longo de todo o módulo, estudamos as distribui-


ções de variáveis discretas e contínuas por meio de
seus estimadores pontuais, que eram a esperança, a
média, a variância e o desvio-padrão, para que pudés-
semos compreender de qual maneira se comportam
os dados de cada distribuição.

Por fim, encontramos na Tabela 7 como os parâme-


tros de uma determinada população são, no geral,
estimados:

Parâmetro da população Estimador pontual


Média (µ) Média amostral (𝑥𝑥̅ )

Proporção p Proporção amostral ( 𝑝𝑝̅ )


Desvio-padrão (σ) Desvio-padrão amostral (S)

Tabela 7: Processo de estimação de um parâmetro. Fonte: USP (s. d.).

A Tabela 7 indica que, na impossibilidade de analisar-


mos os elementos de uma população, é de costume
estimar os parâmetros de uma população por meio
dos estimadores pontuais. A média (µ) é estimada
pelo estimador pontual média amostral (𝑥𝑥̅ ), a propor-
ção de uma população é estimada pelo estimador
pontual Proporção Amostral ( 𝑝𝑝̅ ). Finalmente, esti-

52
mamos o desvio-padrão (σ) por meio do estimador
pontual Desvio-padrão Amostral (S).

O processo de amostragem consiste, então, em co-


letar uma amostra que apresente as mesmas ca-
racterísticas da população de que foi retirada. Por
essa razão, usamos os estimadores pontuais 𝜃𝜃" a fim
de sermos capazes de compreender os parâmetros
populacionais 𝜃𝜃" .

53
CONSIDERAÇÕES FINAIS
Aprendemos, neste e-book, a obter a esperança, a
variância, covariância e o desvio-padrão para as dis-
tribuições de variáveis aleatórias contínuas e das
variáveis aleatórias discretas. Aprendemos quais são
as principais distribuições para as variáveis aleatórias
discretas: Poisson, Bernoulli, Binomial, Geométrica
e Uniforme Discreta.

Estudamos quais são as principais distribuições para


as variáveis aleatórias contínuas Exponencial, Gama,
Normal e Uniforme Contínua. Na sequência, entende-
mos a importância do Teorema do Limite Central para
os dois tipos de distribuições. Estudamos, ainda, os
três principais tipos de processos de amostragem:
amostragem estratificada, amostragem sistemática
e amostragem por agrupamento.

Por fim, pudemos entender a importância dos três


estimadores pontuais: média, desvio-padrão e pro-
porção, para sermos capazes de estimar todos os
parâmetros desconhecidos de uma população.
Aprendemos também a calcular a esperança, a va-
riância e a probabilidade para as principais distribui-
ções de probabilidade para variáveis aleatórias com
o intuito de estimar o comportamento dos dados
dessas distribuições.

54
SÍNTESE

PROBABILIDADE
ESTATÍSTICA
Neste módulo, estudamos os seguintes aspectos:
• Calcular a média, a variância e a covariância�
• Entender a aplicação das principais distribuições de probabilidade discretas: Poisson,
Bernoulli, Binomial, Geométrica, Uniforme Discreta�
• Entender os principais tipos de processo de amostragem�
• Compreender o uso do Teorema do Limite Central�

Cálculo

Média Variância Média

Tipos Distribuições

Uniforme
Poisson Bernoulli Binomial Geométrica
Distreta

Tipos de amostragem
Aleatória
Estratificada Por Conglomerados Sistemástica
Simples

Teorema do limite central


Referências Bibliográficas
& Consultadas
ALBUQUERQUE, J. P. A.; FORTES, J. M. P.;
FINAMORE, W. A. Probabilidades, variáveis aleató-
rias e processos estocásticos. 2. ed. Rio de Janeiro:
Interciência: PUC-Rio, 2018 [Biblioteca Virtual].

BALESTRASSI, P. P.; PAIVA, A. P. Estatística Aplicada.


Instituto de Engenharia de Produção & Gestão.
Universidade Federal de Itajubá. Itajubá, 2007.

BASSANEZI, R. C. Ensino-aprendizagem com mo-


delagem matemática: uma nova estratégia. 4. ed.
São Paulo: Contexto, 2014 [Biblioteca Virtual].

BASSANEZI, R. C. Modelagem matemática: teoria


e prática. São Paulo: Contexto, 2015 [Biblioteca
Virtual].

BERTOLO, L. A. Distribuições de Probabilidades.


2019. Disponível em: http://www.bertolo.pro.br/
FinEst/Estatistica/DistribuicaoDiscreta.pdf. Acesso
em: 24 nov. 2019.

BONAFINI, F. C. Probabilidade e estatística.


São Paulo: Pearson Education do Brasil, 2015
[Biblioteca Virtual].
BUSSAB, W. O.; MORETTIN, P. A. Estatística básica.
6. ed. São Paulo: Saraiva, 2010.

CAMPOS, C. R.; WODEWOTZKI, M. L. L.; JACOBINI,


O. R. Educação estatística: teoria e prática em am-
bientes de modelagem matemática. Belo Horizonte:
Autêntica Editora, 2011 [Minha Biblioteca].

COSTA NETO, P. L. O. Estatística. 7. ed. São Paulo:


Edgard Blücher, 2002.

GÓES, A. R. T. Modelagem matemática: teo-


ria, pesquisas e práticas pedagógicas. Curitiba:
InterSaberes, 2016 [Biblioteca Virtual].

LIBERAL, T. P. A. Aula covariância e coeficiente


de correlação. Probabilidade II. Departamento
de Estatística. Universidade Federal da Paraíba.
2013a. Disponível em: http://de.ufpb.br/~tarciana/
Probabilidade2/Aula13.pdf. Acesso em: 24 nov. 2019.

LIBERAL, T. P. A. Distribuição exponencial.


Probabilidade II. Departamento de Estatística.
Universidade Federal da Paraíba. 2013b.
Disponível em: http://www.de.ufpb.br/~tarciana/
Probabilidade2/Aula6. Acesso em: 24 nov. 2019.

LIBERAL, T. P. A. Distribuição gama. Probabilidade


II. Departamento de Estatística. Universidade
Federal da Paraíba. 2013c. Disponível em: http://
www.de.ufpb.br/~tarciana/Probabilidade2/Aula7.
pdf. Acesso em: 24 nov. 2019.
LIBERAL, T. P. A. Distribuição uniforme.
Probabilidade II. Departamento de Estatística.
Universidade Federal da Paraíba. 2013d.
Disponível em: http://www.de.ufpb.br/~tarciana/
Probabilidade2/Aula8.pdf. Acesso em: 24 nov. 2019.

LIBERAL, T. P. A. Distribuições de Bernoulli e


Binomial. Probabilidade I. Departamento de
Estatística. Universidade Federal da Paraíba. 2014.
Disponível em: http://www.de.ufpb.br/~tarciana/
MPIE/Aula7.pdf. Acesso em: 24 nov. 2019.

MAGALHÃES, M. N.; LIMA, A. C. P. Noções de pro-


babilidade e estatística. IME-USP, São Paulo, 6. ed.
2004.

MARTINS, M. E. G. Covariância amostral. Revista


de Ciência Elementar, Lisboa, v. 6, n. 1, 2018.
p. 22. Disponível em: http://doi.org/10.24927/
rce2018.022. Acesso em: 02 mar. 2020.

MARTINS, M. E. G. Medidas de localização. Revista


de Ciência Elementar, Lisboa, v. 3, n. 2, 2015a.
p.125. Disponível em: http://doi.org/10.24927/
rce2015.125. Acesso em: 02 mar. 2020.

MARTINS, M. E. G. Medidas de dispersão. Revista


de Ciência Elementar, Lisboa, v. 3, n. 2, 2015b.
p.126. Disponível em: http://doi.org/10.24927/
rce2015.126. Acesso em: 02 mar. 2020.
MARTINS, M. E. G. Coeficiente de correlação popu-
lacional. Revista de Ciência Elementar, Lisboa, v. 2,
n. 2, 2014. p. 69. Disponível em: https://www.fc.up.
pt/pessoas/jfgomes/pdf/revistaCienciaElementar_
v2n2.pdf Acesso em: 02 mar. 2020.

MONTGOMERY, D. C.; RUNGER, G. C. Estatística


Aplicada e Probabilidade para Engenheiros. 4. ed.
Rio de Janeiro: Editora LTC, 2009.

MORETTIN, L. G. Estatística básica: probabilida-


de e inferência. São Paulo: Prentice Hall, 2010
[Biblioteca Virtual].

PITARD, F. F. Pierre Gy’s Sampling Theory and


Sampling Practice: Heterogeneity, Sampling
Correctness, and Statistical Process Control. 2.
ed. CRC Press, 1993.

RODRIGUES, E. C. Variáveis Aleatórias Discretas


e Distribuição de Probabilidades - parte II.
Universidade Federal de Minas Gerais. 2011.
Disponível em: ftp://est.ufmg.br/pub/fcruz/ep-eri-
ca/Cap3Parte2.pdf. Acesso em: 24 nov. 2019.

SCHOMMER, S. Aula 15: Distribuição de Bernoulli


e Binomial. Introdução à Estatística Econômica.
Instituto de Estatística. Universidade Federal
do Rio de Janeiro. 2019. Disponível em: http://
www.ie.ufrj.br/intranet/ie/userintranet/hpp/arqui-
vos/071120185632_Aula_15_bernoulli_binomial.
pdf. Acesso em: 24 nov. 2019.
SHIMAKURA, S. Bioestatística Avançada:
Distribuição de Poisson. Departamento de
Estatística. Universidade Federal do Paraná,
2005a. Disponível em: http://leg.ufpr.br/~shimakur/
CE701/node35.html. Acesso em: 24 nov. 2019.

SHIMAKURA, S. Bioestatística Avançada:


Distribuição Normal. Departamento de Estatística.
Universidade Federal do Paraná, 2005b. Disponível
em: http://leg.ufpr.br/~shimakur/CE701/node36.
html. Acesso em: 24 nov. 2019.

SHIMAKURA, S. Bioestatística Avançada: Teoria


Central do Limite. Departamento de Estatística.
Universidade Federal do Paraná, 2016. Disponível
em: http://www.leg.ufpr.br/~silvia/CE001/node38.
html. Acesso em: 24 nov. 2019.

SILVA, O. H. M. da. Matemática e Física: aproxi-


mações. Curitiba: InterSaberes, 2017 [Biblioteca
Virtual].

USP. UNIVERSIDADE DE SÃO PAULO. Estimação


pontual, estimação intervalar e tamanho de amos-
tras. E-disciplinas da USP. Disponível em: https://
edisciplinas.usp.br/pluginfile.php/3196121/mod_re-
source/content/1/T%C3%B3pico_10.pdf. Acesso
em: 25 nov. 2019.

ZABETTI, A. W. A distribuição de Poisson.


Material de apoio à Engenharia. Departamento de
Informática e Estatística. Universidade Federal de
Santa Catarina, 2019a. Disponível em: https://www.
inf.ufsc.br/~andre.zibetti/probabilidade/poisson.
html. Acesso em 24 de novembro de 2019.

ZABETTI, A. W. A distribuição Geométrica.


Material de apoio à Engenharia. Departamento de
Informática e Estatística. Universidade Federal de
Santa Catarina, 2019b. Disponível em: https://www.
inf.ufsc.br/~andre.zibetti/probabilidade/geometri-
ca.html. Acesso em 24 de novembro de 2019.

ZABETTI, A. W. A distribuição Exponencial.


Material de apoio à Engenharia. Departamento de
Informática e Estatística. Universidade Federal de
Santa Catarina, 2019c. Disponível em: https://www.
inf.ufsc.br/~andre.zibetti/probabilidade/exponen-
cial.html. Acesso em 24 de novembro de 2019.

ZABETTI, A. W. A distribuição normal (Gaussiana).


Material de apoio à Engenharia. Departamento de
Informática e Estatística. Universidade Federal de
Santa Catarina, 2019d. Disponível em: https://www.
inf.ufsc.br/~andre.zibetti/probabilidade/normal.
htmlAcesso em 24 de novembro de 2019.

ZIBETTI. A. Probabilidade e Estatística – Métodos


Matemáticos: material de apoio à Engenharia.
Universidade Federal de Santa Catarina, 2019.
Disponível em: https://www.inf.ufsc.br/~andre.zi-
betti/probabilidade/dist_conjunta_vad.html. Acesso
em: 21 nov. 2019.

Você também pode gostar