Você está na página 1de 163

UNIVERSIDADE FEDERAL DE MINAS GERAIS

INSTITUTO DE CIÊNCIAS EXATAS


DEPARTAMENTO DE ESTATÍSTICA

Estatı́stica e Probabilidade para Engenharias


Clódio Pereira de Almeida & Gregório Saravia Atuncar

Notas de aula
2010
cpa/gsa

Introdução

A idéia para este trabalho surgiu da vontade de se reunir em uma única fonte, e em português, material
que atendesse às ementas dos cursos básicos de estatı́stica e probabilidade ministrados pelo Departamento
de Estatı́stica do Instituto de Ciências Exatas (ICEX) da UFMG para os ciclos básicos dos diversos cursos
de engenharia.

Esperamos que sirva para despertar nos alunos que o utilizarem a consciência da importância destas
ciências (Estatı́stica e Probabilidade) como ferramentas valiosas para todas as áreas do conhecimento
humano, especialmente para as ciências exatas.

As tabelas constantes do apêndice foram elaboradas pelos autores.

Clódio Almeida e Gregório Atuncar


Belo Horizonte, agosto de 2010

2
Sumário

1 Introdução à Análise de Dados 6


1.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Organização de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Tipos de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Construção de tabelas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Representação gráfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Medidas de posição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Medidas de variabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.3 Propriedades da média, mediana e variâncias amostrais . . . . . . . . . . . . . . . 23
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Probabilidade 26
2.1 Experimentos aleatórios, espaço amostral e eventos . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Operações com eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Operações com mais de dois eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Definição de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1 Definição frequentista de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Axiomas de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.3 Regras de adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.4 Definição clássica de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4 Regras da multiplicação e probabilidade total . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 Regra da multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.2 Regra da probabilidade total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5.1 Independência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3 Variáveis Aleatórias Discretas 47


3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Variáveis aleatórias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Distribuições de probabilidades e funções de probabilidade . . . . . . . . . . . . . . . . . . 48
3.4 Funções de distribuição acumuladas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5 Média e variância de uma variável aleatória discreta . . . . . . . . . . . . . . . . . . . . . 51
3.6 Distribuições discretas mais comuns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.6.1 Distribuição uniforme discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.6.2 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6.3 Distribuição binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3
SUMÁRIO cpa/gsa

3.6.4 Distribuição geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60


3.6.5 Distribuições binomial negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6.6 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.6.7 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4 Variáveis Aleatórias Contı́nuas 73


4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Probabilidade: distribuições e função de densidade . . . . . . . . . . . . . . . . . . . . . . 73
4.3 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4 Média e variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Distribuição uniforme contı́nua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.6 Distribuição normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6.1 Cálculo de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6.2 Aproximações das distribuições binomial e de Poisson pela normal . . . . . . . . . 88
4.7 Distribuição exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.8 Distribuições de Erlang e Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.8.1 Distribuição de Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.8.2 Distribuição Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.9 Distribuição de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.10 Distribuição Lognormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.11 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5 Inferência 99
5.1 Inferência estatı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2 Amostragem aleatória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3 Estimação de parâmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.1 Estimação pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.1.1 Propriedades de estimadores . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.3.1.2 Desvio Padrão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.1.3 Erro Quadrático Médio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2 Métodos de estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2.1 Método dos momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2.2 Método de Máxima Verossimilhança . . . . . . . . . . . . . . . . . . . . . 106
5.3.3 Distribuições amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.3.3.1 Distribuição da média amostral - caso normal . . . . . . . . . . . . . . . 110
5.3.3.2 Distribuição da diferença de médias . . . . . . . . . . . . . . . . . . . . . 111
5.3.3.3 Distribuição Quiquadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.3.3.4 Distribuição t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.3.5 Distribuição F de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.3.4 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.3.5 Estimação por intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.3.5.1 Intervalo de confiança para a média de uma distribuição normal . . . . . 119
5.3.5.2 Intervalo de confiança para o parâmetro p da distribuição binomial . . . . 123
5.3.5.3 Intervalo de confiança para diferença de duas médias - Caso normal . . . 124
5.3.5.4 Intervalo de confiança para variância de uma distribuição normal . . . . . 127
5.3.5.5 Intervalo de confiança para razão de variâncias - Caso normal . . . . . . 128
5.3.5.6 Intervalo de confiança para a média - distribuição não normal . . . . . . 130
5.4 Teste de Hipóteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.2 Teste sobre média - caso normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.4.2.1 Variância conhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

4
SUMÁRIO cpa/gsa

5.4.2.2 Variância desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139


5.4.3 Testes sobre a média, caso não normal . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.4.3.1 Um caso particular: testes sobre proporções . . . . . . . . . . . . . . . . . 141
5.4.4 Teste sobre variância de uma população com distribuição normal . . . . . . . . . . 143
5.4.5 Testes sobre diferença de médias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.4.5.1 Variâncias conhecidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.4.5.2 Variâncias desconhecidas mas iguais . . . . . . . . . . . . . . . . . . . . . 146
5.4.5.3 Variâncias desconhecidas e diferentes . . . . . . . . . . . . . . . . . . . . 148
5.4.6 Teste sobre razão de variâncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

6 Bibliografia 154

7 Apêndice 156

5
Capı́tulo 1

Introdução à Análise de Dados

1.1 Conceitos

Estatı́stica: é uma ciência que desenvolve metodologias para coletar, descrever, organizar, analisar e
interpretar dados. É uma ferramenta poderosa para tomada de decisão, resolução de problemas, planeja-
mento de produtos e processos, com inúmeras aplicações. Daremos aqui um maior enfoque às aplicações
na engenharia.

Nessas notas abordaremos as seguintes áreas:


1. Estatı́stica Descritiva: é utilizada na etapa inicial da análise para que possamos nos familiarizar
com os dados, e tirarmos conclusões informais e diretas sobre a população com base nos dados
observados. Utilizamos as seguintes técnicas (para resumir os dados):
• gráficos
• tabelas
• medidas

2. Probabilidade: Técnicas que permitem “medir” incertezas sobre fenômenos aleatórios. Construı́mos
modelos probabilı́sticos para descrever o comportamento de objetos aleatórios.

3. Inferência Estatı́stica: Técnicas que permitem extrapolar para a população, conclusões obtidas de
subconjuntos ou amostras desta população. As principais técnicas usadas são

• Estimação pontual
• Intervalos de confiança
• Testes de hipóteses

População: É o conjunto de todos os elementos a serem estudados. São exemplos:


1. a população brasileira;
2. a totalidade dos carros produzidos no Brasil;
3. uma jazida de minério de ferro de determinada mina;

4. o sangue no corpo de uma pessoa.

6
1.1. CONCEITOS cpa/gsa

Amostra: É um subconjunto desta população.


1. a população do Paraná;

2. carros produzidos pela Fiat;


3. um testemunho ou porção retirada da mina;
4. uma ampola de sangue colhida para um exame.

Fenômeno aleatório: Qualquer fenômeno cujo resultado não pode ser previamente antecipado. Por
exemplo o resultado de uma partida de futebol. Em contraposição temos os fenômenos determinı́sticos
que são regidos pelas leis da fı́sica e que não possuem interesse estatı́stico, já que se repetirmos a ex-
periência, sob as mesmas condições, elas apresentarão sempre o mesmo resultado. Por exemplo o tempo
de queda livre de um mesmo corpo de uma altura fixa.

Parâmetro: Resumo de uma caracterı́stica obtido a partir de todos os elementos de uma população.
Estatı́stica: Resumo da caracterı́stica de interesse levando-se em conta apenas os elementos da amostra.

Veja abaixo um “croquis” representando simbolicamente os conceitos apresentados até aqui:

parâmetro: característica populacional

População

Amostra (técnicas de amostragem)

Estatística descritiva Modelos Probabilísticos

Técnicas de Inferência

Figura 1.1: Estatı́stica simbolicamente

7
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

1.2 Organização de dados

Veremos nesta seção como podemos classificar dados e alguns recursos para simplificar sua apre-
sentação e organização.

1.2.1 Tipos de dados


Qualitativos: representam uma “qualidade”dos elementos da população, normalmente não mensuráveis
numericamente. Podem ser:
• Nominais: o conjunto das possı́veis respostas não possui uma ordenação natural. Ex: Sexo, Raça,
Religião, etc.
• Ordinais: é possı́vel ordenar o conjunto das possı́veis respostas. Ex: Classe Social, Escolaridade do
chefe da famı́lia, Faixa de renda familiar, etc.
Quantitativos: representam uma “quantidade”numericamente mensurável dos elementos da população.
Podem ser:
• Discretos: em geral são fruto de uma contagem. O conjunto de possı́veis respostas é enumerável.
Ex: Número de filhos na famı́lia {0,1,2,...}, número de pessoas chegando em uma fila {0,1,2,...},
número de caras obtidas em 5 lançamentos de uma moeda {0,1,2,3,4,5} etc.
• Contı́nuos: O conjunto de possı́veis respostas é um intervalo de números reais. Ex: peso [0, ∞),
altura [0, ∞) idade [0, ∞), etc.

1.2.2 Construção de tabelas


O conjunto de informações disponı́veis após tabulação de questionário ou pesquisa de campo é denomi-
nado tabela de dados brutos. Nela são listados individualmente cada elemento da população ou amostra,
com os valores de todas as variáveis estudadas.

Veja no exemplo da próxima página uma pesquisa realizada com alunos de duas turmas de determinada
escola e publicada em [6] (a tı́tulo de exercı́cio, classifique cada variável desta tabela por tipo e subtipo,
conforme visto na subseção 1.2.1).

8
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

Id Turma Sexo Idade Altura Peso Filh Fuma Toler Exer Cine OpCine TV OpTV
1 A F 17 1,60 60,5 2 NÃO P 0 1 B 16 R
2 A F 18 1,69 55,0 1 NÃO M 0 1 B 7 R
3 A M 18 1,85 72,8 2 NÃO P 5 2 M 15 R
4 A M 25 1,85 80,9 2 NÃO P 5 2 B 20 R
5 A F 19 1,58 55,0 1 NÃO M 2 2 B 5 R
6 A M 19 1,76 60,0 3 NÃO M 2 1 B 2 R
7 A F 20 1,60 58,0 1 NÃO P 3 1 B 7 R
8 A F 18 1,64 47,0 1 SIM I 2 2 M 10 R
9 A F 18 1,62 57,8 3 NÃO M 3 3 M 12 R
10 A F 17 1,64 58,0 2 NÃO M 2 2 M 10 R
11 A F 18 1,72 70,0 1 SIM I 10 2 B 8 N
12 A F 18 1,66 54,0 3 NÃO M 0 2 B 0 R
13 A F 21 1,70 58,0 2 NÃO M 6 1 M 30 R
14 A M 19 1,78 68,5 1 SIM I 5 1 M 2 N
15 A F 18 1,65 63,5 1 NÃO I 4 1 B 10 R
16 A F 19 1,63 47,4 3 NÃO P 0 1 B 18 R
17 A F 17 1,82 66,0 1 NÃO P 3 1 B 10 N
18 A M 18 1,80 85,2 2 NÃO P 3 4 B 10 R
19 A F 20 1,60 54,5 1 NÃO P 3 2 B 5 R
20 A F 18 1,68 52,5 3 NÃO M 7 2 B 14 M
21 A F 21 1,70 60,0 2 NÃO P 8 2 B 5 R
22 A F 18 1,65 58,2 1 NÃO M 0 3 B 5 R
23 A F 18 1,57 49,2 1 SIM I 5 4 B 10 R
24 A F 20 1,55 48,0 1 SIM I 0 1 M 28 R
25 A F 20 1,69 51,6 2 NÃO P 8 5 M 4 N
26 A F 19 1,54 57,0 2 NÃO I 6 2 B 5 R
27 B F 23 1,62 63,0 2 NÃO M 8 2 M 5 R
28 B F 18 1,62 52,0 1 NÃO P 1 1 M 10 R
29 B F 18 1,57 49,0 2 NÃO P 3 1 B 12 R
30 B F 25 1,65 59,0 4 NÃO M 1 2 M 2 R
31 B F 18 1,61 52,0 1 NÃO P 2 2 M 6 N
32 B M 17 1,71 73,0 1 NÃO P 1 1 B 20 R
33 B F 17 1,65 56,0 3 NÃO M 2 1 B 14 R
34 B F 17 1,67 58,0 1 NÃO M 4 2 B 10 R
35 B M 18 1,73 87,0 1 NÃO M 7 1 B 25 B
36 B F 18 1,60 47,0 1 NÃO P 5 1 M 14 R
37 B M 17 1,70 95,0 1 NÃO P 10 2 M 12 N
38 B M 21 1,85 84,0 1 SIM I 6 4 B 10 R
39 B F 18 1,70 60,0 1 NÃO P 5 2 B 12 R
40 B M 18 1,73 73,0 1 NÃO M 4 1 B 2 R
41 B F 17 1,70 55,0 1 NÃO I 5 4 B 10 B
42 B F 23 1,45 44,0 2 NÃO M 2 2 B 25 R
43 B M 24 1,76 75,0 2 NÃO I 7 0 M 14 N
44 B F 18 1,68 55,0 1 NÃO P 5 1 B 8 R
45 B F 18 1,55 49,0 1 NÃO M 0 1 M 10 R
46 B F 19 1,70 50,0 7 NÃO M 0 1 B 8 R
47 B F 19 1,55 54,5 2 NÃO M 4 3 B 3 R
48 B F 18 1,60 50,0 1 NÃO P 2 1 B 5 R
49 B M 17 1,80 71,0 1 NÃO P 7 0 M 14 R
50 B M 18 1,83 86,0 1 NÃO P 7 0 M 20 B

Detalhes sobre campos da tabela Filh: no filhos na famı́lia - Toler: tolerância ao cigarro (I) ndiferente, (P) incomoda
pouco e (M) incomoda muito - Exerc: horas de atividade fı́sica por semana - Cine: número de vezes que vai ao cinema por semana
- OpCine: opinião sobre qualidade das salas (B) regular a boa e (M) muito boa - TV: horas assistindo TV por semana - OpTV:
opinião sobre qualidade programação na TV: (R) ruim, (M) média, (B) boa e (N) não sabe.

Apesar de conter muita informação, a tabela de dados brutos não é prática para respondermos rapi-
damente a questões de interesse. Assim, a partir da tabela de dados brutos normalmente construı́mos
uma nova tabela denominada tabela de frequência.
A tabela de frequência mais simples é aquela que lista os valores observados para determinada variável,
e o número de ocorrências (ou frequência absoluta) de cada um destes valores.

9
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

Ela possui a forma:


X freq. obs
X1 n1
X2 n2
... ...
... ...
Xr nr
Total n
Denota-se por ni o número de vezes que a resposta Xi apareceu na amostra de tamanho N (frequência
absoluta).
Utilizando os dados da pesquisa apresentada na tabela da página anterior, temos por exemplo para
as variáveis Turma e Sexo:

Turma freq. obs Sexo freq. obs


A 26 M 13
B 24 F 37
Total 50 Total 50

Para comparação com outros grupos ou conjuntos de dados é conveniente acrescentarmos uma coluna
ni
de frequência relativa definida por fi = (frequência observada dividida pelo total de observações).
n
Temos assim os percentuais em cada classe. Além disso pode ser interessante a inclusão da frequência
acumulada: para dados ordenados a frequência acumulada até a classe Xi é a soma de todas as frequências
observadas até ela inclusive. Da mesma forma, a frequência relativa acumulada até a classe Xi é a soma
de todas as frequências relativas até a da classe i. A tabela completa para a variável idade da pesquisa é
apresentada a seguir:

Tabela 1.1: Frequência da variável idade

Idade freq. obs freq. acum. freq. relat. fr. rel. acum.
17 9 9 0,18 0,18
18 22 31 0,44 0,62
19 7 38 0,14 0,76
20 4 42 0,08 0,84
21 3 45 0,06 0,90
22 0 45 0 0,90
23 2 47 0,04 0,94
24 1 48 0,02 0,96
25 2 50 0,04 1
Total 50 1

Para representarmos variáveis contı́nuas, como elas podem assumir qualquer valor real em um certo
intervalo, ficaria inviável criarmos tabelas de frequência como as anteriores. Se tomarmos a variável peso,
mesmo com o arredondamento de uma casa decimal apresentado na tabela, terı́amos quase o mesmo
número de itens da tabela de dados brutos. Assim a alternativa é criarmos classes ou faixas de valores.
Para tanto siga o seguinte “roteiro”:
1. Ordene os valores do menor para o maior e identifique o máximo e o mı́nimo observado.
2. Calcule a amplitude total fazendo AT = max − min.

10
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

AT
3. Escolha o número k de classes e defina h = . Normalmente são usadas entre 5 e 8 classes.
k
A literatura universal usa o valor k como o inteiro mais próxuimo do valor dado pela fórmula de
Sturges (k = 1 + 3,3log n), mas esse é apenas um valor referencial. Não entraremos em mais
detalhes sobre a escolha do número de classes. O leitor interessado nesse assunto pode consultar,
por exemplo [1] e referências contidas naquele trabalho. O valor h será chamado de amplitude de
classe.
4. Calcule as frequências absolutas contando o número de observações em cada classe, chame este
valor de ni , i = 1, . . . k.
5. Calcule então:
ni
(a) frequências relativas - fi =
n
Pi
(b) frequências acumuladas - f aci = j=1 nj
Pi
(c) frequências relativas acumuladas - Fi = j=1 fj

Exemplo:

Represente através de uma tabela de frequência a variável peso da pesquisa apresentada na tabela da
página 9.

Solução:

1. Após ordenação vemos max = 95 kg e min = 44 kg.


2. AT = 95 − 44 = 51kg
3. O número de observações é n = 50. De acordo com a fórmula de Sturges, k = 1+3,3×log(50) = 6,61.
51
Usaremos então 7 classes. Com k = 7, o valor de h será dado por h = = 7,28.... Usaremos
7
h = 7,3.
4. Montamos a tabela, usando a convenção de classes abertas à esquerda e fechadas à direita:

Tabela 1.2: Distribuição de frequência variável peso

Peso ni f aci fi Fi
44a 51,3 10 10 0,20 0,20
51,3a 58,6 19 29 0,38 0,58
58,6a 65,9 7 36 0,14 0,72
65,9a 73,2 7 43 0,14 0,86
73,2a 80,5 1 44 0,02 0,88
80,5a 87,8 5 49 0,10 0,98
87,8a 95,1 1 100 0,02 1,00
Total 50 1

Eventualmente mesmo dados discretos podem ser agrupados para serem representados em tabelas de
distribuição de frequência.

Outra representação interessante é o chamado Diagrama de ramo e folhas, indicado para variáveis
que possuam valores com pelo menos dois dı́gitos. Para construir o diagrama de ramo e folhas, dividimos

11
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

cada valor da variável em estudo em duas partes: um ramo, consistindo em um ou mais dı́gitos iniciais,
e uma folha, com os dı́gitos restantes.
O exemplo de um diagrama de ramo e folhas para as alturas dos alunos da pesquisa:

Tabela 1.3: Diagrama Ramo e Folhas variável altura

Ramo Folha Frequência


14 5 1
15 8754 7 5 5 7
16 0904 2 4 6530859225157080 22
17 6208 0 1 3003060 13
18 5520 5 0 3 7

Eventualmente pode ser interessante aumentar o número de ramos para facilitar a visualização dos
dados. No exemplo acima podemos dividir cada um dos ramos em 2 outros com as indicações por exemplo
de 16B (Baixo) com as folhas 0, 1, 2, 3 e 4 e 16A (Alto) com as folhas 5, 6, 7, 8 e 9. Ficaria então:

Tabela 1.4: Ramo e Folhas variável altura - mais ramos


Ramo Folha Frequência
14A 5 1
15B 4 1
15A 8757 5 5 6
16B 0042 4 3022100 12
16A 9658 5 95578 10
17B 2001 3 00300 10
17A 686 3
18B 2003 4
18A 555 3

12
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

1.2.3 Representação gráfica


A representação dos dados em forma gráfica é importante ferramenta de análise e apresentação de re-
sultados em qualquer análise estatı́stica. Apresentamos a seguir alguns tipos principais de representação
gráfica.

Diagrama circular, disco ou pizza - Tipo de gráfico muito utilizado para representação de variáveis
qualitativas. Como exemplo veja a variável OpTV da tabela da página 9:

M
2%
B
6%
N
14%

R
78%

Figura 1.2: Gráfico de disco da variável OpTV

Gráfico de barras - Utiliza o plano cartesiano com os valores da variável no eixo das abcissas e as
frequências ou porcentagens no eixo das ordenadas. Para cada valor da variável desenha-se uma barra
com altura correspondendo à sua frequência ou porcentagem. Este tipo de gráfico se adapta melhor
às variáveis quantitativas discretas ou qualitativas ordinais. A representação das idades dos alunos da
pesquisa seria:
25

20

15
Frequência

10

0
17 18 19 20 21 22 23 24 25
Idade

Figura 1.3: Gráfico de barras da variável idade

13
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

Histograma - A representação gráfica das tabelas de distribuição de frequência é chamada Histo-


grama. Represente no eixo das abcissas a escala de medidas, desenhando os limites das classes. No eixo
vertical represente a frequência absoluta (ou relativa) de cada classe. O histograma da tabela 1.2 (peso)
é:
20

15
Frequência

10

0
44 51,3 58,6 65,9 73,2 80,5 87,8 95,1
Peso

Figura 1.4: Histograma da variável peso

Durante a passagem dos dados da tabela de dados brutos ou do diagrama de ramos e folhas para a
tabela distribuição de frequência ou para histogramas, perde-se alguma informação sobre nossos dados,
mas esta perda é plenamente compensada pelos ganhos de concisão e facilidade de interpretação.

Polı́gono de frequência - Este gráfico é obtido unindo-se com segmentos de reta os pontos médios
da parte superior de cada barra no histograma. Os pontos médios da parte superior das barras da
primeira e última classes devem ser ligados respectivamentes ao pontos de coordenadas (LI1 − h/2, 0) e
(LSk + h/2, 0), onde LI1 é o limite inferior da primeira classe, LSk o limite superior da última classe e
h a amplitude da classe.

20

15
Frequência

10

44 51,3 58,6 65,9 73,2 80,5 87,8 95,1

Peso
Figura 1.5: Polı́gono de frequência - Peso

14
1.2. ORGANIZAÇÃO DE DADOS cpa/gsa

Gráfico de frequência acumulada - Uma variação do Histograma é o gráfico de frequência acu-


mulada. Neste gráfico a altura de cada barra é o número total de observações que é menor que o limite
superior de cada classe. O gráfico de frequência acumulada para mesma variável (peso) da pesquisa fica
então:

50
Frequência acumulada

40

30

20

10

0
44 51,3 58,6 65,9 73,2 80,5 87,8 95,1

Peso

Figura 1.6: Distribuição de frequência acumulada para variável peso

Ogiva - Um outro gráfico, chamado de ogiva, é construı́do a partir do gráfico de frequência acumu-
lada, e definido pela poligonal formada por segmentos de reta unindo o ponto inicial inferior da primeira
barra e os pontos finais de cada classe. O nome dessse gráfico advém da sua aparência, conforme pode-se
verificar na figura abaixo:

50
Frequência acumulada

40

30

20

10

0
44 51,3 58,6 65,9 73,2 80,5 87,8 95,1

Peso

Figura 1.7: Gráfico de ogiva - peso

15
1.3. MEDIDAS cpa/gsa

1.3 Medidas

Medidas são resumos ou sumários da informação trazida pela amostra em um único número. Podem
ser classificadas em:
Posição (ou tendência central): são medidas de localização do meio ou do centro de uma distribuição.
Ex: média, mediana, moda.
Variabilidade: medem o espalhamento ou variabilidade dos dados. Ex: amplitude total, variância,
desvio padrão.
Associação: medem relações entre variáveis. Ex: coeficiente de correlação.
Assimetria e curtose: medidas relacionadas com alterações na forma da distribuição, através das
relações entre suas medidas de tendência central (moda, média e mediana) - assimetria ou o seu
achatamento - curtose.

1.3.1 Medidas de posição


Tendem a representar os elementos comuns da população.

Média: é um valor que representa o centro de massa ou ponto de equilı́brio da distribuição (histo-
grama). É calculado por:
Pn
Xi X1 + X2 + · · · + Xn
X̄ = i=1 = (dados brutos).
n n
Para melhor compreensão do conceito de média como centro de massa, imagine uma amostra com
os seguintes valores {8, 9, 5, 5, 4, 3, 6, 4}. Façamos um Diagrama de pontos, que é um gráfico útil para
visualização de pequenas amostras. Para tanto simplesmente plotamos um ponto para cada valor da
amostra sobre um segmento de R que contenha todos os valores. Se houver repetições plotamos um
ponto sobre o outro. Note que a média pode ser pensada como um centro de massa porque se cada ponto
tivesse a mesma massa, digamos 1 kg, o triângulo representando a média equilibraria exatamente estes
pesos.
Média = 5,5

2 4 6 8 10

Se os dados estiverem agrupados em tabela de distribuição de frequência como no exemplo abaixo,

Variável freq. absoluta


X1 n1
X2 n2
... ...
... ...
Xr nr

fazemos: Pr
n1 X1 + n2 X2 + · · · + nr Xr i=1 ni Xi
X̄ = = .
n n

16
1.3. MEDIDAS cpa/gsa

Se conhecemos a frequência relativa, o cálculo da média passa a ser:


X r
n1 n2 nr
X̄ = X1 + X2 + · · · + Xr = f r1 X1 + f r2 X2 + · · · + f rr Xr = fi Xi .
n n n i=1

Exemplo: Para calcularmos a média dos dados abaixo:

X freq. absoluta freq. relativa


1 3 0,3
2 4 0,4
3 2 0,2
5 1 0,1

1+1+1+2+2+2+2+3+3+5 22
X̄ = = = 2,2 (pelos dados brutos)
10 10
1×3+2×4+3×2+5×1
X̄ = = 2,2 (pela frequência absoluta)
10

X̄ = 1 × 0,3 + 2 × 0,4 + 3 × 0,2 + 5 × 0,1 = 2,2 (pela frequência relativa)

Dados agrupados em classe: Para calcularmos a média nestes casos devemos inicialmente calcular
o ponto médio de cada classe, denotando-o por P Mi . A partir disto calculamos a média usando a
frequência absoluta ou a frequência relativa com uma das seguintes expressões:
Pn n
X
i=1 P Mi ni
X̄ = X̄ = P Mi fi
n i=1
Vamos calcular o peso médio dos alunos de nosso exemplo a partir da tabela de distribuição de
frequências (tabela 1.2), incluindo o ponto médio de cada classe;

Tabela 1.5: Peso - inclusão ponto médio da classe

Peso P Mi freq. abs. freq. rel. freq. acum.


44,0a 51,3 47,65 10 0,20 0,20
51,3a 58,6 54,95 19 0,38 0,58
58,6a 65,9 62,25 7 0,14 0,72
65,9a 73,2 69,55 7 0,14 0,86
73,2a 80,5 76,85 1 0,02 0,88
80,5a 87,8 84,15 5 0,10 0,98
87,8a 95,1 91,45 1 0,02 1,00
Total 50 1

Assim:
47,65 × 10 + 54,95 × 19 + 62,25 × 7 + 69,55 × 7 + 76,85 × 1 + 84,15 × 5 + 91,45 × 1 3032,2
X̄ = = = 60,64
50 50
ou:

X̄ = 47,65×0,20+54,95×0,38+62,25×0,14+69,55×0,14+76,85×0,02+84,15×0,10+91,45×0,02 = 60,64

17
1.3. MEDIDAS cpa/gsa

Observações: a média é uma medida afetada por valores extremos. Veja no exemplo inicial em que a
média dos dados é 2,2, se retirarmos o valor 5 a média cai para 1,89.
Se pensarmos em calcular o valor médio de uma variável para toda a população, teremos a média
populacional, normalmente designada pela letra grega µ (mi).

Mediana: é o valor que divide o conjunto de dados ao meio, de tal forma que pelo menos 50% dos va-
lores observados são menores ou iguais à mediana e pelo menos 50% são maiores ou iguais a ela. Notação:
md ou M d. A mediana também caracteriza o elemento comum da amostra.

Exemplo: {1, 1, 1, 3, 3, 5, 3, 3, 2, 2}. Primeiro passo é ordenar os dados:

1 1 1 2 2 | 3 3 3 3 5
Os dois candidatos a md são o 2 e o 3. então tomamos o ponto médio entre eles como a mediana:
md = 2+3
2 = 2,5.

Se tivéssemos:
1 1 1 3 3 4 4 5 5
Nesse caso, md = 3
Observação: Sempre que houver um número ı́mpar de observações a mediana será a observação cen-
tral na amostra ordenada da menor para a maior, e sempre que houver um número par de observações a
mediana será o ponto médio entre as duas observações centrais.

Dados agrupados em classe: Nesse caso os dados já estão ordenados e os procedimentos são:

1. Localize a classe mediana, que será a primeira classe com frequência relativa acumulada maior ou
igual a 0,5. Observe:
L - limite superior da classe mediana
l - limite inferior da classe mediana

2. Calcule a frequência relativa da classe mediana. Chame-a de fmd


3. Determine a frequência relativa acumulada até a classe anterior à classe mediana, ou famd
4. Calcule a diferença 0,5 − famd . Esta diferença é a frequência relativa da classe (l ` md)

50%

md
l L

5. O valor da mediana é obtido resolvendo-se a seguinte equação:


µ ¶
md − l L−l 0,5 − famd
= −→ md = l + (L − l)
0,5 − famd fmd fmd

18
1.3. MEDIDAS cpa/gsa

Assim para calcularmos a mediana dos pesos na tabela 1.5, seguimos o passo a passo:
1. Classe mediana: 51,3 a 58,6 −→ L = 58,6 l = 51,3
2. fmd = 0,38
3. famd = 0,20
4. 0,5 − famd = 0,30
(0,5 − 0,20) 30
5. md = 51,3 + (58,6 − 51,3) = 51,3 + 7,3 × = 57,06 kg
0,38 38
Observação: a mediana não é afetada por valores extremos.

Percentil: O percentil de ordem α de um conjunto de dados é um valor Pα% tal que pelo menos α%
dos valores são inferiores ou iguais a ele e pelo menos (100 − α)% dos valores são maiores ou iguais a ele.

Observações:
1. A mediana é o percentil de ordem 50.
2. Os percentis de ordem 25, 50 e 75 são chamados respectivamente de Quartil 1, Quartil 2 e Quartil
3 (ou primeiro, segundo e terceiro quartis).

25% 75%

Q1
50% 50%

Q2
75% 25%

Q3
25% 25% 25% 25%

Q1 Q2 Q3

De forma similar ao cálculo da mediana, para obtermos o percentil Pα a partir de uma tabela de
frequência, seguimos os passos descritos abaixo:
1. Localizar a classe a qual pertence o percentil Pα .
2. Encontrar a frequência relativa da classe onde está Pα . Denote-a por fPα .
3. Encontrar a frequência acumulada até a classe anterior à classe do percentil Pα . Denote-a por faPα .
4. Calcular a diferença α − faPα .
5. Fazendo a regra de três:

Lα − lα −→ fPα
Pα − lα −→ α − faPα
α − faPα
Pα = lα + (Lα − lα )
f Pα

19
1.3. MEDIDAS cpa/gsa

Exemplo:

Calcule o terceiro quartil da variável peso da pesquisa, a partir da tabela 1.5.

Solução:

1. Classe 65,9a 73,2


2. fPα = 0,14
3. faPα = 0,72
4. α − faPα = 0,75 − 0,72 = 0,03
0,03
5. Q3 = P75 = 65,9 + 7,3 × = 67,46 kg
0,14

Moda: É o valor mais frequente na amostra. Notação: mo ou M o. A moda representa também o


valor mais comum.

Exemplo:

No conjunto de observações {1, 1, 3, 3, 5, 3, 3, 2}, a moda é mo = 3.

Em um conjunto de dados pode haver mais de uma moda:

Exemplo:

Para o conjunto {1, 1, 1, 1, 3, 3, 3, 3, 5}, mo1 = 1 e mo2 = 3. Neste caso se diz que o conjunto é bimodal.

Se houver mais de duas modas diz-se que o conjunto é multimodal. Por outro lado se nenhum valor
se repete o conjunto não tem moda.

Ponto médio: O valor que está a meio caminho entre o menor e o maior valor de uma amostra:
Máximo + Mı́nimo
ponto médio =
2
Esta medida é menos usada, mas serve para ilustrar mais uma das diversas maneiras de se representar a
tendência central de uma amostra.

1.3.2 Medidas de variabilidade


Medem o espalhamento ou dispersão dos dados. Complementam importantes informações escondidas
pelas medidas de tendência central.

Amplitude total: A amplitude total de uma amostra é definida como a diferença entre o maior e o
menor valor da amostra.
AT = M ax − M in
Exemplo: a amplitude total da variável altura da amostra dos alunos é AT = 1,85 − 1,45 = 0,40 m
(40 cm).

20
1.3. MEDIDAS cpa/gsa

Variância amostral (S 2 ): A variância é uma medida de dispersão que leva em conta todas as ob-
servações feitas. Ela mede a dispersão em torno da média amostral x̄.

Considere as observações: X1 , X2 , X3 , . . . , Xn :

Observação desvios |desvios| (desvios)2

X1 (X1 − X̄) |X1 − X̄| (X1 − X̄)2


X2 (X2 − X̄) |X2 − X̄| (X2 − X̄)2
... ... ... ...
... ... ... ...
Xn (Xn − X̄) |Xn − X̄| (Xn − X̄)2

Temos:
Xn Xn Xn Xn Xn Pn Xn Xn
Xi
(Xi − X̄) = Xi − X̄ = Xi − nX̄ = Xi − n i=1 = Xi − Xi = 0
i=1 i=1 i=1 i=1 i=1
n i=1 i=1

Assim define-se a variância amostral como:


Pn
i=1 (Xi − X̄)2
S2 =
(n − 1)

Exemplo: Tome dois conjuntos a seguir, ambos com x̄ = 5 (Note também que ambos possuem a
mesma amplitude total e a mesma mediana):

conj. 1 = {3, 4, 5, 6, 7} conj. 2 = {3, 5, 5, 7}

(3 − 5)2 + (4 − 5)2 + (5 − 5)2 + (6 − 5)2 + (7 − 5)2 4+1+0+1+4


S12 = = = 2,5
(n − 1) 4
(3 − 5)2 + (5 − 5)2 + (5 − 5)2 + (7 − 5)2 4+0+0+4
S22 = = = 2,667
(n − 1) 3
Observação: Se tivéssemos calculando a variância de uma população de tamanho N teriámos:
PN
2 i=1 (Xi − µ)2
Variância populacional = σ = .
N
Alguns autores usam o denominador n na definição da variância amostral. Avaliaremos as vantagens
e desvantagens de cada denominador quando falarmos de Inferência (capı́tulo 5).

Inconvenientes da Variância:
1. As unidades de medida da variância amostral são o quadrado da unidade original da variável (m2
para altura, kg 2 para peso, etc.). Para evitar-se este desconforto estabeleceu-se o desvio padrão
definido por: sP
√ n 2
i=1 (Xi − X̄)
S = S2 = ,
(n − 1)
que mostra a variabilidade medida na unidade original da variável analisada.

21
1.3. MEDIDAS cpa/gsa

2. A variância não permite comparar a variabilidade de dados medidos em diferentes unidades de


medida ou medidos na mesma unidade mas com médias diferentes. Aqui a solução foi a criação
de uma medida chamada coeficiente de variação que não sofre influência nem da média nem da
unidade de medida. O coeficiente de variação é definido como
S
CV amostral = (coef. variação amostral= desvio padrão amostral dividido pela média amostral)

σ
CV populacional = (coef. variação populacional= desvio padrão dividido pela média populacional)
µ
Exemplo: Em qual grupo há mais variação em torno da média:

Variável média variância


altura 1,70 m 0,0025 m2
peso 60 kg 2,25 kg 2

√ √
0,0025 2,25
CVa = = 2,9% CVp = = 2,5%
1,70 60
A variável altura apresenta variabilidade maior que a variável peso.

Dados agrupados em classes Para calcular a variância de dados agrupados em classes, considere
o ponto médio de cada classe, denotado por P Mi e faça;
Pk
2 i=1 (P Mi− X̄)2 ni
S = ,
(n − 1)

onde ni é a frequência observada para a i-ésima classe e k o número de classes.

Se conhecemos apenas as frequências relativas das classe, a variância amostral poderia ser aproximada
por:
Xk ³ ni ´
S2 = (P Mi − X̄)2 fi fi = é a frequência relativa da classe i .
i=1
n
Exemplo: Determine a variabilidade em torno da média para o peso dos alunos da tabela da página
9, lembrando que já calculamos o peso médio (60,64 kg):

Tabela 1.6: Peso - Cálculo da variância


P Mi freq. rel. (P Mi − X̄)2 (P Mi − X̄)2 fi
47,65 0,20 (47,65 − 60,64)2 = 168,740 33,748
54,95 0,38 (54,95 − 60,64)2 = 032,376 12,303
62,25 0,14 (62,25 − 60,64)2 = 002,592 0,363
69,55 0,14 (69,55 − 60,64)2 = 079,388 11,114
76,85 0,02 (76,85 − 60,64)2 = 262,764 5,255
84,15 0,10 (84,15 − 60,64)2 = 552,720 55,272
91,45 0,02 (91,45 − 60,64)2 = 949,256 18,985
Total 137,041

√ √
Assim vemos que S 2 = 137,041 kg 2 e por conseguinte S = s2 = 137,041 = 11,706 kg.
S 11,706
E o coeficiente de variação é CV = = = 19,30 %.
X̄ 60,64

22
1.4. EXERCÍCIOS cpa/gsa

Observação: A variância também é afetada por valores extremos.

Desvio médio: Medida de variabilidade em torno da média assim definida:


Pn
|Xi − X̄|
DM = i=1 para dados não agrupados,
n
n
X
DM = (P Mi − X̄)fi para dados agrupados em tabela de frequência.
i=1

1.3.3 Propriedades da média, mediana e variâncias amostrais

2
Considere a amostra X1 , X2 , . . . , Xn . Nas seções anteriores, vimos que X̄, SX e medx representam
respectivamente a média amostral, variância amostral e mediana amostral; e definimos a fórmula de
cálculo de cada uma dessas medidas.

Suponha agora que tenhamos de utilizar alguma relação linear das observações dessa amostra. Como
exemplo, imagine que X seja o comprimento de parafusos em milı́metros e que o peso em gramas desses
parafusos possa ser calculado por Y = aX + b, onde a e b são duas constantes qualquer. Pode-se provar
que:
Ȳ = aX̄ + b
medy = a medx + b
SY2 = a2 SX
2

1.4 Exercı́cios

Usando a tabela da página 25, com dados de 49 alunos de uma turma de engenharia civil do ICEX,
responda as questões a seguir:

1. Defina o tipo e subtipo de cada uma das 8 variáveis da tabela.

2. Construa uma tabela com a frequência observada, frequência relativa e frequência relativa acumu-
lada para a variável idade.

3. Construa uma tabela com a frequência observada, frequência relativa e frequência relativa acumu-
lada para a variável peso. (Calcule o número de classes pela fórmula de Sturges).

4. Construa um diagrama de Ramo e Folhas para a variável altura. Utilize inicialmente 5 ramos e
depois, para melhor visualização, construa outro diagrama a partir do primeiro com 10 ramos.

5. Esboce um diagrama circular (ou pizza) para a variável provedor.

6. Faça um gráfico de barras com a variável ano de inı́cio do curso.

23
1.4. EXERCÍCIOS cpa/gsa

7. Com auxı́lio da tabela do exercı́cio 3, esboce um histograma com a frequência relativa da variável
peso.

8. Calcule usando os dados brutos a média da variável idade.

9. Usando a tabela construı́da no exercı́cio 3 encontre a média da variável peso.

10. Usando o histograma abaixo, ache a mediana e o terceiro quartil (percentil 75%) da variável altura.

Histograma da altura

30 0,306

25 0,265

20
Frequência

15

0,122
10
0,102
0,082 0,082
5
0,041
0
1,55 1,61 1,67 1,73 1,79 1,85 1,91 1,97
Altura

11. Ache a(s) moda(s) da variável bairro.

12. Usando a tabela construı́da no exercı́cio 3 encontre a variância da variável peso.

13. Usando a tabela construı́da no exercı́cio 2 ache o desvio padrão da variável idade.

24
1.4. EXERCÍCIOS cpa/gsa

Ano início Idade


No Peso Altura Naturalidade Estado Bairro Provedor de internet
curso (Anos)
1 2008 19 70 1,83 Belo Horizonte MG Funcionários hotmail.com
2 2008 19 73 1,83 Belo Horizonte MG Prado hotmail.com
3 2008 19 75 1,71 Belo Horizonte MG Anchieta hotmail.com
4 2008 19 85 1,83 Belo Horizonte MG Nova Cachoeirinha hotmail.com
5 2008 20 43 1,59 Belo Horizonte MG Betânia hotmail.com
6 2008 20 51 1,69 Ipatinga MG Funcionários hotmail.com
7 2008 20 59 1,70 Belo Horizonte MG Serra hotmail.com
8 2008 20 61 1,65 Belo Horizonte MG Ouro Preto hotmail.com
9 2008 20 65 1,72 Varginha MG Liberdade hotmail.com
10 2008 20 71 1,72 Belo Horizonte MG Santa Tereza gmail.com
11 2008 20 71 1,76 Belo Horizonte MG Coração Eucarístico hotmail.com
12 2008 20 73 1,75 Bom Despacho MG Prado gmail.com
13 2008 20 76 1,71 Viçosa MG Sion hotmail.com
14 2008 20 77 1,95 Belo Horizonte MG Santo Antônio hotmail.com
15 2008 20 90 1,80 Belo Horizonte MG Nova Floresta hotmail.com
16 2008 20 99 1,70 Patrocínio MG Ouro Preto hotmail.com
17 2008 21 58 1,72 Belo Horizonte MG Dona Clara yahoo.com.br
18 2008 21 59 1,64 Belo Horizonte MG Floresta yahoo.com.br
19 2008 21 64 1,60 Belo Horizonte MG Barreiro hotmail.com
20 2008 21 64 1,71 Belo Horizonte MG Serra hotmail.com
21 2008 21 64 1,74 Belo Horizonte MG Jardim América gmail.com
22 2008 21 68 1,75 Salvador BA Ouro Preto hotmail.com
23 2007 21 70 1,70 Belo Horizonte MG Savassi hotmail.com
24 2007 21 73 1,75 Belo Horizonte MG Buritis hotmail.com
25 2007 21 75 1,85 Belo Horizonte MG Fernão Dias hotmail.com
26 2008 21 77 1,72 Belo Horizonte MG Belvedere hotmail.com
27 2008 21 77 1,85 Formiga MG Lourdes hotmail.com
28 2008 21 82 1,85 Belo Horizonte MG Carlos Prates yahoo.com.br
29 2006 22 63 1,73 Itaúna MG Lourdes gmail.com
30 2008 22 68 1,85 Belo Horizonte MG Padre Eustáquio yahii.com.br
31 2008 22 75 1,81 Belo Horizonte MG Luxemburgo hotmail.com
32 2008 22 100 1,91 Belo Horizonte MG Caiçara hotmail.com
33 2006 23 64 1,64 Belo Horizonte MG Planalto ig.com.br
34 2007 23 65 1,71 Jaguaraçu MG Nova Floresta hotmail.com
35 2007 23 72 1,73 Montes Claros MG Floresta yahoo.com.br
36 2008 23 80 1,75 Belo Horizonte MG São João Batista hotmail.com
37 2007 23 80 1,78 Santa Bárbara MG Santa Inês gmail.com
38 2008 24 57 1,58 Sete Lagoas MG Liberdade hotmail.com
39 2006 24 75 1,75 Itabira MG Santo Antônio yahoo.com.br
40 2008 25 57 1,69 Belo Horizonte MG Dona Clara hotmail.com
41 2008 25 70 1,70 Belo Horizonte MG Coração Eucarístico yahoo.com.br
42 2008 25 70 1,72 Sete Lagoas MG Ouro Preto yahoo.com.br
43 2007 25 75 1,74 Belo Horizonte MG Estoril gmail.com
44 2007 25 80 1,79 Belo Horizonte MG Padre Eustáquio yahoo.com.br
45 2006 25 87 1,76 Belo Horizonte MG Cento hotmail.com
46 2009 26 48 1,62 Belo Horizonte MG Santo André hotmail.com
47 2006 26 95 1,77 Santa Maria RS Sobradinho hotmail.com
48 2006 27 65 1,65 Belo Horizonte MG Santa Cruz hotmail.com
49 2007 29 67 1,57 Timóteo MG Castelo yahoo.com.br

25
Capı́tulo 2

Probabilidade

2.1 Experimentos aleatórios, espaço amostral e eventos

Experimento Aleatório - A idéia do que seja um experimento aleatório é bastante intuitiva. Imagi-
nemos dois times disputando a final de um campeonato de futebol. Se o jogo termina empatado, pode-se
jogar uma prorrogação (tempo adicional), e no caso do empate persistir, pode-se decidir o campeão de
acordo com o histórico de cada time, disputa de pênaltes, etc. Persistindo o empate, pode-se decidir o
campeonato lançando uma moeda. Perante esses fatos, surge a pergunta: é justo definir o campeão dessa
forma? Milhares e até milhões de torcedores aceitam. Porque?

Pensemos em outro exemplo de experimento aleatório. Suponha que um engenheiro observa a quali-
dade de um item (defeituoso ou não defeituoso). Se a linha de produção estiver calibrada, espera-se que
uma proporção muito pequena de itens apresentem defeito (1 em cada 100 ou em cada 1.000, por exemplo).

Os dois exemplos precedentes fornecem a idéia de um experimento aleatório. No caso da moeda,


assumindo que ela seja honesta, não temos argumento para acreditar que um dos resultados (cara ou
coroa) tenha maior chance de acontecer. No caso dos itens produzidos por uma linha de produção, natu-
ralmente acreditamos que a proporção de defeituosos seja muito pequena. Mas em ambos os casos, antes
de realizar o experimento, não sabemos qual será o resultado. Embora não saibamos qual será o resultado
na realização de um experimento, podemos ter certeza que no caso da moeda acontecerá cara(C) ou coroa
(K), e no caso da linha de produção, sabemos que um item observado resultará defeituoso (D) ou não
defeituoso (N). Além do mais se realizarmos um número n grande de cada experimento, espera-se que os
números de caras e coroas sejam próximos. Já no caso dos itens observados, espera-se que a proporção
de defeituosos seja pequena.

Não daremos uma definição formal de experimento aleatório, mas os dois exemplos precedentes são
ilustrativos. Ao nos referirmos a experimento aleatório, usaremos a notação ε. Exemplos:

ε1 : lançar uma moeda;


ε2 : observar a qualidade de um item de uma linha de produção

ε3 : observar a taxa de inflação no mês de março de 2010;


ε4 medir a altura de um aluno;
ε5 observar o tempo de vida de um equipamento;
ε6 contar o número de alunos presentes na sala de aula.

26
2.1. EXPERIMENTOS ALEATÓRIOS, ESPAÇO AMOSTRAL E EVENTOS cpa/gsa

No experimento ε1 , ao lançarmos uma moeda, temos certeza que acontecerá cara (C) ou coroa (K).
No experimento ε2 temos certeza que o item observado será defeituoso (D) ou não defeituoso (N). isto é,
em cada caso sabemos qual é o conjunto de todos os resultados do experimento aleatório. Chamamos a
esse conjunto de espaço amostral e denotaremos por Ω.

Ω1 = {C, K} será o espaço amostral associado ao experimento ε1 ;


Ω2 = {D, N} será o espaço amostral associado ao experimento ε2 .

analogamente temos,

Ω3 = {r : r > 0};
Ω4 = {X ∈ R : X > 0};
Ω5 = {t ∈ R : t > 0};
Ω6 = {0, 1, 2, . . . N }. Neste caso N será o número de alunos matriculados ou que frequentam as aulas.

O espaço amostral (Ω) foi definido como o conjunto de todos os resultados possı́veis de um expe-
rimento aleatório. Quer dizer então que Ω representa o Conjunto Universo que conhecemos da Teoria
Elementar de Conjuntos. Dentro desse conjunto podemos definir subconjuntos e a cada desses subcon-
juntos chamaremos de evento.

No experimento ε5 , podemos estar interessados em que o tempo de vida do equipamento atenda ao


tempo de garantia. Se o tempo é em anos, podemos estar interessados no evento em que t seja maior do
que 1.

Usaremos as primeiras letras do alfabeto em maiúsculas para representar eventos: A, B, C, . . . .


A = {t ∈ R : t > 1} representa o evento de que o equipamento atende ao tempo de garantia no experi-
mento ε5

2.1.1 Operações com eventos


União de eventos (A∪B) é o evento que ocorre se A ou B ou ambos eventos ocorrerem. O diagrama de
Venn utilizado para relações entre conjuntos pode ser utilizado para relações entre eventos. Imagine
que o espaço amostral seja representado pelos pontos no retângulo Ω abaixo e que os eventos A e
B são os subconjuntos nos pontos das regiões indicadas

A B A B

W W
Figura 2.1: Espaço amostral Ω e eventos A e B Figura 2.2: A ∪ B

Com auxı́lio dos operadores lógicos (∨ ≡ ou e ∧ ≡ e) podemos descrever a operação união de


eventos ilustrada na figura 2.2 como:

A ∪ B = {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}

27
2.1. EXPERIMENTOS ALEATÓRIOS, ESPAÇO AMOSTRAL E EVENTOS cpa/gsa

Exemplo: Experimento: lançamento de um dado.


¾
Evento A → ocorre face par.
A ∪ B = {1, 2, 3, 4, 6}
Evento B → ocorre face inferior a 4.

Interseção de eventos (A ∩ B) é o evento que ocorre se A e B ocorrem simultaneamente.

A B

W
Figura 2.3: A ∩ B

Podemos escrever:
A ∩ B = {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}

No mesmo exemplo anterior temos:


¾
Evento A → ocorre face par.
A ∩ B = {2}
Evento B → ocorre face inferior a 4.

Observação 1: Se A ∩ B = ∅, dizemos que A e B são disjuntos ou mutuamente exclusivos.

A B

W
Figura 2.4: A e B disjuntos

Observação 2: As operações união e interseção de eventos são comutativas. Isto é:

A∪B =B∪A e A∩B =B∩A

Eventos complementares (Notação AC ) O evento AC ocorre se o evento A não ocorre. É formado


por todos os pontos de Ω que não estão em A. Assim AC = {ω ∈ Ω : ω ∈
/ A}

A
AC W
Figura 2.5: AC e A são complementares

A e AC são eventos complementares se e somente se AC ∩ A = ∅ e AC ∪ A = Ω

28
2.1. EXPERIMENTOS ALEATÓRIOS, ESPAÇO AMOSTRAL E EVENTOS cpa/gsa

Exemplo: no lançamento de um dado, se A → ocorrer face par, então B → ocorrer face ı́mpar, é
evento complementar de A.
Diferença de eventos (A − B) é o evento em que A ocorre e B não ocorre. Escrevemos:

A − B = {ω ∈ Ω : ω ∈ A ∧ ω ∈
/ B}

A B

W
Figura 2.6: A - B

Note que A − B = A ∩ B C . Deixamos a prova como exercı́cio.


Diferença simétrica É aquele evento em que A ou B ocorrem, mas não ambos simultaneamente. Re-
presentamos por:
A 4 B = (A − B) ∪ (B − A)

A B

W
Figura 2.7: A 4 B

2.1.2 Operações com mais de dois eventos

Propriedades Distributivas

PD1: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
PD2: A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

As figuras abaixo ilustram as propriedades distributivas:

B B

A C A C
W W
Figura 2.8: A ∩ (B ∪ C) Figura 2.9: A ∪ (B ∩ C)

29
2.1. EXPERIMENTOS ALEATÓRIOS, ESPAÇO AMOSTRAL E EVENTOS cpa/gsa

Leis de Morgan:
LM1: (A ∪ B)C = AC ∩ B C
LM2: (A ∩ B)C = AC ∪ B C

A B A B

W W
Figura 2.10: (A ∪ B)C Figura 2.11: (A ∩ B)C

Provaremos PD1 e LM1 para ilustração e deixaremos a prova dos outros dois resultados para o leitor.
Antes da prova, recordaremos as propriedades dos operadores lógicos relacionando proposições.

Pensemos no exemplo seguinte: pela manhã o aluno vai para a escola e à tarde vai para a biblioteca
ou para o cinema. Essa proposição composta é equivalente à seguinte: Pela manhã o aluno vai para a
escola e à tarde vai para a biblioteca ou pela manhã o aluno vai para a escola e à tarde vai ao cinema.

Temos, no parágrafo precedente, um exemplo da propriedade distributiva dos operadores lógicos. De


forma geral, sejam p, q e r três proposições simples. Denotemos por p ∧ q e p ∨ q as proposições (p e q) e
(p ou q) respectivamente.

Pode-se provar que:


p ∧ (q ∨ r) ≡ (p ∧ q) ∨ (p ∧ r)

Omitimos a prova dessa propriedade, que pode ser feita através da construção da tabela de valores
de verdade das duas proposições compostas p ∧ (q ∨ r) e (p ∧ q) ∨ (p ∧ r).

No exemplo do aluno, as proposições seriam:


p: O aluno vai para a escola pela manhã;
q: o aluno vai para a biblioteca à tarde;
r: o aluno vai ao cinema à tarde.

Podemos provar a PD1 usando a propriedade distributiva dos operadores lógicos. Uma forma de
provar igualdade de dois conjuntos é escolher um elemento arbitário de um deles e provar que pertence
ao outro.

Seja então ω ∈ A ∩ (B ∪ C). Defina p : ω ∈ A, q : ω ∈ B e r : ω ∈ C. Então:


ω ∈ A ∩ (B ∪ C) ⇐⇒ (ω ∈ A) ∧ (ω ∈ (B ∪ C))
⇐⇒ (ω ∈ A) ∧ (ω ∈ B ∨ ω ∈ C)
≡ p ∧ (q ∨ r)
⇐⇒ (p ∧ q) ∨ (p ∧ r)
⇐⇒ (ω ∈ A ∧ ω ∈ B) ∨ (ω ∈ A ∧ ω ∈ C)
⇐⇒ (ω ∈ A ∩ B) ∨ (ω ∈ A ∩ C)
≡ {ω ∈ (A ∩ B) ∪ (A ∩ C)}

30
2.1. EXPERIMENTOS ALEATÓRIOS, ESPAÇO AMOSTRAL E EVENTOS cpa/gsa

Para provar LM1, apresentaremos outra propriedade dos operadores lógicos. Sejam p e q duas
proposições. A negação de p ∧ q é equivalente à negação de uma delas. Isto é, se N p representa a negação
de p, então:
N (p ∧ q) = (N p) ∨ (N q)

Aplicando essa propriedade e fazendo p : ω ∈ A e q : ω ∈ A podemos escrever:

ω ∈ (A ∩ B)C ⇐⇒ ω ∈
/ (A ∩ B)
⇐⇒ (ω ∈
/ A) ∨ (ω ∈
/ B)
⇐⇒ (ω ∈ AC ) ∨ (ω ∈ B C )
⇐⇒ {ω ∈ AC ∪ B C }

As propriedades distributivas e as leis de Morgan podem se estender para a união ou interseção de


mais de dois eventos. Sejam B1 , B2 , . . . , Bn uma coleção de eventos e seja A um outro evento:
µ n ¶
S S
n
PD1’: A ∩ Bi = (A ∩ Bi )
i=1 i=1
µ ¶
T
n T
n
PD2’: A ∪ Bi = (A ∪ Bi )
i=1 i=1
µ ¶C
T
n S
n
LM1’: Bi = BiC
i=1 i=1
µ ¶C
S
n T
n
LM2’: Bi = BiC
i=1 i=1

B1 B2

A B3 W
µ ¶
S
3
Figura 2.12: A ∩ Bi
i=1

31
2.2. DEFINIÇÃO DE PROBABILIDADE cpa/gsa

2.2 Definição de probabilidade

2.2.1 Definição frequentista de probabilidade


Como atribuirmos probabilidades a elementos do espaço amostral? A primeira idéia foi baseada em
caracterı́sticas teóricas do fenômeno ou experimento e na observação das frequências de sua ocorrência.
Daı́ surgiu:
Definição 1. Consideremos n repetições “independentes”de um experimento aleatório ε. Seja A um
evento qualquer (A ∈ Ω). Defina
nA
Pn (A) = (onde nA é o número de vezes em que ocorre o evento A)
n
e defina
P(A) = lim Pn (A)
n→∞

P(A) assim definida é chamada de probabilidade frequencial de A

Exemplos:

1. Num lançamento de um dado, a probabilidade de ocorrência da face i é dada por


# ocorrência da face i n{i}
Pn ({i}) = = .
# total de lç. do dado n

Quando o número de lançamentos é muito grande, Pn ({i}) se estabiliza e você toma esse valor como
a probabilidade de ocorrência da face i.
2. Suponha que temos uma linha de produção em grande escala. Retiramos n itens desta linha de
produção, e a cada retirada contamos o número de itens defeituosos (A= item defeituoso)

n No defeituosos Pn (A)
10 0 0/10 = 0
50 2 2/50 = 0,04
100 6 6/100 = 0,06
500 29 29/500 = 0,058
1000 51 51/1000 = 0,051
5000 249 249/5000 = 0,050

Observando a tabela acima vemos que P10 (A) = 0, P50 (A) = 0,04, P100 (A) = 0,06, e assim por
diante. À medida que aumentamos o valor de n, espera-se que Pn (A) se aproxime da proporção
de defeituosos. Pela definição frequentista de probabilidade vemos que a probabilidade de um item
defeituoso nesta linha de produção converge para 0,05.

32
2.2. DEFINIÇÃO DE PROBABILIDADE cpa/gsa

2.2.2 Axiomas de probabilidade


A partir da definição frequentista de probabilidade, apresentada na subseção anterior, é imediato
observar que:
nΩ
1. Pn (Ω) = =1
n
2. Desde que 0 ≤ na ≤ n para todo n, então 0 ≤ Pn (A) ≤ 1
3. Se A ∩ B = ∅, então Pn (A ∪ B) = Pn (A) + Pn (B)

Se em (1), (2) e (3) tomarmos o limite quando n −→ ∞, teremos:


A1) P(Ω) = 1
A2) 0 ≤ P(A) ≤ 1
A3) P(A ∪ B) = P(A) + P(B) se A ∩ B = ∅

(A1), (A2) e (A3) são chamdados Axiomas de probabilidade. Baseada nesses axiomas é construı́da
toda a Teoria de Probabilidade. (O leitor interessado em aprofundar estudos pode consultar, por exem-
plo, [5] ou [8]).

A seguir apresentaremos alguns resultados básicos que serão usados no decorrer da disciplina:
Proposição 1.
µ n ¶
S P
n
P Ai = P(Ai ), se Ai ∩ Aj = ∅ para i 6= j : i,j = 1, . . . , n
i=1 i=1
Proposição 2.
P(∅) = 0
Proposição 3.
P(AC ) = 1 − P(A)
Proposição 4.
Se A ⊂ B, então P(A) ≤ P(B)
Provas:
1. Faremos a prova para n = 3. O caso geral decorre do Princı́pio da Indução Matemática. Se A1 , A2
e A3 são tais que A1 ∩ A2 = A1 ∩ A3 = A2 ∩ A3 = ∅ então
P(A1 ∪ A2 ∪ A3 ) = P(A1 ∪ (A2 ∪ A3 ))
= P(A1 ) + P(A2 ∪ A3 )
= P(A1 ) + P(A2 ) + P(A3 )

Observe que A1 ∩ (A2 ∪ A3 ) = (A1 ∩ A2 ) ∪ (A1 ∩ A3 ) = ∅


2. ∅ e Ω são mutuamente exclusivos, e Ω = Ω ∪ ∅. Assim pelo terceiro axioma P(Ω) = P(Ω) + P(∅).
Mas pelo primeiro axioma P(Ω) = 1, logo P(∅) = 0.
3. Como AC e A são complementares temos A ∪ AC = Ω e A ∩ AC = ∅. Então pelo axioma 3,
P(A) + P(AC ) = P(Ω) e pelo axioma 1, P(A) + P(AC ) = 1, logo P(AC ) = 1 − P(A).
4. Podemos escrever B como B = A ∪ (AC ∩ B). Os eventos A e (AC ∩ B) são disjuntos, então pelo
axioma 3 podemos escrever P(B) = P(A) + P(AC ∩ B). Como, pelo axioma 2, P(AC ∩ B) ≥ 0 logo
P(B) ≥ P(A).

33
2.2. DEFINIÇÃO DE PROBABILIDADE cpa/gsa

2.2.3 Regras de adição

União de dois eventos não disjuntos: A probabilidade da união de dois eventos não disjuntos é
dada por:
Proposição 5.
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Podemos provar de maneira simples:

A ∪ B = A ∪ (B ∩ AC )
A B P(A ∪ B) = P(A) + P(B ∩ AC ) ¬
mas, B = (B ∩ A) ∪ (B ∩ AC )
assim P(B) = P(B ∩ A) + P(B ∩ AC )
W ou P(B ∩ AC ) = P(B) − P(B ∩ A) ­
Figura 2.13: A ∩ B ∩ C levando ­ em ¬ temos P(A∪B) = P(A)+P(B)−P(A∩B).

Três ou mais eventos: Expandindo o resultado da proposição 5, podemos desenvolver fórmulas


para união de quantos eventos quisermos. Mas quanto maior o número de eventos mais complexas ficam
estas fórmulas. Vamos registrar apenas para 3 eventos:

P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C)


Deixamos como exercı́cio a prova dessa proposição (aplique duas vezes a proposição 5).

Exemplo:

Todos os sócios de um clube praticam pelo menos 1 esporte. Sabe-se que 60% deles praticam futebol,
55% praticam voleibol e 50% praticam peteca. Além disso 30% praticam volei e peteca, 30% futebol e
volei e 25% futebol e peteca. Se você escolher aleatoriamente um sócio deste clube, qual a probabilidade
de que ele pratique os três esportes?

Solução:
Se chamarmos os eventos A = o sócio pratica futebol, B = o sócio pratica voleibol e C = o sócio
pratica peteca, a probabilidade solicitada é P(A ∩ B ∩ C). Podemos escrever:
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C) = 1
e daı́
0,60 + 0,55 + 0,50 − 0,30 − 0,30 − 0,25 + P(A ∩ B ∩ C) = 1 → P(A ∩ B ∩ C) = 0,2

2.2.4 Definição clássica de probabilidade


Definição 2. Seja um experimento aleatório com espaço amostral finito Ω = {ω1 , ω2 , . . . ,ωn }. Se temos
evidências de que todos os resultados tem a mesma chance de acontecer, define-se
1
P(ωi ) = i = 1, 2, . . . , n.
n

34
2.3. PROBABILIDADE CONDICIONAL cpa/gsa

Para A ⊂ Ω, define-se
#A
P(A) = onde #A = cardinal de A = número de elementos de A.
n
Neste caso dizemos que os resultados ωi são equiprováveis.

2.3 Probabilidade Condicional

Definição 3. Se B é um evento tal que P(B) > 0, a probabilidade condicional de um evento A dado
o evento B, denotada por P(A|B) é

P(A ∩ B)
P(A|B) =
P(B)

A probabilidade condicional de A dado B revela a incerteza que se tem sobre o evento A supondo a
ocorrência do evento B. Podemos interpretá-la como a chance relativa de A restrita ao fato de que B
ocorreu.

Exemplos:

1. Uma classe de estatı́stica teve a seguinte distribuição das notas finais:

Homens Mulheres
Reprovados 4 6
Aprovados 8 14

Um aluno é sorteado na sala. Qual é a probabilidade de


(a) Se é mulher, ter sido aprovada.
(b) Ser mulher dado que foi aprovado.
(c) Ser mulher e ter sido aprovado.

Soluções:
Defina os eventos A : ser aprovado e M : ser mulher, temos
P(A∩M ) 14/32
(a) P(A|M ) = P(M ) = 20/32 = 0,7
P(M ∩A) 14/32
(b) P(M |A) = P(A) = 22/32 = 0,64
(c) P(A ∩ M ) = 14/32 = 0,4375

35
2.3. PROBABILIDADE CONDICIONAL cpa/gsa

2. As informações abaixo referem-se aos candidatos que prestaram vestibular na UFMG em 2004:

Candidato foi
Classe
aprovado Total
Social
Não Sim
A 2.974 393 3.367
B 17.394 1.725 19.119
C 17.618 1.040 18.658
D 8.034 265 8.299
E 2.482 64 2.546
Total 48.502 3.487 51.989

Um aluno é sorteado ao acaso. Qual é a probabilidade de:


(a) ter sido aprovado
(b) ser da classe A
(c) ser da classe A e ter sido aprovado
(d) ser da classe A ou ter sido aprovado
(e) ser da classe A uma vez que foi aprovado
(f) ter sido aprovado, uma vez que é da classe A

Soluções:
Chamando os eventos A : o candidato ter sido aprovado e B : o candidato pertencer à classe A,
temos
3.487
(a) P(A) = 51.989 = 0,067
3.367
(b) P(B) = 51.989 = 0,0647
393
(c) P(A ∩ B) = 51.989 = 0,0075
(d) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 0,067 + 0,0647 − 0,0075 ≈ 0,1242
P(A∩B) 0,0075
(e) P(B|A) = P(A) = 0,067 = 0,1119
P(B∩A) 0,0075
(f) P(A|B) = P(B) = 0,0647 = 0,1159

36
2.4. REGRAS DA MULTIPLICAÇÃO E PROBABILIDADE TOTAL cpa/gsa

2.4 Regras da multiplicação e probabilidade total

2.4.1 Regra da multiplicação


Da mesma forma como foi definida P(A|B), se P(A) > 0 podemos definir

P(B ∩ A)
P(B|A) =
P(A)

Temos então que:


P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A)

Esta expressão é conhecida como regra da multiplicação.

Exemplo:

Acredita-se que na população de Belo Horizonte 20% de seus habitantes sofrem algum tipo de alergia,
sendo classificados como alérgicos para fins de saúde pública. Sendo alérgico, a probabilidade de ter reação
a certo antibiótico é de 0,5. Para os não alérgicos esta probabilidade é de apenas 0,05. Escolhendo-se
uma pessoa ao acaso da população de BH, qual a probabilidade de que ela:

(a) - Seja do grupo dos alérgicos e tenha alergia ao ingerir o antibiótico?


(b) - Seja do grupo dos não alérgicos e não tenha alergia ao ingerir o antibiótico?

Solução:
Se fizermos A : ser do grupo dos alérgicos e B : ter reação, temos:

(a) P(A ∩ B) = P(B|A)P(A) = 0,5 × 0,2 = 0,1

(b) P(AC ∩ B C ) = P(B C |AC )P(AC ) = 0,95 × 0,8 = 0,76

2.4.2 Regra da probabilidade total

A regra da multiplicação é útil para determinarmos a probabilidade de um evento que dependa de


outros eventos.

Suponha que você tenha duas linhas de produção de parafusos, 1 e 2, e que a primeira linha produza
1.000 parafusos por hora com uma taxa de defeitos de 0,02 e a segunda produza 500 parafusos por hora,
mas com uma taxa de defeitos 0,008. Escolhendo-se aleatóriamente um parafuso de um lote da produção
de uma hora das duas linhas, qual a probabilidade que ele seja defeituoso? Claramente a resposta depende
de qual linha saiu aquele parafuso.

Se chamarmos A → parafuso saiu da linha 1, B → parafuso saiu da linha 2 e C → parafuso é defeituoso


podemos afirmar que
C = (C ∩ A) ∪ (C ∩ B)
e como (C ∩ A) e (C ∩ B) são disjuntos podemos escrever que

P(C) = P(C ∩ A) + P(C ∩ B) = P(C|A)P(A) + P(C|B)P(B) = 0,02 × 2/3 + 0,008 × 1/3 = 0,016

37
2.4. REGRAS DA MULTIPLICAÇÃO E PROBABILIDADE TOTAL cpa/gsa

De modo mais geral, para quaisquer 2 eventos A e B podemos escrever:

P(B) = P(B ∩ A) + P(B ∩ AC ) = P(B|A)P(A) + P(B|AC )P(AC )

Para generalizarmos o conceito da probabilidade total, definimos:


Definição 4. Dizemos que os eventos A1 ,A2 , . . . ,An formam uma partição do espaço amostral Ω se
1. Ai ∩ Aj = ∅ i 6= j
S
n
2. Ai = Ω
i=1

3. P(Ai ) > 0 i = 1, 2, . . . , n

Figura 2.14: Exemplo de uma partição do espaço amostral Ω

A1 A2 A3
A4
A5 A6
A7
W
Podemos assim enunciar o Teorema da Probabilidade Total:
Teorema 1. Seja {A1 ,A2 , . . . ,An } uma partição do espaço amostral Ω e seja B um evento qualquer,
então
X n
P(B) = P(Ai )P(B|Ai )
i=1

Figura 2.15: Teorema da probabilidade total

A1 A2 A3
A4
B
A7
A5 A6 W
Prova: Desde que os eventos A1 ,A2 , . . . ,An formam uma partição de Ω, podemos escrever:

B = B ∩ (∪Ai ) = ∪ni=1 (B ∩ Ai ) com [(B ∩ Ai ) ∩ (B ∩ Aj )] = ∅ para i 6= j.

Então pelo axioma 3:


n
X
P(B) = P(B ∩ Ai ).
i=1

38
2.5. TEOREMA DE BAYES cpa/gsa

Se aplicarmos a regra do produto a cada termo da soma, temos:


n
X
P(B) = P(Ai )P(B|Ai ).
i=1

Exemplo:

Uma montadora de veı́culos recebe diariamente em contrato de fornecimento “just in time”, 20% de
dado componente do fabricante A, 30% do fabricante B e 50% do fabricante C. Inspeções anteriores nas
fábricas destes fornecedores mostraram que estes componentes produzidos por eles apresentavam taxas
de defeitos de 0,7%, 0,4% e 0,2% respectivamente. Cada veı́culo é equipado com um componente esco-
lhido aleatoriamente entre os recebidos na véspera. Durante a vistoria final, o inspetor de qualidade da
montadora está inspecionando este componente. Qual a probabilidade dele apresentar defeito?

Solução:
Se chamarmos X o evento de que o componente inspecionado apresenta defeito, e A, B e C respecti-
vamente o evento que o componente inspecionado foi fabricado respectivamente pelo fornecedor A, B ou
C, podemos escrever:

P(X) = P(A)P(X|A) + P(B)P(X|B) + P(C)P(X|C)


= 0,2 × 0,007 + 0,3 × 0,004 + 0,5 × 0,002
= 0,0014 + 0,0012 + 0,0010 = 0,0036

2.5 Teorema de Bayes

2.5.1 Independência

Em alguns casos, a probabilidade condicional, P(B|A), pode ser igual a P(B). Neste caso especial, a
informação da ocorrência ou não de A não altera a probabilidade da ocorrência de B. Assim podemos
definir:
Definição 5. Dois eventos A e B são independentes se qualquer uma das seguintes afirmações for
verdadeira:
1. P(A|B) = P(A)
2. P(B|A) = P(B)

3. P(A ∩ B) = P(A)P(B)

É muito simples mostrar a equivalência destas três condições. Mostremos por exemplo a equivalência
de (1) e (3): Suponha que (1) é verdadeira. Então P(A∩B) = P(B)P(A|B) = P(B)P(A). Reciprocamente
P(A ∩ B)
se (3) é verdadeira, então P (A|B) = = P(A).
P(B)
Convidamos o leitor para demonstrar as outras equivalências.

39
2.5. TEOREMA DE BAYES cpa/gsa

Exemplos:

1. Usando os dados do vestibular de 2004 conclui-se que os eventos o “candidato é aprovado”e “o


candidato é da classe A”não são independentes pois:
P(A) = 0,067 P(A|B) = 0,1159
2. Uma empresa produz peças em duas máquinas (1 e 2). Estas máquinas podem apresentar desajustes
com probabilidades respectivamente 0,05 e 0,10. Suponha que as máquinas trabalhem de forma
independente. No inı́cio do dia um teste é realizado e caso a máquina esteja fora do ajuste a
máquina para de operar e vai para manutenção. Para que se cumpra o nı́vel mı́nimo de produção
diária é necessário que pelo menos uma máquina esteja funcionando. Qual a probabilidade de que
a empresa cumpra a produção do dia?
Solução: Se fizermos O1 : máquina 1 está operando e O2 : máquina 2 está operando, a probabilidade
de que a produção seja cumprida é;

P(O1 ou O2 ) = 1 − P[(O1 ou O2 )C ] = 1 − P(O1C e O2C ) = 1 − P(O1C ∩ O2C )

Mas pela independência

P(O1C ∩ O2C ) = P(O1C )P(O2C ) = 0,05 × 0,10 = 0,005

E assim a probabilidade que a produção do dia seja cumprida é 1 − 0,005 = 0,995.

Quando consideramos três ou mais eventos, podemos estender a definição de independência:

Definição 6. Os eventos A1 ,A2 , . . . ,An são independentes, se e somente se para qualquer subconjunto
destes eventos Ai1 , Ai2 , . . . , Aik

P(Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P(Ai1 ) × P(Ai2 ) × · · · × P(Aik )

Uma propriedade importante: Sejam A1 , A2 , . . . , An eventos independentes e seja B um evento


formado por operações entre os eventos Ai1 , . . . , Air e C um outro evento formado por operação entre
alguns dos eventos restantes. Então B e C são eventos independentes. Essa é a chamada propriedade
hereditária da independência.

Exemplo:

Sejam A1 , A2 , . . . , A10 eventos independentes, então


a- A1 ∪ (A5 ∩ A8 ) e A3 ∪ (A4 ∩ AC
7 ) são independentes.

b- A1 ∪ A2 ∪ A3 e (A4 ∩ A5 ) ∪ (A6 ∩ A7 ) são independentes.


Exemplo: O sistema mostrado a seguir só funciona se houver um caminho de componentes (numerados
de 1 a 6) funcionando do ponto A para o ponto B:

1
0,9 4
2 0,95 6
A 0,9 5 0,99 B
3 0,95
0,9

40
2.5. TEOREMA DE BAYES cpa/gsa

A probabilidade de que cada componente funcione está indicada. Assumindo que cada componente
funciona de forma independente, calcule a probabilidade que o sistema opere.

Solução:
Defina:
Ai : componente i funciona, i = 1, . . . , 6;
B1 : subsistema formado pelos componentes 1, 2 e 3 funciona;
B2 : subsistema formado pelos componentes 4 e 5 funciona;
B3 : subsistema formado pelo componente 6 funciona;
A : sistema funciona.
Assim podemos escrever:
A = B1 ∩ B2 ∩ B3 ¬
= (A1 ∪ A2 ∪ A3 ) ∩ (A4 ∪ A5 ) ∩ (A6 )

Sabemos que P(A1 ∪ A2 ∪ A3 ) é dada por:


[P(A1 ) + P(A2 ) + P(A3 ) − P(A1 ∩ A2 ) − P(A1 ∩ A3 ) − P(A2 ∩ A3 ) + P(A1 ∩ A2 ∩ A3 )]
e que como os componentes funcionam de forma independente é o mesmo que
[P(A1 ) + P(A2 ) + P(A3 ) − P(A1 )P(A2 ) − P(A1 )P(A3 ) − P(A2 )P(A3 ) + P(A1 )P(A2 )P(A3 )]
assim:
P(B1 ) = 0,9 + 0,9 + 0,9 − 0,81 − 0,81 − 0,81 + 0,729 = 0,999
De forma equivalente:
P(A4 ∪ A5 ) = P(B2 ) = [P(A4 ) + P(A5 ) − P(A4 )P(A5 )] = 0,95 + 0,95 − 0,9025 = 0,9975
Retornando a ¬ e usando a independência podemos escrever:
P(A) = P(B1 ) × P(B2 ) × P(B3 ) = 0,999 × 0,9975 × 0,99 ≈ 0,987

2.5.2 Teorema de Bayes

Partindo da definição de probabilidade condicional e usando a comutatividade da interseção podemos


escrever:
P(A ∩ B) = P(A|B)P(B) = P(B ∩ A) = P(B|A)P(A)
e agora, usando o segundo e quarto termos da igualdade vem um resultado útil que nos permite escrever
a probabilidade de A dado B em termos da probabilidade de B dado A:

P(B|A)P(A)
P(A|B) =
P(B)

Partindo desta expressão, e escrevendo o denominador usando a regra da probabilidade total, obtemos
o Teorema de Bayes, que tem este nome em homenagem ao Reverendo Thomas Bayes, matemático inglês
da primeira metade do século XV I:

41
2.5. TEOREMA DE BAYES cpa/gsa

Teorema 2 (Teorema de Bayes). Se A1 ,A2 , . . . ,An for uma partição de Ω e B qualquer evento, então

P(B|A1 )P(A1 )
P(A1 |B) =
P(B|A1 )P(A1 ) + P(B|A2 )P(A2 ) + · · · + P(B|An )P(An )

Exemplos:
1. Suponha que um fabricante de sorvetes recebe 20% de todo o leite que consome da fazenda F 1,
30% da fazenda F 2 e o restante da F 3. A vigilância sanitária inspecionou as fazendas de surpresa
e observou que 20% dos galões de leite produzidos na fazenda F 1 estavam adulterados por adição
de água, o mesmo ocorrendo com 5% e 2% dos galões respectivamente produzidos nas fazendas F 2
e F 3. Na indústria de sorvete os galões de leite são armazenados sem identificação das fazendas
produtoras. Um galão é sorteado ao acaso na indústria. Calcule:
(a) a probabilidade de que o galão esteja adulterado
(b) a probabilidade do galão estando adulterado ter vindo da fazenda F 1

Solução:
(a) Seja A → o leite está adulterado e Fi → o leite veio da fazenda Fi

A
A = (A ∩ F1 ) ∪ (A ∩ F2 ) ∪ (A ∩ F3 )

P(A) = P[(A ∩ F1 ) ∪ (A ∩ F2 ) ∪ (A ∩ F3 )]
F1 F2 F3
P(A) = P(A ∩ F1 ) + P(A ∩ F2 ) + P(A ∩ F3 )
Figura 2.16: 3 Fornecedores P(A) = P(A|F1 )P(F1 )+P(A|F2 )P(F2 )+P(A|F3 )P(F3 )

Assim:
P(A) = 0,2 × 0,2 + 0,05 × 0,3 + 0,02 × 0,5 = 0,065

(b) Pelo teorema de Bayes temos

P(A|F1 )P(F1 ) 0,2 × 0,2


P(F1 |A) = = = 0,6154
P(A|F1 )P(F1 ) + P(A|F2 )P(F2 ) + P(A|F3 )P(F3 ) 0,065

2. Das pacientes da Clı́nica de Ginecologia com idade acima de 40 anos, 60% são ou foram casadas e
40% são solteiras. Sendo solteira, a probabilidade de ter tido um distúrbio hormonal no último ano
é de 10%, enquanto para as demais esta probabilidade aumenta para 30%. Pergunta-se:
(a) Qual a probabilidade de uma paciente escolhida ao acaso ter tido um distúrbio hormonal no
último ano?
(b) Se a paciente escolhida tiver tido um distúrbio, qual a probabilidade dela ser solteira?
(c) Se escolhemos duas pacientes ao acaso e com reposição, qual a probabilidade de pelo menos
uma ter o distúrbio?

42
2.6. EXERCÍCIOS cpa/gsa

Solução:
Sejam os eventos S → paciente é solteira e H → paciente teve distúrbio hormonal no último ano.
(a) P(H) = P(H|S)P(S) + P(H|S C )P(S C ) = 0,10 × 0,40 + 0,3 × 0,6 = 0,22
P(H|S)P(S) 0,10×0,4
(b) P(S|H) = P(H) = 0,22 = 0,1878
(c) Seja Hi o evento de que a i-ésima paciente tenha tido distúrbio hormonal. Daı́:

P(H1 ∪ H2 ) =P(H1 ) + P(H2 ) − P(H1 ∩ H2 )


=P(H1 ) + P(H2 ) − P(H2 |H1 )P(H1 )
=0,22 + 0,22 − 0,222 = 0,3916

2.6 Exercı́cios

1. Prove que A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

2. Três eventos são mostrados no diagrama de Venn na Figura 2.17 a seguir:

A B

C W
Figura 2.17: Diagrama de Venn exercı́cio 2

Reproduza a figura e sombreie a região que corresponde a cada um dos seguintes eventos:

(a) Ac

(b) (A ∩ B) ∪ (A ∩ B c )

(c) (A ∩ B) ∪ C

(d) (B ∪ C)c

(e) (A ∩ B)c ∪ C

43
2.6. EXERCÍCIOS cpa/gsa

3. Imagine o experimento aleatório do lançamento de um dado honesto. O espaço amostral é {1, 2, 3, 4, 5, 6}.
Considere os eventos P : resultado é par, e Q : resultado é maior ou igual a 4. Calcule:

(a) P(P )
(b) P(Q)
(c) P(P C )
(d) P(P ∪ Q)
(e) P(P ∩ Q)

4. Se P(A) = 0,3 , P(B) = 0,2 e P (A ∩ B) = 0,1 determine:

(a) P(AC )
(b) P(A ∪ B)
(c) P(AC ∩ B)
(d) P(A ∩ B C )
(e) P[(A ∪ B)c ]
(f) P(AC ∪ B)

5. Discos de policarbonato plástico provenientes de um fornecedor são analisados com relação à re-
sistência a arranhões e a choques. Os resultados da análise de 100 discos estão resumidos a seguir:

resistência a
choque
alta baixa
resistência a alta 80 9
arranhão baixa 6 5

Faça A denotar o evento em que um disco tenha alta resistência a choque e B denotar o evento em
que um disco tenha alta resistência a arranhão. Determine as seguintes probabilidades:

(a) P (A)
(b) P (B)
(c) P (A|B)
(d) P (B|A)

6. Uma empresa de embalagens trabalha com máquinas de corte de papelão. A aspereza nas bordas das
embalagens aumenta à medida que as lâminas da ferramenta de corte vão sendo gastas. Somente
1% das embalagens fabricadas com lâminas novas exibem rugosidade. Esse percentual aumenta
para 3% se as lâminas estiverem com meia-vida e para 5% no caso de lâminas gastas. Se 25% das
lâminas forem novas, 60% mediamente afiadas e 15% forem gastas, que proporção de embalagens
produzidas pela empresa apresentarão aspereza nas bordas?

44
2.6. EXERCÍCIOS cpa/gsa

7. Uma placa de aço contém 20 parafusos. Considere que cinco parafusos não estejam apertados até o
limite apropriado. Quatro parafusos são selecionados ao acaso, sem reposição, para verificação do
torque.

(a) Qual é a probabilidade de que todos os quatros parafusos selecionados estejam apertados até
o limite apropriado?
(b) Qual é a probabilidade de que no mı́nimo um dos parafusos selecionados não tenha sido
apertado até o limite apropriado?

8. O circuito a seguir opera se, e somente se, houver um caminho de equipamentos funcionais da
esquerda para a direita. Considere que os equipamentos falhem independentemente, sendo a pro-
babilidade de falha de cada equipamento mostrada na Figura 2.18. Qual é a probabilidade de que
o circuito opere?

Figura 2.18: Circuito do Exercı́cio 8

9. Em uma operação de enchimento automático, a probabilidade de enchimento incorreto quando o


processo é operado a baixa velocidade é 0,001. Quando o processo é operado a alta velocidade, a
probabilidade de enchimento incorreto é 0,01. Suponha que 30% dos reservatórios sejam enchidos
quando o processo é operado a alta velocidade e o restante sejam enchidos a baixa velocidade.

(a) Qual é a probabilidade de um reservatório incorretamente enchido?


(b) Se um reservatório incorretamente enchido for encontrado, qual é a probabilidade de que ele
tenha sido enchido durante a operação em alta velocidade?

10. Considere o circuito dado na Figura 2.19. Assuma que os equipamentos falhem independentemente,
sendo que a probabilidade de falha de cada equipamento está indicada. Qual é a probabilidade de
que o circuito opere?

Figura 2.19: Circuito do Exercı́cio 10

45
2.6. EXERCÍCIOS cpa/gsa

11. Sabe-se que 6%, 8% e 10% dos parafusos produzidos pelas empresas A, B e C respectivamente, são
defeituosos. Uma empresa de montagens compra 40% dos parafusos que utiliza da empresa A, 40%
da empresa B e o restante da empresa C.
(a) Da compra realizada em um mês, um parafuso é inspecionado. Qual a probabilidade de que
ele seja defeituosa?
(b) Se o parafuso inspecionado apresentar defeito, qual a probabilidade de que tenha sido produzido
pela empresa B?
12. A última pesquisa de amostra de domicı́lios realizada em um bairro da periferia de Belo Horizonte
constatou que 80% das residências possuiam televisão, 60% possuiam rádio e 35% computador.
Além disso 20% dos domicı́lios pesquisados possuiam TV e computador, 15% computador e rádio, e
10% possuiam os três itens da pesquisa (TV, rádio e computador). Qual o percentual de domicı́lios
com TV e rádio?

13. A U.F.M.G. recebe giz de três fabricantes diferentes, digamos A, B e C, numa proporção respec-
tivamente de 60%, 30% e 10%. Testes anteriores demonstram que o percentual de quebra desses
fabricantes é de 2% (fabricante A), 5% (fabricante B) e 7% (fabricante C). Um professor retira
aleatoriamente de uma caixa um giz. Responda:

(a) Qual a probabilidade do giz retirado estar quebrado?


(b) Se o giz estiver quebrado, qual a probabilidade dele ter sido fabricado pelo fornecedor B?
(c) Se o giz estiver inteiro, qual a probabilidade de ter sido fabricado pelo fornecedor C?

14. A variável aleatória X assume os valores relacionados na tabela a seguir, com as correspondentes
probabilidades.

X 0 1 2 3 4 5 6
f(x) 0,04 0,18 0,31 0,28 0,14 0,04 0,01

(a) Calcule a função de probabilidade acumulada F (X), descreva-a detalhadamente e esboce seu
gráfico.
(b) Calcule a P(X ≤ 3) e P(2 ≤ X < 5).
(c) Qual a média e a variância dessa V.A.?

46
Capı́tulo 3

Variáveis Aleatórias Discretas

3.1 Introdução

Nem todo espaço amostral é constituı́do por números. O objetivo de uma variável aleatória é quan-
tificar cada elemento do espaço amostral. Assim definimos:
Definição 7. Uma variável aleatória é uma função que associa um número real a cada resultado do
espaço amostral de um experimento aleatório
Suponha o experimento simples de inspecionar dois itens em uma linha de produção. O espaço
amostral desta experiência é Ω = {DD, DN, N D, N N } onde D representa item defeituoso e N item não
defeituoso. Uma variável aleatória pode ser “número de itens defeituosos observados”.

D D
U
D N
N D
2

N N
1
0

Uma variável aleatória é denotada por um letra maiúscula (por exemplo X) e os valores que ela pode
assumir como xi . No exemplo anterior os valores que a varı́avel aleatória “número de itens defeituosos
observados”pode assumir são x1 = 0, x2 = 1 e x3 = 2.

Desde que X é uma função, o conjunto dos valores possı́veis de uma variável aleatória X é referido
como contradomı́nio de X e será denotado por RX , com RX ⊆ R. A partir deste conceito divimos as
variáveis aleatórias em:
Definição 8. Uma variável aleatória discreta é uma variável aleatória com contradomı́nio finito ou
infinito enumerável.
Uma variável aleatória contı́nua é aquela cujo contradomı́nio é um intervalo ou um subconjunto dos
números reais.

47
3.2. VARIÁVEIS ALEATÓRIAS DISCRETAS cpa/gsa

Exemplos de variáveis aleatórias contı́nuas: peso, altura, corrente elétrica, pressão, temperatura,
tempo.

Exemplos de variáveis aleatórias discretas: número de peças defeituosas em um lote, bits transmiti-
dos que foram recebidos com erros, pessoas doentes em uma amostra da população.

3.2 Variáveis aleatórias discretas

Alguns exemplos de variáveis aleatórias discretas:


1. Um sistema de comunicação por voz de uma empresa possui 48 linhas externas. A cada intervalo
de tempo o sistema é supervisionado e registra-se o número de linhas em uso. Se fizermos X =
número de linhas em uso. Os valores possı́veis de X = {0, 1, 2, . . . , 48}.
2. No processo de fabricação de semicondutores, o fabricante deve se preocupar com o número de
partı́culas contaminantes. Se definirmos a variável aleatória Y = número de partı́culas contami-
nantes em uma pastilha, os valores possı́veis de Y = {0, 1, 2, . . . }
3. Na construção de um prédio as fundações de estacas cravadas devem atingir 15 metros de profundi-
dade. A cada 5 metros o operador registra se houve alteração no ritmo de perfuração previamente
estabelecido. Cada alteração registrada representa um custo adicional de 50 UPCs (unidade padrão
de construção) no custo total da fundação. Como se comporta a variável Z = custo da fundação?
4. O estabelecimento de polı́ticas de abastecimento do Centro Comunitário Saúde Pediátrica de de-
terminado bairro é estabelecido conforme o número de crianças da região. O último censo indicou
que 20% das famı́lias não têm filhos, 30% possuem 1 filho, 35% possuem 2 filhos e as demais se
dividem igualmente entre 3, 4 ou 5 filhos. Definimos a variável N = número de filhos.

3.3 Distribuições de probabilidades e funções de probabilidade

Frequentemente estamos interessados na probabilidade com que uma variável aleatória assume um
valor em particular.

Função de probabilidade Um modelo probabilı́stico consiste em atribuir a cada valor da v.a. X


a sua probabilidade de ocorrência. A função que atribui a cada valor xi de X a sua probabilidade é
chamada de função de probabilidade ou função de massa. Assim, se X é uma variável aleatória
assumindo os valores x1 , x2 , x3 , . . . , xN a função de probabilidade fX (·) associada a X é:

fX (xi ) = P(X = xi ) i = 1, 2, 3, . . . , N

No exemplo da variável aleatória número de peças com defeito observadas, supondo que a linha de
produção é em grande escala e produz 6% de itens defeituosos, a função de probabilidade de X está
representada na tabela abaixo:

x1 x2 x3
X 0 1 2
pi 0,8836 0,1128 0,0036

48
3.3. DISTRIBUIÇÕES DE PROBABILIDADES E FUNÇÕES DE PROBABILIDADE cpa/gsa

Podemos escrever também: 


 0,8836 se x = 0,
fX (x) = 0,1128 se x = 1,

0,0036 se x = 2.

São propriedades da função de probabilidade:

n
X
fX (xi ) ≥ 0 ∀ xi e fX (xi ) = 1
i=1

Variáveis aleatórias são tão importantes que algumas vezes ignoramos o espaço amostral original e
só trabalhamos com a distribuição de probabilidades da v.a. Assim sendo no exemplo da inspeção dos
dois itens, resumimos o experimento nos valores possı́veis de X ({0, 1, 2}) e não no espaço amostral
Ω = {DD, DN, N D, N N }.

Exemplo:

Com os dados do último censo a assistente social do centro de saúde constatou que na região 20% das
famı́lias não têm filhos, 30% possuem 1 filho, 35% possuem 2 filhos e as demais se dividem igualmente
entre 3, 4 ou 5 filhos. Suponha que uma famı́lia seja escolhida aleatoriamente e defina a v.a. N como o
número de filhos desta famı́lia.
(a) Construa a função de probabilidade para N e (b) Desenhe o seu gráfico

Solução:
Se N é o número de filhos na famı́lia temos que os valores possı́veis de N são: {0, 1, 2, 3, 4, 5}. Supondo
que todas as famı́lias têm chances iguais de serem sorteadas:
(a) Função de probabilidade

fN (0) = P(N = 0) = 0,20 fN (1) = P(N = 1) = 0,30 fN (2) = P(N = 2) = 0,35

1 − [fN (0) + fN (1) + fN (2)] 1 − 0,20 − 0,30 − 0,35


fN (3) = fN (4) = fN (5) = = = 0,05
3 3
(b) Gráfico:

fN(n)

0,35
0,30

0,20

0,05

0 1 2 3 4 5 n

49
3.4. FUNÇÕES DE DISTRIBUIÇÃO ACUMULADAS cpa/gsa

3.4 Funções de distribuição acumuladas

Às vezes necessitamos de expressar probabilidades acumuladas. No exemplo anterior poderı́amos estar
interessados na probabilidade da famı́lia sorteada ter 2 ou menos filhos.
Este valor seria:

P(N ≤ 2) = P(N = 0) + P(N = 1) + P(N = 2) = 0,20 + 0,30 + 0,35 = 0,85

Vemos assim que o uso de probabilidades cumulativas é um método alternativo de descrever uma
variável aleatória. Assim definimos:
Definição 9. A função de distribuição acumulada de uma variável aleatória discreta X avaliada em
x, denotada por F (x), é X
F (x) = P(X ≤ x) = f (xi )
xi ≤x

O gráfico abaixo representa a função de distribuição cumulativa da variável aleatória N do exemplo


anterior:

FN (n)
1,00

0,85

0,50

0,20

0 1 2 3 4 5 n

Note que, mesmo se a variável aleatória só pode assumir valores inteiros, a função de distribuição
cumulativa poderá ser definida em valores não inteiros.
Na figura anterior:
F (2,5) = P(N ≤ 2,5) = P(N ≤ 2) = 0,85

Propriedades da função de distribuição cumulativa:

1. Se x < y −→ F (x) ≤ F (y) (F é não decrescente)


2. lim+ F (x) = F (a) (F é contı́nua à direita)
x→a

3. lim F (x) = 0 e lim F (x) = 1


x→−∞ x→∞

50
3.5. MÉDIA E VARIÂNCIA DE UMA VARIÁVEL ALEATÓRIA DISCRETA cpa/gsa

A prova de (1) é simples:


F (x) = P(X ≤ x).
Se x < y =⇒ [X ≤ y] = [X ≤ x] ∪ [x < X ≤ y].

A prova das propriedades (2) e (3) fogem do escopo deste curso. Detalhes podem ser encontrados em
[8].

Podemos, a partir da função de distribuição, determinar a função de probabilidade de uma v.a. como
vemos no exemplo a seguir:

Exemplo:

Suponha que a função de distribuição acumulada da v.a. X e seu respectivo gráfico sejam:

FX(x)
1,00



 0 se x < −2, 0,70

0,2 se − 2 ≤ x < 0,
F (x) =

 0,7 se 0 ≤ x < 2,

1 se 2 ≤ x.
0,20

x
-2 0 2

Pelo gráfico de F (x) podemos ver que os únicos pontos que recebem probabilidade diferente de zero
são −2, 0 e 2 e assim:

f (−2) = 0,2 − 0 = 0,2 f (0) = 0,7 − 0,2 = 0,5 f (2) = 1 − 0,7 = 0,3

Ou seja, a v.a. X assume os valores {−2, 0, 2} com probabilidades respectivamente 0,2; 0,5 e 0,3.

Em geral se a variável aleatória pode assumir os valores x1 < x2 < x3 < . . . ; e se conhecemos F (xk )
para cada xk ∈ RX , podemos escrever:

f (xk ) = F (xk ) − F (xk−1 )

3.5 Média e variância de uma variável aleatória discreta

Dois números são frequentemente usados para resumir a distribuição de uma variável aleatória. A
média é a medida do centro ou meio da distribuição de probabilidade e a variância é a medida da
dispersão ou variabilidade da distribuição. Estas medidas não são caracterı́sticas exclusivas de uma
distribuição, já que podemos ter duas distribuições diferentes com mesma média e mesma variância (veja
figura 3.1) , mas mesmo assim são importantes e úteis.

51
3.5. MÉDIA E VARIÂNCIA DE UMA VARIÁVEL ALEATÓRIA DISCRETA cpa/gsa

0 2 4 6 8 10 0 2 4 6 8 10

Figura 3.1: Distribuições diferentes com mesma média e variância

Vimos no capı́tulo 1 que para uma amostra de dados a média e variância amostrais eram
n n
1X 2 1 X
x̄ = xi e S = (xi − x̄)2 .
n i=1 (n − 1) i=1

Para uma variável aleatória discreta temos:

Definição 10.
A média ou valor esperado de uma variável aleatória discreta X, denotada(o) como µ ou E(X), é
X
µ = E(X) = xk f (xk )
k

A variância de X, denotada por σ 2 ou V (X), é


X X
σ 2 = V (X) = E(X − µ)2 = (xk − µ)2 f (xk ) = x2k f (xk ) − µ2
k k

O desvio padrão de X é √
σ= σ2

Vemos portanto que a média de uma variável aleatória discreta é a média ponderada dos valores
possı́veis de X, onde os pesos são as probabilidades.

De forma similar a variância usa f (x) como peso para multiplicar cada desvio quadrado (x − µ)2 .

A igualdade das fórmulas da variância apresentadas acima pode ser demonstrada usando propriedades
dos somatórios e a definição de µ:
X X X X
V (X) = (x − µ)2 f (x) = x2 f (x) − 2µ xf (x) + µ2 f (x)
x x x x
X X
2 2 2 2 2
= x f (x) − 2µ + µ = x f (x) − µ
x x

Quando mais de uma variável aleatória estiverem envolvidas em um estudo, nas médias e nas variâncias
usaremos um subscrito para diferenciá-las, ou seja:

µX : será a média da v.a. X µY : será a média da v.a. Y


2
σX : será a variância da v.a. X σY2 : será a média da v.a. Y

52
3.5. MÉDIA E VARIÂNCIA DE UMA VARIÁVEL ALEATÓRIA DISCRETA cpa/gsa

Exemplo:

Um canal digital transmite dados com certa probabilidade de erro. Seja X o número de bits recebidos
com erro nos quatro próximos bits transmitidos. Os valores possı́veis de X são {0,1,2,3,4}. Suponha que
tenhamos as seguintes probabilidades:
P(0) = 0,6561 P(1) = 0,2916 P(2) = 0,0486 P(3) = 0,0036 P(4) = 0,0001
Calcule a média e a variância da v.a. X.
Solução:
µ = E(X) = 0f (0) + 1f (1) + 2f (2) + 3f (3) + 4f (4)
= 0(0,6561) + 1(0,2916) + 2(0,0486) + 3(0,0036) + 4(0,0001)
= 0,4

Para calcularmos a variância é conveniente montarmos a tabela:

x x − 0,4 (x − 0,4)2 f (x) f (x)(x − 0,4)2


0 −0,4 0,16 0,6561 0,104976
1 0,6 0,36 0,2916 0,104976
2 1,6 2,56 0,0486 0,124416
3 2,6 6,76 0,0036 0,024336
4 3,6 12,96 0,0001 0,001296

Assim:
5
X
V (X) = σ 2 = f (xi )(xi − 0,4)2 = 0,36
i=1

Algumas propriedades da média e da variância:


1. Se X é uma v.a. não negativa então E(X) ≥ 0
P
Prova: E(X) = x xi pi como xi ≥ 0 e pi ≥ 0 logo E(X) ≥ 0
2. Se X = c então E(X) = c
Prova: Como X = c → P(X = c) = 1 e daı́ E(X) = cP(X = c) = c
3. E(aX + b) = aE(X) + b
Prova: Podemos facilmente
P Pn ver quePnP(aX + b = Pax1 + b) = P P(X = x1 ) = P1 logo E(aX + b) =
n n n
i=1 (axi + b)pi = i=1 (axi )pi + i=1 bpi = a i=1 xi pi + b i=1 pi = aE(X) + b

4. E(X + Y ) = E(X) + E(Y )


5. Para qualquer variável aleatória X temos V (X) ≥ 0
6. Se X = c então V (X) = 0
7. V (aX + b) = a2 V (X)
8. Se X é uma v. aleatória discreta com função de probabilidade f (·) e h uma função de X, então
X
E[h(X)] = h(xk )f (xk )
k

53
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Exemplo:

Com os dados do exemplo anterior onde X é o número de bits com erro nos próximos 4 transmitidos,
qual o valor esperado do quadrado do número de erros?

Solução:
h(x) = X 2 e portanto

E[h(X)] = E(X 2 ) = 02 × 0,6561 + 12 × 0,2916 + 22 × 0,0486 + 32 × 0,0036 + 42 × 0,0001 = 0,52.

(Note que este valor é diferente de E(X)2 = 0,42 = 0,16. A E(X 2 ) não é, de modo geral, igual a E(X)2 ).

3.6 Distribuições discretas mais comuns

Estudaremos nesta seção a distribuição de probabilidade de algumas variáveis aleatórias, que por
possuı́rem caracterı́sticas especiais comuns são agrupadas em “famı́lias”, que recebem denominações que
remetem a estas caracterı́sticas especiais. Estas variáveis aparecem constantemente em aplicações e
experimentos reais, que podem ser modelados a partir do conhecimento das caracterı́sticas destas variáveis
aleatórias.

3.6.1 Distribuição uniforme discreta


A v.a. discreta mais simples é aquela que assume apenas um número finito de valores, cada qual com
a mesma probabilidade. Definimos

Definição 11. Uma variável aleatória X tem uma distribuição uniforme discreta se cada um dos n
valores de seu contradomı́nio, isto é x1 , x2 , . . . , xN tiver igual probabilidade. Assim

f (xi ) = 1/N i = 1, . . . , N

Suponha que X tem distribuição uniforme e que assuma os valores {x1 , x2 , . . . , xN } temos
N
X N
X PN
1 i=1 xi
E(X) = xi pi = xi =
i=1 i=1
N N

PN "P #2 PN PN
N
2 2 i=1 x2i i=1 xi N i=1 x2i − [ i=1 xi ]2
V (X) = E(X ) − [E(X)] = − =
N N N2

Suponha agora que o contradomı́nio de X seja constituı́do pelos inteiros consecutivos a, a + 1, a +


1
2, . . . , b. Vemos que a v.a. assume (b − a + 1) valores, cada um com probabilidade . Assim
(b − a + 1)
podemos calcular:
b µ ¶ b
à b a−1
!
X 1 1 X 1 X X
µ= k = k= k− k
(b − a + 1) (b − a + 1) (b − a + 1)
k=a k=a k=1 k=1
µ ¶
1 b(b + 1) − (a − 1)a b+a
= =
(b − a + 1) 2 2

54
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Observação: Temos usado que:


r(r + 1)
1. A soma dos inteiros 1, 2, . . . , r é igual a .
2
r(r + 1)(2r + 1)
2. A soma dos quadrados 12 , 22 , . . . , r2 é igual a .
6
Essas são propriedades que valem para todo número natural e o leitor pode provar usando o Princı́pio de
Indução Matemática.

b
X µ ¶ · ¸2
2 2 2 1 b+a
V (X) = E(x ) − [E(X)] = k −
(b − a + 1) 2
k=a
" b a−1
# · ¸2
1 X X b+a
2 2
= k − k −
(b − a + 1) 2
k=1 k=1
· ¸ · ¸2
1 b(b + 1)(2b + 1) (a − 1)a(2a − 1) b+a
= − −
(b − a + 1) 6 6 2
· 3 ¸ · ¸ 2
1 2b + 3b2 + b − 2a3 + 3a2 − a b+a
= −
(b − a + 1) 6 2
2 2 2 2
2a + 2ab − a + 2b + b b + 2ab + a
= −
6 4
a2 − 2ab − 2a + b2 + 2b (b − a + 1)2 − 1
= =
12 12

Exemplos:

1. No lançamento de um dado honesto, seja a variável aleatória X o número da face superior. Qual a
esperança e a variância de X?

Solução

6+1 (6 − 1 + 1)2 − 1
E(X) = = 3,5 V (X) = ≈ 2,92
2 12
2. A central telefônica de uma empresa possui 48 linhas externas. Defina a v.a. X como o número de
linhas ocupadas em determinado instante, e considere que X tenha distribuição uniforme discreta.
Se definirmos Y como a proporção das linhas telefônicas que estão em uso em determinado instante,
qual a média e variância de Y ?

Solução
Em primeiro lugar note que se Y é a proporção de linhas ocupadas, então Y = X/48. Ou seja,
Y = aX onde a = 1/48. Pelas propriedades da média e variância de variáveis aleatórias temos que
E(aX) = aE(X) e V ar(aX) = a2 V ar(X). Então calculamos:

1 1 (0 + 48)
E(Y ) = E(X/48) = E(X) = = 0,5
48 48 2
[(48 − 0 + 1)2 − 1]/12 2400/12 200
V (Y ) = V (X/48) = V (X)/482 = = = ≈ 0,087.
2304 2304 2304

55
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

3.6.2 Distribuição de Bernoulli


Experimento de Bernoulli: Dizemos que o experimento ε é de Bernoulli se existem dois resultados
possı́veis: sucesso (S) com probabilidade p e fracasso (F ) com probabilidade (1 − p).

Considere um experimento de Bernoulli com probabilidade p de sucesso. Defina X(S) = 1 e X(F ) = 0.


Sendo assim, P(X = 1) = p e P(X = 0) = 1 − p , o que pode ser representado por

f (x) = px (1 − p)1−x , x = 0 ou x = 1

A variável X assim definida tem Distribuição de Bernoulli, notação: X ∼ Bernoulli(p)

Média e variância: Podemos ver que


1
X
E(X) = xf (x) = 0f (0) + 1f (1) = 0p0 (1 − p)1 + 1P 1 (1 − p)0 = p
x=0

V (X) = E(X 2 ) − [E(X)]2 = 02 (1 − p) + 12 (P ) − p2 = p − p2 = p(1 − p)

Exemplos: lançamento de uma moeda, escolha de uma peça em um lote, etc.

3.6.3 Distribuição binomial


Se realizamos n repetições independentes de um experimento de Bernoulli com probabilidade p de
sucesso, então definimos a variável aleatória X: número de sucessos ocorridos.

X : S → RX com RX ⊆ R

Cálculo da função de probabilidade de X: em primeiro lugar é fácil ver que RX = {0,1,2 . . . ,n}.
Calculemos então P(X = k). Para calcular esta probabilidade, precisamos contar o número de sequências
de tamanho n contendo k S 0 s e n − k F 0 s. Se todos os S 0 s e todos os F 0 s fossem diferentes terı́amos n!
sequências diferentes (número de arranjos de n elementos diferentes).

Por simplicidade tomemos a sequência S1 S2 S3 . . . Sk F1 F2 F3 ...Fn−k . Por considerarmos os S 0 s dife-


rentes, essa sequência é diferente de S2 S1 S3 . . . Sk F1 F2 F3 ...Fn−k e é diferente de qualquer outra sequência
obtida trocando algumas posições dos S 0 s. Então por considerarmos os S 0 s diferentes, cada sequência
está sendo repetida k! vezes. Pelo mesmo argumento cada sequência está sendo repetida (n − k)! vezes
por considerarmos os F 0 s diferentes. Então, como na realidade não há diferenças entre os S 0 s e nem entre
os F 0 s, o número de sequências com kS 0 s e (n − k)F 0 s é igual a:
µ ¶
n! n
=
k!(n − k)! k

Finalmente, desde que as repetições dos experimentos são independentes, a probabilidade de uma
sequência com kS 0 s e (n − k)F 0 s é igual a pk (1 − p)n−k .

Conclui-se, então, que:


µ ¶
n! n k
P(X = k) = pk (1 − p)n−k = p (1 − p)n−k para k = 0, 1, . . . , n.
k!(n − k)! k

56
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Podemos então formalizar a:

Definição 12. A variável aleatória X que conta o número de sucessos em n repetições independentes
de experimentos de Bernoulli (somente dois resultados possı́veis designados como “sucesso”e “fracasso”e
a probabilidade de sucesso em cada tentativa, denotada por p, constante), tem distribuição binomial
com parâmetros n e p, notação X ∼ b(n,p) e função de probabilidade:
µ ¶
n x
f (x) = p (1 − p)n−x , x = 0, 1, . . . , n
x

O nome da distribuição vem da expansão binomial. Lembre-se que para as constantes a e b temos:
n µ ¶
X n k n−k
(a + b)n = a b
k
k=0

Partindo da expansão binomial, fazendo a = p e b = 1 − p podemos checar que a soma das probabili-
dades para uma variável aleatória binomial é igual a 1, conforme esperado, já que
n µ ¶
X n k n−k
a b = (a + b)n = (p + 1 − p)n = 1
k
k=0

Exemplos:

1. A eficiência de uma vacina é de 80%. Sorteamos 3 indivı́duos em uma população vacinada, e estes
são submetidos a um teste de imunização.
(a) Encontre a distribuição do número de individuos imunizados na amostra.
(b) Qual a probabilidade do número de indivı́duos imunizados na amostra ser maior ou igual a 1?
Solução:

(a) Se chamarmos de “sucesso” o fato do indivı́duo sorteado estar imunizado, vemos que p = 0,80.
A v.a. aleatória X, número de sucessos na amostra, pode assumir os valores {0,1,2,3} Vemos
então que X ∼ b(3; 0,8), pois a probabilidade de cada indivı́duo ser imunizado é 0,8 e esta
probabilidade é fixa para todo indivı́duo. Além disso, saber que um indivı́duo é imunizado
não modifica a incerteza sobre os outros indivı́duos, ou seja, os eventos são independentes.
(b)
µ ¶
3
P(x ≥ 1) = P(x = 1) + P(x = 2) + P(x = 3) = 1 − P(x = 0) = 1 − 0,80 0,23
0
· ¸
3!
=1− × 1 × 0,008
0!3!
= 1 − 0,008 = 0,992

2. Uma linha de produção em grande escala produz 6% de itens defeituosos. 30 itens da produção
semanal são observados. Calcular a probabilidade de
(a) Observar no máximo 2 defeituosos?
(b) Observar entre 8 e 10 defeituosos?

57
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Solução

(a) Se X é o número de itens defeituosos na amostra, vemos que X ∼ b(30; 0,06) e assim

X2 µ ¶
30
P(X ≤ 2) = (0,06)k (0,94)30−k
k
k=0
µ ¶ µ ¶ µ ¶
30 30 30
= (0,06)0 (0,94)30 + (0,06)1 (0,94)29 + (0,06)2 (0,94)28
0 1 2
= 0,156256 + 0,299213 + 0,276931 = 0,7324

(b) A probabilidade de observarmos entre 8 e 10 defeituosos:

X10 µ ¶
30
P(8 ≤ X ≤ 10) = (0,06)k (0,94)30−k
k
k=8
µ ¶ µ ¶ µ ¶
30 30 30
= (0,06)8 (0,94)22 + (0,06)9 (0,94)21 + (0,06)1 0(0,94)20
8 9 10
= 0,000252 + 0,000039 + 0,000005 = 0,000297

As figuras a seguir mostram exemplos de distribuições binomiais. Para n fixo (no exemplo 20) à
medida que p aumenta de 0 a 0,5 a distribuição se torna mais simétrica.

Figura 3.2: Distribuição Binomial com n fixo e p crescente


Binomial (20; 0,1) Binomial (20; 0,23)

0,30 0,30

0,25 0,25

0,20 0,20
f(x)

f(x)

0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

x x

Binomial (20; 0,36) Binomial (20; 0,5)

0,30 0,30

0,25 0,25

0,20 0,20
f(x)

f(x)

0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

x x

58
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Figura 3.3: Distribuição Binomial com p fixo e n crescente


Binomial (50; 0,23) Binomial (100; 0,23)

0,15 0,15

0,12 0,12

0,09 0,09
f(x)

f(x)
0,06 0,06

0,03 0,03

0,00 0,00
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200

x x

Binomial (150; 0,23) Binomial (200; 0,23)

0,15 0,15

0,12 0,12

0,09 0,09
f(x)

f(x)

0,06 0,06

0,03 0,03

0,00 0,00
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200

x x

Média e variância: A média e a variância de uma variável aleatória binomial dependem somente
dos parâmetros n e p. Imagine o exemplo anterior da linha de produção e para cada uma das 30 peças
da amostra você definisse novas v.as. X1 , X2 , . . . , X30 tais que:
½
1 se k-ésima amostra fosse defeituosa,
Xk =
0 caso contrário.

Sabemos que cada nova variável aleatória Xk é uma Bernoulli de parâmetro p = 0,06, e que a esperança
de Xk é p. Podemos escrever a v.a. X como:
30
X
X= Xk
k=1

e agora calcular a média de X por (como os Xk0 s são independentes):


à 30 ! 30 30
X X X
E(X) = E Xk = E(Xk ) = p = 30p = 30 × 0,06 = 1,8
k=1 k=1 k=1

Podemos generalizar então para:


Se X ∼ b(n,p), então
µ = E(X) = np

Além disto pode-se provar (foge ao escopo deste curso) que

σ 2 = V (X) = np(1 − p)

59
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

3.6.4 Distribuição geométrica


Suponha novamente um experimento de Bernoulli ε, com probabilidade p de sucesso. Se repetições
independentes de ε são realizadas até que aconteça o primeiro sucesso, defina X : Número de repetições.
Neste caso o contradomı́nio é RX = {1,2,3, . . . }

Cálculo da função de probabilidade de X: Observemos que X = k se nas primeiras k − 1 repetições


acontecem F 0 s (fracassos) e na k−ésima acontece S (sucesso). Portanto a probabilidade de que X seja
igual a k será (1 − p)k−1 p.

Podemos então definir:


Definição 13. Em uma série de repetições de experimentos independentes de Bernoulli, com probabili-
dade p de sucesso, a variável aleatória X definida como o número de repetições até que o primeiro sucesso
ocorra tem distribuição geométrica com parâmetro p, notação X ∼ G(p) e
f (x) = (1 − p)x−1 p x = 1, 2, . . .

O motivo pelo qual essa distribuição é conhecida como geométrica é óbvio. Os termos f (1), f (2), f (3), . . .
formam uma progressão geométrica com razão (1 − p).

Exemplos:
1. De uma linha de produção em grande escala, retiram-se itens até encontrar o primeiro defeituoso. Se
a probabilidade da peça ser defeituosa é 0,01, qual a probabilidade de termos que observar 10 peças?

Solução:
X é número de observações até que o primeiro “sucesso”(neste caso uma peça defeituosa) ocorra.
Logo:
P(X = 10) = f (10) = (1 − p)9 p = (0,99)9 × 0,01 = 0,009135

2. Um médico está testando pessoas procurando uma pessoa com sangue tipo O− . Se na população
7% possuem sangue tipo O− ,
(a) Qual a probabilidade de que ele tenha que testar 20 pessoas até achar a primeira com este tipo
particular de sangue?

Solução:
P(X = 20) = f (20) = 0,9319 × 0,07 = 0,017631
(b) Qual a probabilidade de que ele tenha que testar menos de 10 pessoas para achar a primeira
com sangue O− ?

Solução:
P(X ≥ 10) = 1 − P(X < 10)
" 9 #
X
=1− (1 − p)i−1 p
i=1
= 1 − (0,070000 + 0,065100 + 0,060543 + 0,056305 + 0,052364
+ 0,048698 + 0,045289 + 0,042119 + 0,039171)
= 1 − 0,479589 = 0,520411.

60
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Função de distribuição acumulada: A função de distribuição da variável geométrica pode ser


obtida por:


X
F (k) = P(X ≤ k) = 1 − P(X > k) = 1 − P(X ≥ k + 1) = 1 − (1 − p)j−1 p
j=k+1
 

X X∞ k−1
X
=1−p (1 − p)j = 1 − p  (1 − p)j − (1 − p)j 
j=k j=0 j=0
· k
¸ · ¸
1 (1 − p) − 1 1 + (1 − p)k − 1
=1−p − =1−p
p −p p
= 1 − (1 − p)k

Então
F (k) = 1 − (1 − p)k com k = 1,2, . . .

Propriedade da falta de memória:

A partir da função de distribuição da v.a. geométrica calculada acima, podemos concluir que:
P(X > k) = (1 − p)k com k = 1,2, . . .

Baseado neste resultado, calculamos a probabilidade condicional de que X assuma valores maiores
que (k1 + k2 ), sabendo que X > k1 , para k1 e k2 inteiros positivos. Ou seja, estamos interessados em
calcular:
P(X > k1 + k2 |X > k1 )
Aplicando a definição de probabilidade condicional podemos achar:

P(X > k1 + k2 ,X > k1 )


P(X > k1 + k2 |X > k1 ) =
P(X > k1 )
P(X > k1 + k2 )
=
P(X > k1 )
(1 − p)k1 +k2
=
(1 − p)k1
= (1 − p)k2 = P(X > k2 )

Ou seja, se X ∼ G(p),
P(X > k1 + k2 |X > k1 ) = P(X > k2 )
Esta propriedade é conhecida como falta de memória da distribuição geométrica.

Deixamos como exercı́cio a prova de que:

P(X = k1 + k2 |X > k1 ) = P(X = k2 )

e
P(X ≤ k1 + k2 |X > k1 ) = P(X ≤ k2 )

61
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Exemplo:

Na linha de produção do exemplo anterior, em que a probabilidade de produzir item defeituoso é de


0,01 vimos que a probabilidade de se observar 10 peças para achar a primeira defeituosa é de 0,017631.
Dado que observamos trinta peças sem defeito, qual a probabilidade que achemos o primeiro defeito na
quadragésima observação?

Solução: Pela propriedade de falta de memória, 0,017631.

Média e variância: Se X for uma variável aleatória geométrica com parâmetro p então a média e
a variância de X serão:
1 1−p
µ = E(X) = σ 2 = V (X) =
p p2

Exemplo:

No caso anterior em que o médico está procurando um paciente com sangue tipo O− quantas pessoas
ele espera testar até achar o tipo de sangue desejado?

Solução:
1 1
E(X) = = = 14,3
p 0,07

A figura abaixo mostra exemplos de distribuições geométricas para alguns valores de p

Figura 3.4: Distribuição Geométrica - valores crescentes de p


Geométrica (0,05) Geométrica (0,10)

0,90 0,90

0,80 0,80

0,70 0,70

0,60 0,60

0,50 0,50
f(x)

f(x)

0,40 0,40

0,30 0,30

0,20 0,20

0,10 0,10

0,00 0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30

x x

Geométrica (0,50) Geométrica (0,9)

0,90 0,90

0,80 0,80

0,70 0,70

0,60 0,60

0,50 0,50
f(x)

f(x)

0,40 0,40

0,30 0,30

0,20 0,20

0,10 0,10

0,00 0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30

x x

62
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Observação: Alguns autores definem a variável com distribuição geométrica como aquela que define o
número de repetições independentes de experimentos de Bernoulli com probabilidade de sucesso p, antes
que aconteça o primeiro sucesso. Sob esta definição f (x) = (1 − p)x p x = 0, 1, 2, . . . .

3.6.5 Distribuições binomial negativa


Uma generalização da distribuição geométrica é aquela em que a variável aleatória é o número de
repetições até obtermos o ro sucesso.

Calcular a probabilidade P(X = k) significa calcular a probabilidade de que foram necessárias k


tentativas até obtermos r sucessos, ou seja nas primeiras k − 1 repetições tivemos r − 1 sucessos e k − r
fracassos. Além do mais, a k−ésima repetição resultou em sucesso.
µ ¶
k−1
P(.|. . . . . . . . . . {z
. . . . . . . . . . . .}. S) = (1 − p)k−r pr
r−1
k-1 repetições, r-1 sucessos

Podemos então definir:


Definição 14. Em uma série de tentativas independentes de Bernoulli, com probabilidade constante p
de sucesso, faça a variável aleatória X denotar o número de tentativas até que r sucessos ocorram. Então
X tem distribuição binomial negativa, com parâmetros p e r, notação X ∼ BN (r,p) e
µ ¶
x−1
f (x) = (1 − p)x−r pr para x = r, r + 1, r + 2, . . .
r−1

Como são necessárias pelo menos r tentativas para se obter r sucessos, o contradomı́nio de X é
RX = {r, r + 1, r + 2, . . . }. No caso especial em que r = 1, uma variável aleatória binomial negativa é
uma v.a. geométrica.

Exemplos:
1. Um casal deseja ter duas filhas mulheres. Encontre a distribuição do número de filhos que eles
precisam ter para atingir esta meta, sabendo-se que a cada concepção a chance é a mesma para
qualquer dos dois sexos.

Solução:
Chamando X a variável número de filhos para que sejam 2 mulheres, vemos que X ∼ BN (2; 0,5)
com x ≥ 2. Assim µ ¶
x−1
P (X = x) = (1 − p)x−2 p2 x = 2,3, . . .
1

P(2) = 1 × 0,50 × (0,5)2 = 0,25 P(3) = 2 × 0,51 × 0,52 = 0,25


P(4) = 3 × 0,52 × 0,52 = 0,1875 P(5) = 4 × 0,53 × 0,52 = 0,125
P(6) = 5 × 0,54 × 0,52 = 0,078 P(7) = 6 × 0,55 × 0,52 = 0,047

2. Uma linha de produção em grande escala produz 6% de itens defeituosos. Retiramos sucessiva-
mente amostras da produção até que apareça o quarto item defeituoso. Qual a probabilidade de
que observemos pelo menos 30 itens?

63
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Solução:
Se X é o número de itens observados até que apareça o quarto defeituoso então X ∼ BN (4; 0,06) e

X29 µ ¶
x−1
P(X ≥ 30) = 1 − P(x < 30) = 1 − (0,94)x−4 0,064 = 1 − 0,093143 = 0,906857
x=1
3

O nome Binomial Negativa advém do fato de que na distribuição binomial o número de repetições é
fixo e o número de sucessos varia, na binomial negativa temos o contrário, o número de sucessos é fixo e
o que varia é o número de repetições.

Média e variância: Se X ∼ BN (r,p) então:

r r(1 − p)
µ = E(X) = σ 2 = V (X) =
p p2

Exemplos:
1. Quantos filhos em média o casal deverá ter para ter duas filhas?

2
Solução: µ = E(X) = 0,5 =4
2. Qual o número esperado de retiradas da linha de produção até achar o quarto item defeituoso?

4
Solução: µ = E(X) = 0,06 = 66,7
A figura abaixo mostra alguns exemplos da distribuição binomial negativa, para variações de p com r
fixo e para variações de r com p fixo:
Binomial Negativa (5; 0,1) Binomial Negativa (5; 0,2)

0,16 0,16

0,14 0,14

0,12 0,12

0,10 0,10
f(x)

f(x)

0,08 0,08

0,06 0,06

0,04 0,04

0,02 0,02

0,00 0,00
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120

x x

Binomial Negativa (5; 0,4) Binomial Negativa (5; 0,5)

0,16 0,16

0,14 0,14

0,12 0,12

0,10 0,10
f(x)

f(x)

0,08 0,08

0,06 0,06

0,04 0,04

0,02 0,02

0,00 0,00
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120

x x

64
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Binomial Negativa (5; 0,3) Binomial Negativa (10; 0,3)

0,08 0,08

0,07 0,07

0,06 0,06

0,05 0,05
f(x)

f(x)
0,04 0,04

0,03 0,03

0,02 0,02

0,01 0,01

0,00 0,00
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120

x x

Binomial Negativa (20; 0,3) Binomial Negativa (30; 0,3)

0,08 0,08

0,07 0,07

0,06 0,06

0,05 0,05
f(x)

f(x)
0,04 0,04

0,03 0,03

0,02 0,02

0,01 0,01

0,00 0,00
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120

x x

3.6.6 Distribuição hipergeométrica


Considere uma população formada por N objetos dos quais K são do tipo A e N − K do tipo B.
Suponha que uma amostra de tamanho n será retirada, sem reposição, desta população. Denote X a
variável aleatória que conta o número de objetos tipo A na amostra.
¡ ¢
Cálculo da função de probabilidade de X: Em primeiro lugar, vemos que existem N n formas de
¡K ¢
escolher n objetos de uma população de N objetos. Existem x formas de escolhermos x elementos tipo
¡ −K ¢
A de um grupo de K e Nn−x formas de escolher n − x objetos tipo B de um total de (N − K). Então,
¡ ¢¡N −k¢
pelo princı́pio da multiplicação, existem Kx n−x formas de se escolher n objetos dos quais x do tipo A
e n − x do tipo B. Temos então:

Definição 15. Uma variável aleatória X, que conta o número de objetos do tipo A presentes em uma
amostra aleatória de tamanho n retirada de uma população de tamanho N , contendo K objetos do tipo
A e N − K objetos do tipo B; tem uma distribuição hipergeométrica, notação X ∼ H(K,N,n) e
µ ¶µ ¶
K N −K
x n−x
f (x) = µ ¶ x = 0,1,2,...,n e máx{0,n + K − N } ≤ x ≤ mı́n{K,n}
N
n

As restrições para o contradomı́nio de x se devem a:

Limite inferior: se amostra for maior que o número de objetos tipo B, o menor valor de x será
n − (N − K) = n + K − N .
Limite superior: na amostra não pode haver mais objetos tipo A que o total deles na população ou o
próprio tamanho da amostra.

65
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Exemplos:

1. Uma fábrica produz peças que são embaladas em caixas com 25 unidades. Para aceitar o lote re-
cebido deste fabricante, o controle de qualidade de uma empresa faz o seguinte teste: sorteia uma
caixa do lote e desta caixa sorteia 5 peças sem reposição desta caixa. Se o número máximo de de-
feituosas na amostra for 2 a empresa aceita o lote. Se a caixa sorteada contiver 4 peças defeituosas,
qual a probabilidade do lote ser rejeitado?

Solução:
Se X é o número de peças defeituosas na amostra, então X ∼ H(4,25,5) e
µ ¶µ ¶ µ ¶µ ¶ µ ¶µ ¶
4 21 4 21 4 21
X4
x 5−x 3 2 4 1
P(X > 2) = µ ¶ = µ ¶ + µ ¶ = 0,015810 + 0,000395 = 0,016205
25 25 25
x=3
5 5 5

2. A sala tem 47 homens e 13 mulheres. Se quisermos formar aleatoriamente uma comissão de 6


pessoas, qual a probabilidade de metade serem mulheres?

Solução: µ ¶µ ¶
13 47
3 3
P(X = 3) = µ ¶ = 0,092631
60
6

Média e variância: Se uma variável aleatória tem distribuição hipergeométrica, ou seja, se X ∼


H(K,N,n) então:

N −n
µ = E(X) = np e σ 2 = V (X) = np(1 − p) onde p = K/N
N −1

Exemplo:

Estima-se que na população de Belo Horizonte, de 2,5 milhões de pessoas, 0,5% sejam hipertensos.
Uma pesquisa de um laboratório sorteia 200 pessoas ao acaso na população, qual o número esperado de
hipertensos entre os 200 sorteados?

Solução:
Se X é o número de hipertensos entre os 200 escolhidos, então X ∼ H(12.500,2.500.000,200) e:
12.500
E(X) = 200 × =1
2.500.000

Se compararmos uma variável aleatória hipergeométrica e uma binomial veremos que a média á
calculada da mesma forma e a variância só difere pelo fator
N −n
N −1
chamado de fator de correção para população finita.

66
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

Este fator de correção deve-se ao fato de que no experimento com distribuição hipergeométrica a
amostragem é sem reposição, isto é, a cada escolha a probabilidade de retirarmos um elemento do tipo
A se modifica, ao passo que no experimento binomial esta probabilidade é constante.
No entanto se n for muito pequeno em relação a N esta correção será tão pequena que podemos
aproximar a distribuição hipergeométrica pela binomial:

Veja no exemplo abaixo:


Se formos tirar uma amostra de 8 elementos de uma total de 10, a correção será 10−8
9 = 0,22. Se formos
retirar uma amostra de 8 elementos de uma população de 1000 o fator de correção será 1000−8
999 = 0,993.
Nesta circunstância a distribuição hipergeométrica com parâmetros K, N e n pode ser aproximada
por uma distribuição binomial com parâmetros n e p = n/N .

Exemplo:

A população de um bairro é de 10.000 pessoas das quais 8.000 possuem televisão. Se escolhermos alea-
toriamente uma amostra de 100 moradores, qual a probabilidade de que pelo menos 80 possuam televisão?

Solução:
Seja X o número de pessoas na amostra com televisão em casa. Então X ∼ H(8.000,10.000,100) e a
probabilidade solicitada é: µ ¶µ ¶
8.000 2.000
X100
x 100 − x
P(X ≥ 80) = µ ¶
10.000
x=80
100
Essa conta infindável pode ser aproximada por uma variável binomial com n = 100 e p = 8.000/10.000 =
0,8. A probabilidade solicitada é aproximadamente então:
100 µ
X ¶
100
P(X ≥ 80) = 0,8x (1 − 0,8)100−x
x=80
x

Com auxı́lio de computador achamos 0,4602 e 0,4598 para as duas probabilidades, valores muito
próximos um do outro. O gráfico abaixo mostra a aproximação da hipergeométrica pela binomial com os
dados do exemplo acima:

Comparação entre Hipergeométrica e Binomial

0,10

0,08
H(8.000,10.000,100)

Bin(100;0,8)
0,06
f(x)

0,04

0,02

0,00
50 60 70 80 90 100
X

67
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

3.6.7 Distribuição de Poisson


Considere uma variável aleatória X com distribuição binomial com parâmetros n e p. Quando n é
suficientemente grande e p suficientemente pequeno, defina λ = np, e a função de probabilidade de X
pode ser aproximada por
e−λ λk
P(X = k) = com k = 0,1,2, . . .
k!
Esta é conhecida como função de probabilidade de Poisson. Notação X ∼ P (λ)

Exemplos deste tipo de variável aleatória são:

1. Na edição de um texto, existe uma pequena probabilidade de se digitar um caracter (letra, número,
etc) errado. Desde que existe um número grande de caracteres em uma página de um livro, a função
de probabilidade do número de erros em uma página segue uma distribuição de Poisson.
2. Num jogo de futebol existem 30.480 de torcedores no estádio. Existe uma pequena probabilidade,
igual a 10−6 , de que uma pessoa sofra um acidente durante o jogo. Sob determinadas condições
podemos assumir que existe independência no comportamento das pessoas dentro do estádio. Se
definirmos X : número de pessoas que se acidentam durante o jogo, temos

X ∼ b(30.480,10−6 ) ou X ≈ P (0,03048)

e assim
e−0,03048 0,03048k
P(X = k) = k = 0,1,2, . . .
k!

A variável aleatória de Poison está associada a eventos como:


• número de pessoas que chegam a uma fila em um minuto;
• número de buracos em um quilômetro de estrada;
• número de raios que caı́ram em uma região durante 1 dia;
• número de bactérias em 1 ml de água;
• número de acessos a uma página de internet em um minuto;
• número de partı́culas emitidas por um metal radioativo por segundo;
• número de defeitos em 1 m2 de tecido.

Exemplos:
1. O número de partı́culas α emitidas por minuto por determinado elemento radioativo segue uma
distribuição de Poisson com λ = 5. Qual a probabilidade de haver mais de 2 emissões em um minuto?

Solução:
Seja X o número de partı́culas emitidas por minuto, então X ∼ P (5) e
2
X e−5 5x
P (X > 2) = 1 − P (X ≤ 2) = 1 −
x=0
x!
= 1 − (0,006738 + 0,033690 + 0,084224)
= 1 − 0,124652 = 0,875348

68
3.6. DISTRIBUIÇÕES DISCRETAS MAIS COMUNS cpa/gsa

2. O número médio de erros de datilografia em um livro é de 1,5 por página. Supondo que o modelo
de Poisson sirva para modelar este processo, ache a probabilidade de que em uma página escolhida
ao acaso existam:
(a) nenhum erro
(b) mais de dois erros

Solução:
e−1,5 1,50
P(X = 0) = = e−1,5 = 0,2231
0!
P(X > 2) = 1 − P (x ≤ 2) = 1 − [0,2231 + 0,334695 + 0,251021] = 0,191153

Média e variância: Desde que a distribuição de Poisson aparece como uma aproximação da distri-
buição binomial, é de se esperar que a média seja igual a np = λ e a variância seja igual a np(1 − p) = λ.
Este resultado pode ser provado usando-se as correspondentes definições.

Um resultado importante envolvendo a distribuição de Poisson: se o número de ocorrências de um


evento por unidade de tempo tem distribuição de Poisson com parâmetro λ, então o número de ocorrências
deste evento em um intervalo de tempo de comprimento t tem distribuição de Poisson com parâmetro λt..

Isto é, defina X : número de ocorrências de um evento por unidade de tempo e Xt : número de
ocorrências deste evento em um intervalo de tempo de comprimento t. Se X ∼ P (λ), então Xt ∼ P (λt).
A prova deste resultado foge ao alcance de nossa disciplina. (O leitor interessado pode ver, por exemplo,
em [4]).

Observação: O termo “tempo” no parágrafo anterior é mais amplo do que tempo no sentido literal.
Isto é, podemos contar, por exemplo, o número de buracos por km de estrada; número de erros por página
de um livro, número de irregularidades por m2 de tecido, etc.

Exemplo:

O número de acessos à página da UFMG na internet pode ser modelado como uma variável aleatória
de Poisson com um número médio de 3 acessos por minuto. Calcule:
1. Probabilidade de que a página tenha 190 acessos em uma hora.
Solução Se λ = 3 em um minuto, em uma hora λ = 60 ∗ 3 = 180 então

e−180 180190
P(X = 190) = = 0,022023
190!

2. Número esperado de acessos em 1 dia


Solução Se λ = 3 em um minuto, em um dia λ = 60 ∗ 3 ∗ 24 = 4.320 e como µ = E(X) = λ = 4.320

69
3.7. EXERCÍCIOS cpa/gsa

A figura abaixo mostra alguns exemplos da distribuição de Poisson, para valores crescentes de λ
Poisson (1) Poisson (2)

0,40 0,40

0,35 0,35

0,30 0,30

0,25 0,25
f(x)

f(x)
0,20 0,20

0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

x x

Poisson (5) Poisson (10)

0,40 0,40

0,35 0,35

0,30 0,30

0,25 0,25
f(x)

f(x)

0,20 0,20

0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

x x

3.7 Exercı́cios

1. Considere uma variável aleatória com a seguinte função de probabilidade:

f (x) = (8/7)(1/2)x , x = 1, 2, 3.

Calcule:
(a) P(X ≤ 1)
(b) P(X > 1)
(c) P(2 < X < 6)
(d) P(X ≤ 1 ou X > 1)

2. O espaço amostral de um experimento aleatório é Ω = {a,b,c,d,e,f } e cada resultado é igualmente


provável. Uma variável aleatória é definida como segue:

resultado a b c d e f
x 0 0 1,5 1,5 2 3

Determine a função de distribuição cumulativa da variável aleatória X e esboce seu gráfico.

70
3.7. EXERCÍCIOS cpa/gsa

3. Com os dados da variável aleatória X do exercı́cio anterior determine as seguintes probabilidades:

(a) P(X = 1,5)


(b) P(0,5 < X < 2,7)
(c) P(X > 3)
(d) P(0 ≤ X < 2)
(e) P(X = 0 ou X = 2)

4. Considere uma variável aleatória com a seguinte função de probabilidade:


2x + 1
f (x) = , x = 0, 1, 2, 3, 4.
25
Calcule:
(a) P(X = 4)
(b) P(X ≤ 1)
(c) P(2 ≤ X < 4)
(d) P(X > −10)

5. 6% das barras produzidas em grande escala não suportam um peso de 350 kg. Da produção diária
destas barras testam-se algumas até encontrar a primeira a quebrar quando submetida a este peso.

(a) Calcule a probabilidade de termos que testar pelo menos 6 barras;


(b) Se as primeiras 4 barras não quebraram, qual a probabilidade de termos que testar pelo menos
mais 3 até que a primeira barra se quebre?.

6. Um vôo tem capacidade para 175 passageiros. O gerente da empresa aérea sabe que apenas 92%
das pessoas que fazem reserva realmente viajam. Em função disto ele aceita 185 reservas para este
vôo.
(a) Forneça uma expressão para a probabilidade de que todos os passageiros que comparecerem
ao embarque, tenham condição de viajar;
(b) A probabilidade calculada pela expressão apresentada no item (a) é igual a 0,93162. De 10
vôos realizados, qual a probabilidade de que em no máximo um deles algum(ns) passageiro(s)
que comparecem na hora de embarcar não tenha(m) condição de viajar?
(c) Quais são as suposições que você precisa fazer para abordar os itens (a) e (b)?

7. O número de falhas por metro quadrado de um tecido é uma variável aleatória com distribuição de
Poisson com média igual a 0,2.
(a) Qual a probabilidade de que uma peça de tecido de 10 metros quadrados de tecido tenha no
máximo 5 falhas?
(b) Se você compra 100 peças de tecido de 10 metros quadrados cada, qual a probabilidade, de
que no máximo 2 peças tenham mais de 5 falhas?

71
3.7. EXERCÍCIOS cpa/gsa

8. O número de erros de digitação em uma página de um livro é uma variável aleatória de Poisson
com parâmetro λ = 1. Encontre a probabilidade de que:

(a) Em uma página encontremos no máximo 2 erros.


(b) Em cinco páginas encontremos exatamente 5 erros.

9. A variável aleatória Y assume os valores {−10, −2, 0, 5, y} com igual probabilidade.

(a) Qual o valor de y se E(Y ) = 0?


(b) Qual o desvio padrão da v.a. Y ?

10. Você é o responsável pela linha de produção de parafusos de uma metalurgia. A taxa nominal
de defeitos da linha de produção é de 2%. Para controlar a qualidade da linha, verificando se
efetivamente a taxa de defeitos está dentro do previsto, você quer comparar dois tipos de teste:
No primeiro você retira aleatoriamente parafusos da linha de produção até encontrar o primeiro
defeituoso. No segundo teste você retira 30 parafusos da linha de produção e observa o número de
parafusos defeituosos em sua amostra.

(a) No primeiro teste qual a probabilidade de você retirar 20 parafusos?


(b) No segundo teste, qual a probabilidade de você encontrar exatamente 3 defeituosos?
(c) Você resolveu implantar o segundo teste, que passou a ser realizado todos os dias pela manhã.
Se forem encontrados mais de 2 parafusos defeituosos a linha é parada e entra em manutenção.
Sabendo que a fábrica opera 7 dias por semana, qual a probabilidade de haver 2 paradas para
manutenção na mesma semana?

72
Capı́tulo 4

Variáveis Aleatórias Contı́nuas

4.1 Introdução

Em diversos experimentos úteis no nosso dia a dia, medidas de interesse como

• corrente elétrica em um fio de cobre;


• comprimento de uma peça usinada;
• peso de uma viga de concreto;
• tempo de falha de um componente eletrônico;
podem ser representadas por variáveis aleatórias. O contradomı́nio destas variáveis aleatórias é um
intervalo (finito ou infinito) de números reais. Como o conjunto de valores possı́veis da variável aleatória
X é infinito não enumerável, este contradomı́nio pode ser pensado como um continuum, daı́ o nome de
variáveis aleatórias contı́nuas.

4.2 Distribuições de probabilidades e funções de densidade de


probabilidade

Consideremos a variável X representando o comprimento das barras produzidas por uma empresa.
Se escolhemos 50 barras e medimos o comprimento destas barras podemos construir um histograma
e seu polı́gono de frequência como o representado na figura 1a na próxima página. Se escolhemos
100, 200, 500, 1000 ou 5000 barras temos os histogramas com seus correspondentes polı́gonos de frequência
representados nas figuras 1b a 1f .

Observemos que à medida que aumentamos o tamanho da amostra, o polı́gonoR de frequência torna-se

mais suave. Se fizermos n → ∞ teremos uma função não negativa f tal que −∞ f (x)dx = 1. Essa
função, f , obtida por construção é chamada de função de densidade de probabilidade, ou simplesmente
densidade.

73
4.2. PROBABILIDADE: DISTRIBUIÇÕES E FUNÇÃO DE DENSIDADE cpa/gsa

Histograma de X: comprimento da barra


para amostras sucessivamente crescentes

Histograma de X (n=50) Histograma de X (n=100)

10
20

8
15
Frequência

Frequência
6

10
4

5
2

0 0
98,5 99,0 99,5 100,0 100,5 101,0 98,5 99,0 99,5 100,0 100,5 101,0 101,5
Comprimento em cm Comprimento em cm

Fig 1a Fig 1b

Histograma de X (n=200) Histograma de X (n=500)


35
60

30
50
25
40
Frequência

Frequência

20
30
15

20
10

5 10

0 0
98,4 99,0 99,6 100,2 100,8 101,4 98,55 99,00 99,45 99,90 100,35 100,80 101,25 101,70
Comprimento em cm Comprimento em cm

Fig 1c Fig 1d

Histograma de X (n=1000) Histograma de X (n=5000)


Normal
100

400

80

300
Frequência

60
Frequência

200
40

100
20

0 0
98,5 99,0 99,5 100,0 100,5 101,0 101,5 102,0 98,5 99,0 99,5 100,0 100,5 101,0 101,5 102,0
Comprimento em cm Comprimento em cm

Fig 1e Fig 1f

R∞
Desde que −∞ f (x)dx = 1, é muito natural definir a probabilidade de que X assuma valores no
intervalo [a,b] como a integral de f neste intervalo, isto é, definimos:
Z b
P(a ≤ X ≤ b) = f (x)dx.
a

Podemos provar que P assim definida satisfaz os 3 axiomas da probabilidade.

74
4.2. PROBABILIDADE: DISTRIBUIÇÕES E FUNÇÃO DE DENSIDADE cpa/gsa

A figura a seguir ilustra a probabilidade de a ≤ X ≤ b:

f(x)
P(a < X < b)

a b X

Figura 4.1: Probabilidade determinada a partir da área sob f (x)

Se fizermos a = b, teremos:
Z a
P(X = a) = P(a ≤ X ≤ a) = f (x)dx = 0 ∀a ∈ R.
a

Isto é, se X é uma variável aleatória contı́nua a probabilidade de que ela assuma o valor a é zero,
para qualquer valor de a, número real.

Como consequência disto, temos que:

P(a ≤ X ≤ b) = P(X = a) + P(a < X ≤ b) = P(a < X ≤ b)

Analogamente podemos ver que:

P(a ≤ X ≤ b) = P(a ≤ X < b) = P(a < X < b)

Exemplos:

1. Seja a variável aleatória X a corrente em miliampères em um fio de cobre. Suponha que o con-
tradomı́nio de X é [0; 20] e a função de densidade de probabilidade de X é f (X) = 0,05 para
0 ≤ X ≤ 20 conforme figura abaixo:

f(x)

x
0 15 20

Qual a probabilidade que uma medida na corrente seja menor do que 15mA?

Solução: Z Z
15 15
P(X < 15) = f (x)dx = 0,05dx = 15 × 0,05 = 0,75
0 0

75
4.3. FUNÇÃO DE DISTRIBUIÇÃO ACUMULADA cpa/gsa

2. O diâmetro de um orifı́cio em uma placa metálica é influenciado por diversas alterações no processo
de perfuração, podendo ser modelado por uma variável aleatória com densidade de probabilidade
f (x) = 20e−20(x−12,5) , x ≥ 12,5 mm.

f(x)

x
12,5 12,6

A tolerância do comprador da placas é que o furo possa ter no máximo 12,6 mm. Qual a probabi-
lidade de uma placa ser recusada pelo comprador?

Solução:
Z ∞ Z ∞ ¯∞
¯
P(X > 12,60) = f (x)dx = 20e−20(x−12,5) dx = −e−20(x−12,5) ¯ = 0,135335
12,6 12,6 12,6

4.3 Função de distribuição acumulada

A função de distribuição acumulada, às vezes referida apenas como função de distribuição, também
pode ser usada para descrever uma variável aleatória contı́nua.
Definição 16. A função de distribuição cumulativa de uma variável aleatória contı́nua X avaliada
em a é definida por:
Z a
F (a) = P(X ≤ a) = f (x)dx para − ∞ < x < ∞.
−∞

Exemplos:

1. No exemplo 1 da seção anterior em que X era a corrente em miliampères em um fio de cobre, calcule
a função de distribuição cumulativa de X.

Solução:

Em primeiro lugar se x < 0, f (x) = 0, então

F (x) = 0, para x < 0

e Z a
F (a) = f (x)dx = 0,05x para 0 ≤ x < 20
0
finalmente Z x
F (x) = f (x)dx = 1 para x ≥ 20
0

76
4.4. MÉDIA E VARIÂNCIA cpa/gsa

Assim podemos escrever, 


 0 se x < 0,
F (x) = 0,05x se 0 ≤ x < 20.

1 se x ≥ 20.
O gráfico abaixo mostra F (x):

F(x)

x
0 20

2. Achar a função de distribuição para a variável aleatória “diâmetro do furo”no exemplo 2 da seção
anterior.

Solução:
Temos inicialmente,
F (x) = 0, para x < 12,5
e Z a
F (a) = 20e−20(x−12,5) dx = 1 − e−20(x−12,5) para x ≥ 12,5
12,5

obtemos então ½
0 se x < 12,5,
F (x) =
1 − e−20(x−12,5) se x ≥ 12,5.
O gráfico de F (x) é:

F(x)

x
12,5

4.4 Média e variância

A média e variância de uma variável aleatória contı́nua são definidas de modo similar a uma variável
aleatória discreta, substituindo-se a soma pela integração, assim

77
4.4. MÉDIA E VARIÂNCIA cpa/gsa

Definição 17. Suponha que X seja uma variável aleatória contı́nua com função de densidade de proba-
bilidade f (·).

A média ou o valor esperado de X denotado por µ ou E(X), é


Z ∞
µ = E(X) = xf (x)dx
−∞

A variância de X denotada por σ 2 ou V (X), é


Z ∞ Z ∞
2 2
σ = V (x) = (x − µ) f (x)dx = x2 f (x)dx − µ2
−∞ −∞

E o desvio-padrão de X é σ = [V (X)]1/2 .

As propriedades da média e variância são similares àquelas enunciadas no caso discreto.

Além disso definimos outras medidas de posição para variáveis aleatórias contı́nuas como:

Mediana: a mediana é o valor md que tem a propriedade

P(X ≥ md) = 0,5 e P(X ≤ md) = 0,5

Moda: a moda é o valor mo tal que

f (mo) = max f (x)


x

Primeiro e terceiro quartis: São respectivamente os valores xq1 e xq3 tais que:

P(X ≤ xq1 ) = 0,25 e P(X ≤ xq3 ) = 0,75

quantil xq : P(X ≤ xq ) = q

Exemplos:
1. Qual a média, variância e mediana da v.a. X do exemplo da medida de corrente no fio de cobre?

Solução:
Z 20
0,05x2 ¯¯20
µ = E(X) = xf (x)dx = ¯ = 10
0 2 0
Z 20
0,05(x − 10)3 ¯¯20 50 50
σ 2 = V (X) = (x − 10)2 f (x)dx = ¯ = + = 33,33
0 3 0 3 3
Z md ¯md
¯ 0,5
f (x)dx = 0,5 → 0,05x¯ = 0,5 → md = = 10
0 0 0,05

Neste caso como a função de densidade é simétrica em torno de 10, a média e mediana são iguais.

78
4.4. MÉDIA E VARIÂNCIA cpa/gsa

2. Qual a média e a variância da v.a. X do exemplo do diâmetro do furo na placa metálica?

Solução: Z Z
∞ ∞
µ = E(X) = xf (x)dx = x20e−20(x−12,5)
12,5 12,5

Se fizermos u = x du = dx dv = 20e−20(x−12,5) v = −e−20(x−12,5) , temos


¯∞ Z ∞
¯
µ = E(X) = −xe−20(x−12,5) ¯ + e−20(x−12,5) dx
12,5 12,5
−20(x−12,5) ¯∞
e ¯
= 12,5 − ¯
20 12,5
= 12,5 + 0,05 = 12,55
Z ∞
V (X) = (x − 12,55)2 f (x)dx = 0,0025 (integrando por partes).
12,5

Finalmente calculemos a mediana:


Z md ¯md
¯
f (x)dx = 0,5 → −e−20(x−12,5) ¯ = 0,5 → 1 − e−20(md−12,5) = 0,5
12,5 12,5

e−20(md−12,5) = 0,5 → −20(md − 12,5) = ln(0,5) → 20(md − 12,5) = ln2


md − 12,5 = 0,034657 → md ≈ 12,53

Exemplo a tı́tulo de exercı́cio:


½ 1 x
f (x) = 40 ( 10 + 1) se 0 ≤ x ≤ 20,
0 caso contrário.

(a) Verificar se f (x) é uma função densidade de probabilidade;


(b) Calcular a probabilidade de que X seja menor ou igual a 8;
(c) Calcular a média, mediana e variância de X

Soluções
O gráfico da função é:

f(x)

3/40

1/40

0 10 20 x

79
4.5. DISTRIBUIÇÃO UNIFORME CONTÍNUA cpa/gsa

(a) Para checar se é função de densidade, observemos primeiro que f (x) ≥ 0. Resta checar que
R 20
0
f (x)dx = 1.
Z 20
1 ³x ´ x2 x ¯¯20 400 20
+ 1 dx = + ¯ = + =1 (provando que é).
0 40 10 800 40 0 800 40

(b) A probabilidade pedida é:


Z 8
1 ³x ´ x2 x ¯¯8 64 8
P(X ≤ 8) = + 1 dx = + ¯ = + = 0,08 + 0,20 = 0,28
0 40 10 800 40 0 800 40

(c) Para calcularmos as medidas solicitadas


Z 20 Z 20
x ³x ´ x3 x2 ¯¯20 8000 400
µ = E(X) = xf (x) = + 1 dx = + ¯ = + = 6,67+5 = 11,67
0 0 40 10 1200 80 0 1200 80
Z md
1 ³x ´ x2 x ¯¯md
+ 1 dx = 0,5 → + ¯ = 0,5 → (md)2 + 20(md) − 400 = 0 → md ≈ 12,36
0 40 10 800 40 0
Z 20
σ 2 = V (X) = (x − µ)2 f (x) = E(X 2 ) − [E(X)2 ]
0
Z Z
20 20
x ³x
2 ´ x4 x3 ¯¯20 160000 8000
E(X 2 ) = x2 f (x) = + 1 dx = + ¯ = + = 266,67
0 0 40 10 1600 120 0 1600 120
V (X) = 266,67 − (11,6667)2 ≈ 30,56 (σ = 5,53)

4.5 Distribuição uniforme contı́nua


.
A distribuição contı́nua uniforme é a mais simples, e análoga à sua correspondente discreta

Definição 18. Dizemos que uma variável aleatória contı́nua X tem distribuição uniforme no intervalo
[a,b] se:
1
f (x) = , a ≤ x ≤ b.
(b − a)
Notação X ∼ U [a, b].

Podemos deduzir:
Z b
x x2 ¯¯b b2 a2 b2 − a2 (b − a)(a + b) a+b
µ = E(X) = dx = ¯ = − = = =
a b−a 2(b − a) a 2(b − a) 2(b − a) 2(b − a) 2(b − a) 2
e
Z b
x2 x3 ¯¯b b3 − a3 a2 + ab + b2
E(X 2 ) = dx = ¯ = =
a b−a 3(b − a) a 3(b − a) 3
e portanto
· ¸2
a2 + ab + b2 a+b 4a2 + 4ab + 4b2 − 3a2 − 3b2 − 6ab a2 − 2ab + b2 (b − a)2
V (X) = − = = =
3 2 12 12 12

80
4.5. DISTRIBUIÇÃO UNIFORME CONTÍNUA cpa/gsa

Em resumo temos:
A média e a variância de uma variável aleatória contı́nua uniforme X sobre [a,b] são:

(a + b) (b − a)2
µ = E(X) = σ 2 = V (X) =
2 12

A figura abaixo mostra um exemplo de uma variável aleatória contı́nua uniforme:

f(x)

1/(b-a)

a b x

Para obtermos a função de distribuição da v.a. contı́nua uniforme, vemos que se a < x < b vale:
Z x
1 x ¯¯x x a
F (x) = dx = ¯ = −
a b−a (b − a) a (b − a) (b − a)
Assim a descrição completa de F é:

 0 se x < a,
F (x) = (x − a)/(b − a) se a ≤ x ≤ b,

1 se x > b.
F (x) está representada na figura abaixo:

F(x)

a b x

Exemplo:

Para testar a resistência de tubos de PVC técnicos submetem os mesmos a grandes pressões até que
apareça o primeiro vazamento. Sabendo que os tubos possuem 6 m de comprimento e que o vazamento
tem probabilidade igual de ocorrer em intervalos de comprimento iguais, qual a probabilidade de que o
vazamento ocorra a no máximo 1 metro de uma das extremidades?

Solução:
Se chamarmos X a variável aleatória que indica a distância do vazamento a uma das extremidades
do tubo, vemos que X ∼ U [0,6], e a função de densidade de X é
½
1/6 se 0 ≤ x ≤ 6,
f (x) =
0 caso contrário.

81
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

A probabilidadde de que o vazamento esteja no máximo a um metro das extremidades pode ser escrita
como:
Z 1 Z 6
1 1 x ¯¯1 x ¯¯6 1 6 5 1
P(0 ≤ x ≤ 1) + P(5 ≤ x ≤ 6) = dx + dx = ¯ + ¯ = − 0 + − =
0 6 5 6 6 0 6 5 6 6 6 3

4.6 Distribuição normal

A distribuição normal é uma das distribuições mais importantes na estatı́stica. Esta distribuição
descreve o comportamento de diversas variáveis aleatórias contı́nuas e também é útil para aproximar a
distribuição de diversas variáveis aleatórias discretas.

Diversos histogramas possuem formas similares à forma da distribuição normal. Toda vez que se
replica um experimento aleatório, a variável aleatória que for igual ao resultado médio (ou total) das
réplicas tenderá a ter uma distribuição normal, à medida que o número de repetições for se tornando
grande.

Outro exemplo da importância da distribuição normal é visto no seguinte exemplo: o erro no com-
primento de uma peça usinada é uma soma de um grande número de erros infinitesimais. Efeitos como
variações na temperatura e na umidade, vibrações, mudanças no ângulo de corte, desgates na ferramenta
de corte e nos mancais do torno, variações na velocidade de rotação, variações na montagem e fixação,
variações em inúmeras caracterı́sticas da matéria prima, diferentes nı́veis de contaminação. Se cada com-
ponente produzir um erro de forma independente, em muitos casos pode-se demonstrar que o erro total
tem distribuição normal.

Além disso encontramos a distribuição normal no estudo de diversos fenômenos fı́sicos básicos.

A figura abaixo mostra o histograma da variável altura da tabela estudada em 1.2.2, com uma distri-
buição normal ajustada aos dados.

82
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

Definimos então:
Definição 19. Uma variável aleatória X, com função de densidade de probabilidade
1 (x−µ)2
f (x) = √ e− 2σ2 , − ∞ < x < ∞;
2πσ

é dita ter distribuição normal, com parâmetros µ e σ 2 . O parâmetro µ é qualquer número real e σ
precisa ser positivo. Notação: X ∼ N (µ,σ 2 )
O valor µ determina o centro da da função de densidade e σ 2 a dispersão em torno da média. Os
parâmetros µ e σ são conhecidos respectivamente como parâmetros de locação e escala. Abaixo exemplos
de gráficos da densidade de distribuições normais para alguns valores de µ e σ 2 :

Função de Densidade de Probabilidade Função de Densidade de Probabilidade


Normal; Média=0 Normal
0,14
0,4
Variância Média Variância
1 0,12 5 9
4 10 16
0,3 0,10
Densidade

Densidade

0,08
0,2
0,06

0,04
0,1

0,02

0,0 0,00
-5,0 -2,5 0,0 2,5 5,0 7,5 -5 0 5 10 15 20 25
X X

Algumas propriedades da Distribuição Normal:


1. Se X tem distribuição normal, então E(X) = µ e V (X) = σ 2 .
2. A distribuição normal é simétrica em torno de µ, e por consequência f (µ + a) = f (µ − a).
2
3. Se X ∼ N (µx , σX ) e Y = aX + b, então:
Y tem distribuição normal com média µY = aµX + b e variância σY2 = a2 σX
2
; isto é Y ∼ N (aµX +
2 2
b, a σX ).
4. Como caso particular, seja:
X −µ 1 µ
Z= = X + (− )
σ σ σ
.
Usando a propriedade 3 acima, vemos que Z ∼ N (0,1). A variável Z é conhecida como normal
padrão e sua função densidade, representada por ϕ é:
1 1 2
ϕ(z) = √ e− 2 z , −∞<z <∞

Lembrando a propriedade 2 vemos que ϕ(z) = ϕ(−z)


5. Em geral se uma variável aleatória tem função de densidade simétrica em torno da média, como é
o caso da distribuição normal, a mediana é igual à média.

83
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

6. A densidade da distribuição normal tem dois pontos de inflexão: µ − σ e µ + σ.


7. Se X é uma variável aleatória com distribuição normal,
lim f (x) = 0 e lim f (x) = 0
x→−∞ x→+∞

4.6.1 Cálculo de probabilidade


Para calcularmos a probabilidade no caso normal, considere X ∼ N (µ, σ 2 ). Para a e b, números reias,
calculemos P(a ≤ X ≤ b).

Função de densidade
0,30

0,25

0,20
Densidade

0,15

0,10

0,05

0,00
a b X

Desde que σ é positivo,


µ ¶
a−µ X −µ b−µ
P(a ≤ X ≤ b) = P ≤ ≤
σ σ σ
µ ¶
a−µ b−µ
=P ≤Z≤
σ σ
µ ¶ µ ¶
b−µ a−µ
=P Z≤ −P Z <
σ σ

Desde que Z é contı́nua, esta última probabilidade é igual a


µ ¶ µ ¶ µ ¶ µ ¶
b−µ a−µ b−µ a−µ
P Z≤ −P Z ≤ =Φ −Φ
σ σ σ σ
onde Φ é a função de distribuição normal padrão e é representada na tabela 1 do apêndice. A tabela
referida foi construı́da pelo autor com auxı́lio do software Minitab. Existem outras tabelas para cálculo
da distribuição normal padrão, e devemos estar atentos a como consultar cada uma delas.

Observações:
1. Desde que ϕ(z) = ϕ(−z), pode-se provar que para z > 0,
P(Z ≤ −z) = P(Z ≥ z) = 1 − P(Z ≤ z)

2. Também podemos provar que:


P(−z ≤ Z ≤ z) = 2P(Z ≤ z) − 1

84
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

Exemplo:

Suponha que X ∼ N (100; 1,2). Calcule a P(98,3 ≤ X ≤ 101,4)

Solução:

µ ¶
98,3 − 100 X −µ 101,4 − 100
P(98,3 ≤ X ≤ 101,4) = P √ ≤ ≤ √
1,2 σ 1,2
= P(−1,55 ≤ Z ≤ 1,28)
= P(Z ≤ 1,28) − P(Z ≤ −1,55)
= P(Z ≤ 1,28) − [1 − P(Z ≤ 1,55)]
= 0,899727 − [1 − 0,939429] = 0,839156

Alguns resultados úteis, relativos à distribuição normal, são sumarizados na figura a seguir:

f(x)

:−3F :−2F :−F : :+F :+2F :+3F x


68%

95%

99,7%

Para qualquer variável aleatória normal,

P(µ − σ < X < µ + σ) = 0,6827 P(µ − 2σ < X < µ + 2σ) = 0,9545 P(µ − 3σ < X < µ + 3σ) = 0,9973

A seguir apresentamos alguns exercı́cios para auxiliar na prática de utilização da tabela da Normal
Padrão (X ∼ N (0,1)):

f(x)
P(0 ≤ Z ≤ 1) = 0,341345

P(0 ≤ Z ≤ 2,13) = 0,483414


Se P(0 ≤ Z ≤ zc ) = 0,45
então zc = 1,64 ou 1,65
Se P(0 ≤ Z ≤ zc ) = 0,49
0 Zc x então zc = 2,33

85
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

f(x)

P(−1 ≤ Z ≤ 1) = 2P(0 ≤ Z ≤ 1) = 0,682690

.
Se P(−zc ≤ Z ≤ zc ) = 0,70
então P(0 ≤ Z ≤ zc ) = 0,70/2 = 0,35
−Zc 0 Zc x e zc = 1,04

f(x)

P(−1 ≤ Z ≤ −0,5)

= P(−1 ≤ Z ≤ 0) − P(−0,5 ≤ Z ≤ 0)
.
= P(0 ≤ Z ≤ 1) − P(0 ≤ Z ≤ 0,5)
−Z1 −Z2 0 x = 0,341345 − 0191462 = 0,149883

f(x)
P(Z > 2) = P(Z > 0) − P(0 < Z < 2)

= 0,5 − 0,477250 = 0,02275


P(Z > −2,14) = P(Z > 0) + P(−2,14 < Z < 0)
= 0,5 + 0,483823 = 0,983823
Se P(Z > zc ) = 0,95
0 ZC x então P(Z < zc ) = 0,05 → zc = −1,64

Exemplos de problemas com variáveis aleatórias com distribuição normal:

1. O tempo de vida, em anos, de um certo tipo de bateria tem distribuição normal com média µ = 3
e desvio padrão σ = 0,5. Qual a probabilidade de que uma bateria dure mais de 4 anos?

Solução
µ ¶
X −µ 4−µ
P(X > 4) = P >
σ σ
µ ¶
4−3
=P Z>
0,5
= P(Z > 2) = 1 − P(Z ≤ 2) = 1 − 0,977250 = 0,0228

ou seja, pouco mais de 2% das baterias duram mais de 4 anos.

86
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

2. Se X ∼ N (2,9) calcule
(a) P(X ≤ 4)
Solução:
µ ¶
X −µ 4−2
P(X ≤ 4) = P ≤ = P(Z ≤ 0,6667) = 0,7486
σ 3
(b) P(X > 4)
Solução:

P(X > 4) = 1 − P(Z ≤ 0,6667) = 0,2514


(c) P(X ≤ 0)
Solução:

µ ¶
X −µ 0−2
P(X ≤ 0) = P ≤
σ 3
= P(Z ≤ −0,6667)
= 1 − P(Z ≤ 0,6667) = 1 − 0,748571 = 0,2514

(d) P(0 < X < 4)


Solução:

µ ¶
0−2 4−2
P(0 < X < 4) = P <z<
3 3
= P(−0,6667 < Z < 0,6667)
= P(Z ≤ 0,6667) − P(Z < −0,6667)
= P(Z ≤ 0,6667) − P(Z > 0,6667)
= P(Z ≤ 0,6667) − [1 − P(Z ≤ 0,6667)]
= 2P(Z ≤ 0,6667) − 1
= 1,497142 − 1 = 0,4971

(e) P(3 < X < 4)


Solução:

µ ¶
3−2 4−2
P(3 < X < 4) = P <Z<
3 3
= P(0,3333 < Z < 0,6667)
= P(Z ≤ 0,6667) − P(Z ≤ 0,3333) =
= 0,748571 − 0,629300 = 0,1193

(f) valor de a tal que P(X > a) = 0,05


Solução:
a−µ
Pela regra de padronização sabemos que P(X > a) = P(Z > σ2 ) = 0,05, assim consultando
a tabela temos:

a−2
= 1,64 → a = (1,64 × 3) + 2 = 6,92
3

87
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

3. Em uma prova, a nota média foi 74 e o desvio padrão foi 7. Se 12% da turma obteve conceito A, e
as notas possuem distribuição normal, qual o limite entre as faixas A e B?

Solução:
µ ¶
x − 74
Temos que calcular o valor de x tal que P(X > x) = 0,12 que é o mesmo que P Z > = 0,12
7
Pela tabela vemos que este valor é 1,175, assim resolvemos:
x − 74
= 1,175 → x = (1,175 × 7) + 74 = 82,225
7

Assim o limite entre os conceitos A e B é aproximadamente 82,2.

4.6.2 Aproximações das distribuições binomial e de Poisson pela normal


Em diversos sistemas fı́sicos aparecem variáveis aleatórias com distribuição binomial com valores de
n muito altos, tornando os cálculos de probabilidade extremamente difı́ceis mesmo para calculadoras e
computadores comuns. Nestes casos é conveniente utilizar a aproximação da distribuição binomial pela
normal. Veja a figura abaixo: a área de cada barra é igual à probabilidade binomial de x que pode ser
aproximada pela área sob a função de densidade normal:

0,16
Distribuição n p
Binomial 30 0,5
0,14 Distribuição Média Variância
Normal 15 7,5
0,12

0,10
f(x)

0,08

0,06

0,04

0,02

0,00
5 10 15 20 25
X

Quanto maior for n, melhor a aproximação:

0,09

0,08

0,07

0,06

0,05
f(x)

0,04

0,03

0,02

0,01

0,00
30 40 50 60 70
X

88
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

Se lembramos que para uma variável X ∼ Bin(n,p) nós temos

E(x) = np V (X) = np(1 − p)

então usaremos para aproximar a distribuição desta variável uma distribuição normal com média
µ = np e variância σ 2 = np(1 − p).

Exemplo:

Em um canal digital de comunicação o número de bits recebidos com erro é uma variável aleatória
binomial com probabilidade 1×10− 5. Se 16 milhões de bits forem transmitidos, qual será a probabilidade
de se ter mais de 150 erros?

Solução:
Como X ∼ Binomial(16.000.000; 1 × 10− 5) temos

P(X > 150) =1 − P(X ≤ 150)


150 µ
X ¶
16.000.000
=1 − (10−5 )x (1 − 10−5 )16.000.000−x
x=0
x

Como este é um cálculo difı́cil, usamos a aproximação por uma normal com
p
µ = np = 16.000.000 × 10−5 = 160 e σ = 160(1 − 10−5 ).

Usando a padronização podemos calcular:

à !
X − 160 150 − 160
P(X > 150) =P p >p
160(1 − 10−5 ) 160(1 − 10−5 )

=P(Z > −0,79) = P(Z < 0,79) = 0,785

Cabe ressaltar que a distribuição binomial só é simétrica para p = 0,5, e portanto a aproximação pela
normal será uma boa aproximação para valores de p próximos a 0,5 com n suficientemente grande. À
medida que n aumenta a aproximação vai melhorando mesmo para p não próximos de 0,5

Também uma variável aleatória de Poisson pode ser aproximada pela distribuição normal. Assim:

Se X for uma variável aleatória de Poisson com E(X) = λ e V (X) = λ então


X −λ
Z= √
λ
é aproximadamente uma variável aleatória normal padrão para valores de λ suficientemente grandes.

Exemplo:

O número de veı́culos que entram por minuto no campus da UFMG pela portaria da Av. Antônio
Carlos tem distribuição de Poisson com λ = 10. Calcule a probabilidade aproximada de que em uma

89
4.6. DISTRIBUIÇÃO NORMAL cpa/gsa

hora entrem no máximo 650 veı́culos.

Solução:
Seja X : número de veı́culos que entram por aquela portaria em 60 minutos, então X ∼ P (600).
µ ¶ µ ¶
X − 600 650 − 600 50
P(X ≤ 650) ≈ P √ ≤ √ ≈P Z≤ = P(Z ≤ 2,04) = 0,979325
600 600 24,495

A probabildade exata é:


650 −600
X e 600x
P(X ≤ 650) = = 0,979346
x=0
x!

Alguns autores sugerem no caso binomial usar a aproximação normal se np ≥ 5 e no caso da Poisson
quando λ > 15. Essas sugestões foram dadas em épocas em que os recursos computacionais eram escassos
ou limitados. Atualmente essas sugestões não precisam ser seguidas pois , por exemplo, quaiquer pacotes
estatı́sticos assim como planilhas eletrônicas calculam probabilidades envolvendo a variável aleatória de
Poisson com λ > 15.

A√figura abaixo ilustra a aproximação de uma distribuição de Poisson com λ = 15 por uma normal
(15, 15). Esta aproximação melhora à medida que λ aumenta.

Distribuição Lambda
0,10 Poisson 15
Distribuição Média Desv. Pad.
Normal 15 3,87298

0,08

0,06
f(x)

0,04

0,02

0,00
0 5 10 15 20 25 30
X

Exemplo:

Considere que o número de bactérias em 1 cm3 de esgoto recebido por determinada estação de trata-
mento tenha distribuição Poisson com média de 700. Se analisarmos 1 cm3 qual a probabilidade de que
menos de 750 bactérias sejam encontradas?

Solução:
A probabilidade exata é:
750 −700
X e 700x
P(X ≤ 750) =
x=0
x!

90
4.7. DISTRIBUIÇÃO EXPONENCIAL cpa/gsa

Como os cálculos são complicados podemos aproximar por


µ ¶
750 − 700
P(X ≤ 750) = P Z ≤ √ = P(Z ≤ 1,89) = 0,970621
700

O resultado exato da Poisson obtido pelo Minitab é 0,970799.

4.7 Distribuição exponencial

Vimos que a variável aleatória discreta de Poisson contava o número de ocorrências em uma unidade
de medida como tempo, comprimento, área, etc.

Voltando à subseção 3.6.7, vimos que se o número de ocorrências por unidade de “tempo” tem dis-
tribuição de Poisson com parâmetro λ, então o número de ocorrências em um intervalo de tempo de
comprimento t tem distribuição de Poisson com parâmetro λt.

Consideremos agora a variável aleatória Y : tempo até a primeira ocorrência deste evento. Encontre-
mos a função de distribuição de Y :

Desde que Y é não negativa, para y > 0,

e−λy (λy)0
P(Y > y) = P(Xy = 0) = = e−λy
0!

Observe que Y > y se e somente se o evento não ocorreu até o instante y; ou seja Xy = 0.

E assim ½
0 se y ≤ 0,
P(Y ≤ y) = F (y) =
1 − e−λy se y > 0.

Uma variável aleatória com essa função de distribuição é dita ter distribuição exponencial com
parâmetro λ. Notação X ∼ exp(λ). A função de densidade é dada por:

f (x) = λe−λx x>0

Pode-se provar que o tempo entre duas ocorrências consecutivas tem também distribuição exponencial
com o mesmo parâmetro λ.

Observação: Alguns textos usam a representação


½ 1 −1x
λe se x > 0,
λ
f (x) =
0 caso contrário.

Se a variável aleatória X tem distribuição exponencial com parâmetro λ então:


1 1
E(X) = e V (X) =
λ λ2

91
4.7. DISTRIBUIÇÃO EXPONENCIAL cpa/gsa

A figura abaixo mostra a densidade de uma variável exponencial para alguns valores de λ

0,5

2 Valores de λ
0,4

0,3
f(x)

0,5
0,2

0,1
0,1

0,05
0
1 2 3 4 5
x

Exemplos:

1. Suponha que a duração de certo equipamento eletrônico tenha distribuição exponencial (em horas)
com taxa λ = 0,001. Calcule:
(a) A probabilidade de o equipamento dure pelo menos 2.000 horas.

Solução:
Se X ∼ Exp(0,001) então
Z ∞
P(X ≥ 2000) = 0,001e−0,001x dx
2000
Z 2000
=1− 0,001e−0,001x dx
0
¯2000
¯
= 1 + e−0,001x ¯ = 1 + e−2 − 1 = e−2 = 0,1353
0

(b) A média e mediana do tempo de duração do equipamento.

Solução:

1
E(X) = µ = = 1.000 horas.
λ
Z md Z md ¯md
f (x)dx = 0,5 → 0,001e−0,001x dx = 0,5 → −e−0,001x ¯0
0 0

92
4.7. DISTRIBUIÇÃO EXPONENCIAL cpa/gsa

resolvendo a equação:

1 − e−0,001md = 0,5
e−0,001md = 0,5
ln(e−0,001md ) = ln(0,5)
−0,001md = −ln(2)
−0,69315
md = = 693,15 horas
−0,001

2. O tempo entre acessos a determinado servidor da web (em segundos) tem distribuição exponencial
com parâmetro 2.
(a) Ache a média e o desvio padrão do tempo entre acessos.

Solução:

Se X ∼ Exp(2) então E(X) = 0,5 e S = 0,25 = 0,5 segundos.
(b) Calcule a probabilidade do tempo entre dois acessos ser menor que 0,5 segundos.
Solução:
Z 0,5 ¯0,5
P(X ≤ 0,5) = 2e−2x dx = −e−2x ¯0 = 1 − e−1 = 0,6321
0

Definição 20. Propriedade de Falta de Memória

Para uma variável aleatória exponencial X, e t1 e t2 > 0

P(X > t1 + t2 , X > t1 )


P(X > t1 + t2 |X > t1 ) =
P(X > t1 )
P(X > t1 + t2 )
=
P(X > t1 )
e−λ(t1 +t2 )
=
e−λt1
−λt2
=e
= P(X > t2 )

Esta propriedade é conhecida como falta de memória da distribuição exponencial.

Na prática, se disséssemos que o tempo até a primeira falha de um equipamento tem distribuição
exponencial, seria o mesmo que dizer que a probabilidade de falha num equipamento usado seria a mesma
de um equipamento novo, o que é impossı́vel. Outras distribuições são usadas para modelar problemas
de tempo até a falha ou confiabilidade de sistemas ou equipamentos. Apresentaremos algumas delas a
seguir.

93
4.8. DISTRIBUIÇÕES DE ERLANG E GAMMA cpa/gsa

4.8 Distribuições de Erlang e Gamma

4.8.1 Distribuição de Erlang


Como vimos na seção anterior a variável aleatória exponencial mede o “tempo” até a primeira
ocorrência de um processo de Poisson. Uma generalização desta distribuição é aquela variável aleatória
que mede o “tempo” até a r-ésima ocorrência deste evento. Definimos então:

Definição 21. A variável aleatória X, que é igual ao comprimento do intervalo de tempo até que r
ocorrências de um processo de Poisson com média λ > 0 aconteçam tem uma distribuição de Erlang
com parâmetros λ e r. A função de densidade de probabilidade de X é:

λr xr−1 e−λx
f (x) = , com x > 0 e r = 1, 2, . . .
(r − 1)!

A dedução dessa função de densidade escaa ao alcance da disciplina, o leitor interessado pode consul-
tas, por exemplo, [8].

A média e variância de uma variável aleatória de Erlang com parâmetros lambda e r são:
r r
µ = E(X) = σ 2 = V (X) =
λ λ2

4.8.2 Distribuição Gamma


A distribuição de Erlang é um caso especial da distribuição Gama. Se o parâmetro r de uma variável
aleatória de Erlang não for inteiro, então a variável aleatória terá uma distribuição Gama. Como na
densidade de Erlang o parâmetro r aparece como fatorial, temos que generalizar a função fatorial, pelo
que chamamos função gama definida por:
Z x
Γ(r) = xr−1 e−x dx, para r > 0
0

Pode-se demonstrar que a integral na definição da função gama é finita e que:

Γ(r) = (r − 1)Γ(r − 1)

Assim se r for um inteiro positivo como na distribuição de Erlang, temos

Γ(r) = (r − 1)!

A função de densidade de probabilidade da variável aleatória com distribuição Gama é:

λr xr−1 e−λx
f (x) = , com x > 0 e r > 0
Γ(r)
A média e variância de uma distribuição Gama também são:
r r
µ = E(X) = e σ 2 = V (X) =
λ λ2

94
4.9. DISTRIBUIÇÃO DE WEIBULL cpa/gsa

A figura abaixo mostra a função de densidade de uma variável aleatória Gama para alguns parâmetros
r e λ:

r λ
0,8 1 1
8,3 2
7,5 3,75
0,6

0,4

0,2

0
0 2 4 6 8 10 12

Veremos oportunamente um caso especial da distribuição Gama, em que o parâmetro λ = 1/2 e r igual
a um dos valores 1/2, 1, 3/2, 2, . . . . É a distribuição Qui-quadrado, usada com frequência na estimação
por intervalos e testes de hipóteses, que serão estudados nos próximos capı́tulos.

4.9 Distribuição de Weibull

A distribuição de Weibull é usada para modelar o tempo até uma falha de muitos sistemas fı́sicos
diferentes. Os parâmetros da distribuição são flexı́veis e servem para modelar sistemas em que o número
de falhas aumenta com o tempo, diminui com o tempo ou permanece constante.

Definição 22. A variável aleatória X com função de probabilidade

β ³ x ´β−1 −(x/δ)β
f (x) = e para x > 0
δ δ
é dita ter distribuição de Weibull com parâmetros δ > 0 e β > 0 δ é chamado parâmetro de escala e
β parâmetro de forma.

Você pode verificar que quando β = 1 a distribuição de Weibull se reduz à distribuição exponencial.

A função de distribuição cumulativa é frequentemente utilizada para calcular as probabilidades. Pode-


se obter o seguinte resultado:

Se X ∼ W eibull(δ, β) então teremos:


½
0 se x ≤ 0,
F (x) = x β
1 − e−( δ ) se x > 0.

95
4.10. DISTRIBUIÇÃO LOGNORMAL cpa/gsa

A flexibilidade da distribuição Weibull pode ser atestada pelos gráficos das funções de densidade
mostrados na figura abaixo.

δ β
0,8
1,0 1,0
3,4 2,0
4,5 6,2
0,6 11,5 19,0
2
f(x)

0,4

0,2

0
0 2 4 6 8 10 12

4.10 Distribuição Lognormal


Outra distribuição que aparece com frequência na análise de experimentos de análise de falhas, con-
fiabilidade e análise de sobrevivência, é a distribuição Lognormal.
Registramos a seguir a densidade, média e variância da variável aleatória com distribuição Lognormal,
com parâmetros de locação e escala respectivamente µ e σ 2 , além de ilustrarmos com o gráfico de f (x)
para alguns valores de σ 2 :

1 (ln(x)−µ)2 2
³ 2 ´ 2
f (x) = √ e− 2σ2 , 0 < x < ∞; E(X) = eµ+(σ /2)
; V (X) = eσ − 1 e2µ+σ .
x 2πσ 2

0,6
m° s°
°2
1,0 0,500
0,5
1,0 0,250
1,0 0,125

0,4 1,0 5,000


f(x)

0,3

0,2

0,1

0
0 2 4 6 8 10 12
x

96
4.11. EXERCÍCIOS cpa/gsa

4.11 Exercı́cios

1. Uma empresa de construção dispõe de 200 operários para trabalhar nas suas obras. De acordo
com histórico da empresa, 1% destes operários faltam ao serviço. A empresa enfrentará sérias
dificuldades se mais de 4 operários faltarem ao serviço em um determinado dia.
(a) Forneça uma expressão para a probabilidade de que em um dia determinado a empresa enfrente
sérias dificuldades. Aproxime convenientemente esta probabilidade;
(b) Calcule a probabilidade de que em 10 dias, a empresa não tenha sérias dificuldades em pelo
menos 8 deles. Que suposição é necessário assumir neste item?

2. As notas de uma prova de um concurso nacional se distribuem de acordo a uma normal com média
igual a 120,6 e desvio padrão igual 5,8.
(a) Qual a probabilidade de que a nota de um estudante esteja entre 112,5 e 126,5?
(b) Se 65 candidatos são escolhidos ao acaso, aproxime a probabilidade de que pelo menos 50 deles
tenham nota entre 112,5 e 126,5;
(c) Qual será a nota mı́nima aprovatória se 25% dos candidatos serão admitidos?.

3. O tempo, em horas, que uma equipe leva para realizar um tipo de tarefa tem distribuição exponencial
com média igual a 200 horas.

(a) Qual a probabilidade de que a próxima tarefa deste tipo seja executada em menos de 150
horas?
(b) Se 10 equipes igualmente eficientes realizam, cada uma, uma destas tarefas, qual a probabili-
dade de que no máximo uma equipe leve mais de 150 horas para completá-la?

4. O tempo de vida, em anos, de certo tipo de equipamento tem distribuição de Weibull com parâmetro
de forma β = 2,274 e parâmetro de escala δ = 4,391.
(a) Se o tempo de garantia destes aparelhos é de 18 meses, qual a probabilidade de que um
aparelho, escolhido ao acaso, atenda à garantia?
(b) Qual deve ser o tempo de garantia se quisermos que 90% dos aparelhos atendam esta garantia?.

5. O tempo, em minutos, de utilização de um caixa eletrônico por clientes de um certo banco, foi
modelado por uma variável T com densidade Exponencial(5). Calcule:
(a) P(T < 2);
(b) P(T ≤ 5|T > 3);
(c) Um número a tal que P(T ≤ a) = 0,8. Qual o valor e a interpretação de a?

6. O peso contido em pacotes de arroz tem distribuição normal com média igual a 5.000 gramas e
variância igual a 1600 gramas2

97
4.11. EXERCÍCIOS cpa/gsa

a-) Qual a probabilidade de que um pacote contenha peso entre 4.944 e 5.056 gramas?
b-) Se 15 pacotes são escolhidos ao acaso, qual a probabilidade de que no máximo dois deles
contenham peso fora dos limites dados em (a)?
c-) Se 150 pacotes são escolhidos ao acaso, aproxime a probabilidade de que no mı́nimo 15 desses
pacotes e no máximo 30 contenham peso fora dos limites em (a).

7. O peso de ruptura de certo tipo de barras tem distribuição normal. Mediu-se o peso de ruptura 16
dessas barras, encontrando-se uma média de x̄ = 289,2 kg e uma variância amostral S = 18,49 kg 2 .

(a) Encontre um intervalo de 90% de confiança para a média do peso de ruptura dessas barras.
(b) Teste, ao nı́vel α = 0,01, H0 : µ = 300 contra H1 : µ 6= 300.
(c) Teste, ao nı́vel α = 0,05, H0 : σ 2 = 15 contra H1 : σ 2 6= 15.

8. Você fabrica vergalhões de aço para construção cuja resistência à tração é uma variável aleatória
normal com média 5.000 kg/cm2 e variância 400 kg 2 /cm4 .

(a) Qual a probabilidade da resistência da barra ficar entre 4.974 e 5.026kg/cm2 ?


(b) Qual o valor (r) da resistência , se 95% das barras produzidas possuem resistência maior que
(r)?
(c) Qual o percentual de barras produzidas com resistência menor ou igual a 5.031 kg/cm2 ?

9. Você está submetendo corpos de prova de concreto, cuja resistência à compressão é uma variável
aleatória normal com média 400 kg/cm2 e variância 25 kg 2 /cm4 , a testes de ruptura.
(a) Qual a probabilidade da resistência do corpo de prova ficar entre 390 e 405kg/cm2 ?
(b) Qual o valor (r) da resistência , se 95% dos corpos de prova apresentarem resistência maior
que (r)?
(c) Qual o percentual de corpos de prova com resistência menor ou igual a 405,4 kg/cm2 ?

10. O tempo de vida de um certo tipo de óleo isolante tem distribuição Exponencial com parâmetro
λ = 0,2 anos.
(a) Se o fabricante desse equipamentos deseja oferecer uma garantia de tal forma que o tempo de
vida de 80% do óleo vendido ultrapasse o tempo de garantia, qual deve ser esse tempo?
(b) Se uma partida de óleo atendeu o tempo de garantia, qual a probabilidade que ele dure por
mais um ano?

11. Um estudante de pós-graduação está submetendo sua dissertação para correção de um revisor que
cobra R$0,50 por cada erro de digitação encontrado. Sabendo-se que o número de erros por página
é uma variável de Poisson com parâmetro λ = 0,5; responda:

(a) Se a tese tem 100 páginas, indique a probabilidade do custo de revisão ser no máximo R$20,00?
(b) Qual é aproximadamente a probabilidade de que o custo de revisão seja no máximo R$20,00?

98
Capı́tulo 5

Inferência

5.1 Inferência estatı́stica

Nesse último capı́tulo abordaremos os conceitos fundamentais de Inferência. No capı́tulo 1 descreve-


mos e representamos graficamente amostras obtidas de uma população. Nesse capı́tulo mostraremos
como usar a informação obtida a partir da amostra para “inferir” sobre a população. Infelizmente, ao
fazer inferência estamos sujeitos a erros. Uma forma de medirmos esses erros é usando ferramentas de
probabilidade, algumas das quais vistas no capı́tulo 2.

A Inferência Estatı́stica pode ser dividida em duas partes: estimação de parâmetros, apresentada
na seção 5.3 e testes de hipóteses, que serão estudados na seção 5.4.

Imagine que um engenheiro de estruturas esteja analisando a resistência à compressão do concreto


usado em uma obra. Esta resistência sofre variações devidas a diferenças nas matérias primas, erros de
dosagem, mudanças na forma de concretagem, etc. e portanto o engenheiro está interessado em estabe-
lecer a resistência média. Na prática ele irá usar corpos de prova (amostras) para calcular um número
que seja um valor razoável para a média verdadeira. Este número é chamado de estimativa.

Considere agora que dois tipos de cimento c1 e c2 possam ser usados para preparação do concreto. O
engenheiro conjectura que o cimento c1 resulta em uma mistura com maior resistência do que a obtida
com o cimento c2 . O teste de hipóteses estatı́sticas resolve problemas deste tipo. Neste caso a
hipótese seria que a resistência média do concreto usando o cimento c1 seria maior que a do concreto
obtido com o cimento c2 .

5.2 Amostragem aleatória

Suponhamos que estamos produzindo parafusos e estes parafusos devem cumprir certas especificações
para serem aceitos no mercado. Estas exigências implicam em que µ = 10 cm e σ = 0,2 cm, onde µ e
σ são respectivamente a média e o desvio padrão da variável aleatória X = comprimento do parafuso
que estamos produzindo. Se atendermos às especificações acreditamos que 95% de nossa produção será
aceita no mercado. Nossa primeira tarefa será fazer uma produção piloto, retirar uma amostra de ta-
manho n dela, e calcular X̄n e Sn . Se estes valores ficarem perto de 10 e 0,2 respectivamente, temos
indı́cio de que podemos começar a produzir em grande escala. Uma segunda tarefa será achar duas
funções L(X̄n ,σn ) e S(X̄n ,σn ) tais que P(L(X̄n ,σn ) ≤ X ≤ S(X̄n ,σn )) = 0,95. Dependendo dos valores
de L e S nossa linha de produção será liberada ou terá que ser submetida a algumas calibrações adicionais.

99
5.2. AMOSTRAGEM ALEATÓRIA cpa/gsa

Suponhamos finalmente que, depois de certo tempo de produção, verificamos que mais de 5% da nossa
produção não está sendo aceita no mercado. Um primeiro motivo da rejeição de nosso produto poderia
ser o fato de que a média deixou de ser 10. Se um comprador devolveu uma caixa de parafusos, porque X̄
encontrada naquela caixa foi menor que 10, então poderı́amos acreditar que precisamos reajustar nossa
linha de produção para recuperar µ = 10; mas farı́amos isto depois de verificar mediante um “teste de
hipóteses”a afirmação do nosso comprador.

Podemos agora definir:


Definição 23. Seja X uma variável aleatória com função de densidade (f.d.p.) fX (x; θ). Sejam
X1 ,X2 , . . . ,Xn observações independentes de X. Dizemos então que X1 ,X2 , . . . ,Xn é uma amostra
aleatória de tamanho n da variável X.

Seja X uma variável aleatória com função de densidade f (·). Se X1 ,X2 , . . . ,Xn é uma amostra aleatória
de X, estabelecemos, sem prova, que a função de densidade conjunta do vetor X = (X1 ,X2 , . . . ,Xn )
avaliado no ponto (x1 ,x2 , . . . ,xn ) é dada por

f (X1 ,X2 , . . . ,Xn ) = f (x1 )f (x2 ) . . . f (xn )


Se a densidade depende de um parâmetro θ, denotaremos

f (X1 ,X2 , . . . ,Xn ; θ) = f (x1 ; θ)f (x2 ; θ) . . . f (xn ; θ)

Exemplo:

Supondo que X ∼ N (µ,σ 2 ), isto é, X tem distribuição normal com média µ e variância σ 2 e seja
X1 ,X2 , . . . ,Xn uma amostra aleatória de X; então a densidade conjunta avaliada no ponto (x1 ,x2 , . . . ,xn )
é dada por:
     
1 (x1 − µ)2 1 (x2 − µ)2 1 (xn − µ)2
−   −   −  
1 2 σ 2 1 2 σ 2 1 2 σ2
f (X1 ,X2 , . . . ,Xn ; µ,θ) = √ e √ e ... √ e
σ 2π σ 2π σ 2π

ou
 Pn 
µ ¶n 1 i=1 (xi − µ)2
−  
1 2 σ2
f (X1 ,X2 , . . . ,Xn ; µ,θ) = √ e
σ 2π

Nesse caso o parâmetro θ é bidimensional, θ = (µ,σ 2 ).

Chamamos a atenção para a diferença entre uma amostra (x1 ,x2 , . . . ,xn ) como definido no capı́tulo
1 e uma amostra aleatória X1 ,X2 , . . . ,Xn . Para ilustrar esta diferença, imaginemos que estamos inves-
tigando o comprimento dos parafusos citados no parágrafo anterior. Então X1 ,X2 , . . . ,Xn são variáveis
aleatórias independentes representando o comprimento dos parafusos antes da medição efetiva. Depois
de fazermos as medições teremos X1 = x1 , X2 = x2 , . . . , Xn = xn ; resumindo, amostra é a realização de
uma amostra aleatória.

A finalidade principal de se tomar uma amostra aleatória é obter informações sobre os parâmetros
desconhecidos da população. Para isto usamos estatı́sticas.

100
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Definição 24. Uma estatı́stica é qualquer função das observações em uma amostra aleatória.

Já vimos o conceito de estatı́stica anteriormente. Se X1 ,X2 , . . . ,Xn for uma amostra aleatória
de tamanho n, então a média da amostra X̄, a variância da amostra S 2 , a amplitude da amostra
[max(X1 ,X2 , . . . ,Xn ) − min(X1 ,X2 , . . . ,Xn )] são exemplos de estatı́sticas.

Uma das principais aplicações da estatı́stica é obtenção de estimativas para parâmetros da população
(tais como média, variância, proporção, etc.). Normalmente usa-se a letra grega θ para representar o
parâmetro que se quer estimar.

Em geral, se X for uma variável aleatória com distribuição de probabilidades f (x), caracterizada por
um parâmetro desconhecido θ e se X1 ,X2 , . . . ,Xn for uma amostra aleatória de tamanho n de X, então
a estatı́stica θ̂ = h(X1 ,X2 , . . . ,Xn ) é chamada de um estimador de θ.

Exemplo:

Suponha que vamos colher uma amostra de tamanho n, denotada por X1 ,X2 , . . . ,Xn . Suponha que
desejamos estimar a média populacional µ (ou seja o parâmetro θ que se quer estimar é µ).

São estimadores possı́veis para µ:


X1 + X2
1. θ̂ =
2
X1 + X2 + · · · + Xn
2. θ̂ = X̄ =
n
Xmax + Xmin
3. θ̂ =
2
4. θ̂ = X1
Note que θ̂ é função de variáveis aleatórias, sendo portanto também uma variável aleatória. Depois
de selecionarmos uma amostra aleatória, o estimador assume um valor numérico particular para aquela
X1 + X2
amostra, chamado de estimativa. Assim se o estimador escolhido for θ̂ = , uma estimativa
2
x1 + x2
seria θ̂ = .
2

5.3 Estimação de parâmetros


5.3.1 Estimação pontual

Seja X uma variável aleatória com função de (densidade de) probabilidade cuja forma funcional é
conhecida, mas dependendo de um parâmetro θ que pode assumir valores num conjunto paramétrico Θ
(espaço paramétrico). θ pode ser unidimensional ou p-dimensional. Neste caso então não estamos perante
uma função de probabilidade, mas perante a uma classe de funções de probabilidade. A cada valor de
θ ∈ Θ corresponde um elemento da classe.
Como exemplo, pensemos na classe de Distribuições Normais com média µ e variância 1. Para cada
valor de µ ∈ R teremos uma distribuição da classe:
 
 1 
1 − (x−µ)2
ζ1 = f (x; µ,1) = √ e 2 com − ∞ < x < ∞ , Θ = (µ : −∞ < µ < ∞)
 2π 

101
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Se a variância não fosse conhecida, a classe ζ seria:


 Ã ! 
 1 x−µ 2 
 1 − 
ζ2 = f (x; µ,σ 2 ) = √ e 2 σ com − ∞ < x < ∞ , Θ = {(µ, σ 2 ) : −∞ < µ < ∞ e σ 2 > 0}

 2πσ 

O parâmetro no primeiro caso é θ = µ e no segundo, θ = (µ,σ 2 ), e os respectivos espaços paramétricos


descritos acima.

Nosso problema é determinar qual elemento da classe é a distribuição da variável da qual foi extraı́da
a amostra x1 ,x2 , . . . ,xn ; em outras palavras, qual é o valor do parâmetro θ que determina a distribuição
de X. Certamente não conseguiremos uma resposta absolutamente válida, mas será uma resposta que,
dependendo dos critérios seguidos para obtenção da amostra, dará uma boa aproximação para θ. Em
termos estatı́sticos estamos estimando θ por um ponto. O estimador será denotado por θ̂ e será uma
função das observações.

Problemas de estimação ocorrem com frequência em engenharia. O quadro abaixo mostra uma relação
de parâmetros que geralmente necessitamos estimar e algumas estimativas pontuais razoáveis para cada
um deles:

Parâmetro Estimador

A média µ de uma única população µ̂ = X̄, a média da amostra


A variância σ 2 de uma única população σ̂ 2 = S 2 , a variância da amostra
A proporção p de itens de uma classe de inte- p̂ = x/n, a proporção na amostra, onde x é o
resse em uma população número de itens da classe na amostra
A diferença das médias de duas populações, µ̂1 − µ̂2 = X̄1 − X̄2 , a diferença entre as médias
µ1 − µ2 de duas amostras aleatórias independentes
A diferença na proporção de duas populações, p̂1 −p̂2 , a diferença entre duas proporções amos-
p1 − p2 trais, calculadas a partir de duas amostras
aleatórias independentes.

5.3.1.1 Propriedades de estimadores


Gostarı́amos que os estimadores que vamos construir tenham algumas propriedades, que variam de
acordo com o problema em estudo. As principais propriedades são:

1. Não viciado (não viesado ou não tendencioso): Um estimador θ̂ é não viciado para θ se

E(θ̂) = θ

Se o estimador for tendencioso, então a diferença E(θ̂) − θ é chamada de vı́cio do estimador.

Exemplo:

Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição com média µ e variância σ 2 , ambas
finitas. Verifique se a média amostral X̂ e a variância amostral S 2 são estimadores não viciados
para µ e σ 2 respectivamente.

102
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Solução:
· ¸
1
E(X̄) = E (X1 + X2 + · · · + Xn )
n
1
= E(X1 + X2 + · · · + Xn )
n
1
= nE(X1 )
n

· Pn ¸
− X̄)2
i=1 (Xi
E(S 2 ) = E
n−1
n
X
1
= E (Xi − X̄)2
n−1 i=1
Xn
1
= E (X 2 + X̄ 2 − 2X̄Xi )
n − 1 i=1 i
" n n n
#
1 X X X
= E Xi2 + X̄ 2 − 2X̄ Xi
n−1 i=1 i=1 i=1
" n n
#
1 X X Xi
2 2
= E Xi + nX̄ − 2X̄n
n−1 i=1 i=1
n
" n #
1 X
= E Xi2 − nX̄ 2
n−1 i=1
" n #
1 X
2 2
= E(Xi ) − nE(X̄ )
n − 1 i=1
" n #
1 X
2 2 2 2
= (µ + σ ) − n(µ + σ /n)
n − 1 i=1
1
= (nµ2 + nσ 2 − nµ2 − σ 2 )
n−1
= σ2

O penúltimo passo da resolução acima advém de que:

V (X) = E(X 2 ) − (E(X)2 ) −→ E(X 2 ) = V (X) + (E(X)2 ) = σ 2 + µ2

e V (X̄) = E(X̄ 2 ) − (E(X̄)2 ) −→ ¯ 2 ) = σ 2 /n + µ2


E(X̄ 2 ) = V (X̄) + (E(X)
Vemos portanto que X̂ e S 2 são estimadores não viciados para µ e σ 2 respectivamente.

2. Consistência: Um estimador θ̂ é consistente para θ se:

lim E(θ̂) = θ e lim V ar(θ̂) = 0


n→∞ n→∞

Isto é, à medida que o tamanho da amostra vai aumentando, a média do estimador converge para
o parâmetro e a variância do estimador converge para zero.

103
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Algumas vezes existem diversos estimadores não viciados para determinado parâmetro da po-
pulação. Por exemplo, suponha que geramos uma amostra aleatória de tamanho n = 10 de uma
população normal e obtemos os dados:
x1 = 12,8; x2 = 9,4; x3 = 8,7; x4 = 11,6; x5 = 13,1; x6 = 9,8; x7 = 14,1; x8 = 8,5; x9 =
12,1; x10 = 10,3.

Podemos a partir da amostra obter:

12,8 + 9,4 + 8,7 + 11,6 + 13,1 + 9,8 + 14,1 + 8,5 + 12,1 + 10,3
Média: x̄ = = 11,04
10
10,3 + 11,6
Mediana: med = = 10,95
2
8,7 + 9,4 + 9,8 + 10,3 + 11,6 + 12,1 + 12,8 + 13,1
Média truncada a 10%: = = 10,98
8

Podemos mostrar que a mediana e a média truncada são estimadores não viciados de µ. Como
não existe um único estimador não viciado, não podemos usar apenas o critério de vı́cio zero para
selecionarmos o melhor estimador. Por isto usamos a propriedade:

3. Eficiência: Dados dois estimadores θ̂1 e θ̂2 não viciados para θ, dizemos que θ̂1 é mais eficiente
que θ̂2 se
V ar(θ̂1 ) < V ar(θ̂2 )

Não existe um critério absoluto para definir o melhor estimador. No entanto diremos que θ̂ é
o melhor estimador para θ se ele é não viciado e se além disso, entre todos os estimadores não
viciados, ele tiver variância mı́nima. Neste caso o denominamos Estimador não tendencioso de
variância mı́nima (ENTVM).

Exemplo:

Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ e variância 1.
Os estimadores θ̂1 = X̄ e θ̂2 = X1 são estimadores não viciados para µ. Determine qual é o mais eficiente.

Solução:
· ¸
X1 + X2 + , · · · + Xn
V (θ̂1 ) = V (X̄) = V
n
1
= V (X1 + X2 + , · · · + Xn )
n2
1
= 2 nV (X)
n
1
=
n
e
V (θ̂2 ) = V (X1 ) = 1
Logo θ̂1 = X̄ é um estimador mais eficiente que X1 .

Obs: Estamos usando, sem prova, que a variância de uma soma de variáveis aleatórias independentes é
igual à soma das variâncias destas variáveis. A prova desta propriedade vai além do alcance da disciplina.
O leitor interessado pode ver por exemplo [8] ou [3] ou ainda [2].

104
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

5.3.1.2 Desvio Padrão


Quando calculamos o valor numérico ou a estimativa pontual de um parâmetro, é usualmente desejável
darmos uma ideia da precisão da estimativa. A medida de precisão usualmente empregada é o erro padrão
do estimador utilizado.
q
Definição 25. O desvio padrão de um estimador θ̂ é dado por σθ̂ = V (θ̂). Se o desvio padrão
envolve parâmetros desconhecidos que podem ser estimados, substituı́mos estes valores em σθ̂ e obtemos
um desvio padrão estimado, denotado por σ̂θ̂ .

5.3.1.3 Erro Quadrático Médio


Eventualmente precisamos usar um estimador viciado. Nestes casos é importante medirmos o Erro
Quadrático Médio do estimador, definido como a média do quadrado da diferença entre o estimador e o
valor real do parâmetro.
Definição 26. O Erro Quadrático Médio de um estimador θ̂ do parâmetro θ é definido como

EQM = E(θ̂ − θ)2 (em inglês MSE - Mean Squared Error)

Outra forma de escrevermos o EQM é:


2
EQM = E[θ̂ − E(θ̂)]2 + [θ − E(θ̂)]2 = V (θ̂) + (Vı́cio)

Ou seja, o Erro Quadrático Médio do estimador θ̂ é igual à variância do estimador mais o vı́cio ao qua-
drado. Se θ̂ é não viciado, o Erro Quadrático Médio é igual à variância de θ̂.

Em certas situações podemos preferir um estimador viciado do que um não viciado, pois aquele pode
ter um erro quadrático médio menor. Isto é, pode ser possı́vel reduzir consideravelmente a variância do
estimator através da introdução de um vı́cio relativamente pequeno. Desde que a redução na variância
seja maior do que o quadrado do vı́cio, um estimador melhor, do ponto de vista do erro quadrático médio,
será obtido.

5.3.2 Métodos de estimação

A definição de não viciado e as outras propriedades dos estimadores não fornecem nenhuma indicação
de como podemos obter bons estimadores pontuais. Veremos nesta seção dois métodos para isto.

5.3.2.1 Método dos momentos


É o método mais antigo e mais simples de estimação pontual. Foi desenvolvido por Karl Pearson
no fim do século XIX. A ideia geral por trás do método é igualar os momentos populacionais, que são
definidos em termos de valores esperados, com os momentos amostrais correspondentes.

Suponhamos que a distribuição da variável aleatória X dependa de K parâmetros θ1 ,θ2 , . . . ,θk ; e


sejam:
n
1X i
Mi = E(X i ) i = 1,2, . . . ,k mi = x i = 1,2, . . . ,k
n j=1 j

Igualamos agora os MI aos valores mi , começando com com i = 1 e continuando até que existam
equações suficientes para proporcionar soluções únicas para θ1 ,θ2 , . . . ,θk .

105
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Exemplos:

1. Seja X uma variável aleatória com distribuição normal e parâmetros desconhecidos (θ1 ; θ2 ), e seja
x1 ,x2 , . . . ,xn uma amostra obtida desta distribuição. Utilize o método dos momentos para obter
estimadores para estes parâmetros.

Solução:
Calculamos primeiro

M1 = E(X) = θ1 M2 = E(X 2 ) = (E(X))2 + V (X) = θ12 + θ2


Pn Pn
i=1 xi x2
m1 = m2 = i=1 i
n n
Igualando os momentos populacionais aos amostrais de mesma ordem temos:
Pn
x2
M1 = θ1 = m1 = X̄ M2 = θ1 + θ2 = m2 = i=1 i
2
n

Da primeira igualdade obtemos diretamente que θ̂1 = X̄.


Pn
i=1 x2i 1 Pn
Substituindo θ1 por θ̂1 na segunda igualdade temos θ̂2 = − X̄ 2 = (xi − X̄)2
n n i=1

2. Suponha que X1 ,X2 , . . . ,Xn é uma amostra aleatória de uma distribuição exponencial com parâmetro
desconhecido θ. Qual o estimador para θ obtido pelo método dos momentos?

Solução:
Calculamos
n
1 1X
M1 = E(X) = e m1 = xi = X̄
θ n i=1

Igualando os dois momentos obtemos:


1
θ̂ =

5.3.2.2 Método de Máxima Verossimilhança


Este é um dos melhores métodos para obter-se um estimador de um parâmetro. Para estudá-lo intro-
duzimos:

Definição 27. Seja x1 ,x2 , . . . ,xn uma amostra de uma variável aleatória X com função de (densidade)
de probabilidade f (x,θ), θ ∈ Θ. Então a função de verossimilhança da amostra é definida por:

L(θ|x1 ,x2 , . . . ,xn ) = f (x1 ,θ)f (x2 ,θ) . . . f (xn ,θ)

106
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Quando x1 ,x2 , . . . ,xn são conhecidos, a função de verossimilhança é função somente do parâmetro
desconhecido θ. O estimador de máxima verossimilhança de θ é o valor θ̂ que maximiza a função de
verossimilhança L.

Vejamos intuitivamente o significado deste estimador. Consideremos o caso de uma variável discreta
com distribuição binomial de parâmetros r e p, isto é
µ ¶
r x
f (x,p) = p (1 − p)r−x x = 0,1, . . . ,r
x

µ ¶ µ ¶ µ ¶
r x1 r−x1 r x2 r−x2 r
L(p|x1 ,x2 , . . . ,xn ) = p (1 − p) p (1 − p) ... pxn (1 − p)r−xn
x1 x2 xn
µ ¶µ ¶ µ ¶ P P
r r r
= ... p i xi (1 − p)nr− i xi
x1 x2 xn

Dizermos que L(p̂|x1 ,x2 , . . . ,xn ) ≥ L(p|x1 ,x2 , . . . ,xn ) ∀ p : 0 < p < 1, é o mesmo que dizer que
p̂ é tal que as observações x1 ,x2 , . . . ,xn têm mais probabilidade de vir de uma distribuição binomial
com parâmetros r e p̂ do que de uma distribuição binomial com parâmetros r e p, 0 < p < 1. Isto é,
X1 = x1 , X2 = x2 , . . . Xn = xn tem probabilidade máxima quando p = p̂.

Para o caso de variáveis aleatórias contı́nuas, embora a análise seja mais complicada, pode-se chegar
à mesma conclusão; isto é L(θ̂|x1 ,x2 , . . . ,xn ) ≥ L(θ|x1 ,x2 , . . . ,xn ) ∀ θ.

Exemplos:
1. Seja x1 ,x2 , . . . ,xn uma amostra de uma distribuição normal com média µ e variância 1. Achar o
estimador de máxima verossimilhança para µ.

Solução:

1 1 2 1 1 2 1 1 2
L(µ|x1 ,x2 , . . . ,xn ) = √ e− 2 (x1 −µ) √ e− 2 (x2 −µ) . . . . . . √ e− 2 (xn −µ)
2π 2π 2π
· ¸n 1 P n
2
1 −2 (xi −µ)
= √ e i=1

NotePque para uma amostra de tamanho n fixo, a função de verossimilhança depende P apenas de
1 n 2
e− 2 i=1 (xi −µ) . Podemos ver então que L(µ|x1 ,x2 , . . . ,xn ) será máxima quando i (xi − µ)2 for
mı́nima.
P Assim, para acharmos o máximo da função de verossimilhança temos que minimizar
2
i (xi − µ) . Para calcularmos este mı́nimo fazemos:

∂ X X
(xi − µ)2 = −2 (xi − µ)
∂µ i i

107
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Igualando a derivada a zero, obtemos:


n
X
−2 (xi − µ̂) = 0
i=1
Xn
(xi − µ̂) = 0
i=1
n
X n
X
xi = µ̂
i=1 i=1
µ̂ = x̄

Portanto x̄ é um candidato para o EMV procurado. Para confirmarmos se é ponto de máximo ou


de mı́nimo fazemos:

∂2 X
(xi − µ)2 = 2n > 0,
∂2µ i
P
o que significa que µ̂ = x̄ é um ponto de mı́nimo para i (xi − µ)2 e equivalentemente um ponto
de máximo para L(µ|x1 ,x2 , . . . ,xn ). Em outras palavras, µ̂ = x̄ é o estimador de máxima verossi-
milhança (EMV) para µ.
2. Seja x1 ,x2 , . . . ,xn uma amostra de uma variável aleatória com distribuição exponencial com parâmetro
λ. Achar o Estimador de Máxima Verossimilhança para λ

Solução:
P
L(λ|x1 ,x2 , . . . ,xn ) = λn e−λ i xi

Podemos observar que se λ̂ maximiza L(λ|x1 ,x2 , . . . ,xn ), λ̂ também irá maximizar lnL(λ|x1 ,x2 , . . . ,xn ).
Chamamos a função l(λ|x1 ,x2 , . . . ,xn ) = lnL(λ|x1 ,x2 , . . . ,xn ) de log-verossimilhança.
Então podemos escrever:
P X
l(λ|x1 ,x2 , . . . ,xn ) = lnL(λ|x1 ,x2 , . . . ,xn ) = ln[λn e−λ i xi
] = nlnλ − λ xi
i

Derivando a log-verossimilhança com respeito a λ temos:

∂l(λ|x1 ,x2 , . . . ,xn ) n X


= − xi
∂λ λ i

Igualando a zero temos:


1
λ̂ =

Confirmamos que o ponto é máximo porque a derivada segunda é −n/λ2 < 0

108
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

3. Seja f (x; θ) = 1, com θ −1/2 ≤ X ≤ θ +1/2 e seja X1 ,X2 , . . . ,Xn uma amostra aleatória da variável
X. Achar o estimador de máxima verossimilhança para θ.

Solução:
1 1
L(θ|x1 ,x2 , . . . ,xn ) = 1, θ− ≤ xi ≤ θ +
2 2

Sejam Xmin = min xi para 1 ≤ i ≤ n e Xmax = max xi para 1 ≤ i ≤ n:


1 1
θ− ≤ xmin e θ+ ≥ xmax
2 2
ou de forma equivalente:
1 1
θ ≤ xmin + e θ ≥ xmax −
2 2
Então  1
 1 se xmax − 2 ≤ θ ≤ xmin + 21 ,
L(θ|x1 ,x2 , . . . ,xn ) =

0 caso contrário

Isto significa que L(θ|x1 ,x2 , . . . ,xn ) é máximo para qualquer valor de θ̂ no intervalo [xmax − 12 ,xmin +
1
2 ]. Este exemplo ilustra o fato de que o estimador de máxima verossimilhança para θ pode não ser
único.

O método de máxima verossimilhança pode ser usado em situações onde existem diversos parâmetros
desconhecidos, digamos, θ1 ,θ2 , . . . ,θn para estimarmos. Nestes casos, a função de verossimilhança é uma
função dos n parâmetros desconhecidos θ1 ,θ2 , . . . ,θn , e os estimadores de máxima verossimilhança {Θ̂i }
podem ser obtidos igualando-se as n derivadas parciais ∂L(θ1 ,θ2 , . . . ,θn )/∂θi , (para i = 1,2, . . . ,n) a zero,
e resolvendo o sistema de equações resultante.

Exemplo:

Seja X uma v.a. com distribuição normal com média µ e variância σ 2 , ambas desconhecidas. Ache o
EMV para µ e para σ 2 , a partir da mostra x1 ,x2 , . . . ,xn .

Solução:

A função de máxima verossimilhança para uma amostra de tamanho n é


n P
n
Y 1 2 2 1 −(1/2σ 2 ) (xi −µ)2
2
L(µ,σ ; x1 ,x2 , . . . ,xn ) = √ e−(xi −µ) /(2σ ) = e i=1

i=1
σ 2π (2πσ 2 )n/2

Para simplificar usamos a log-verossimilhança que é:


n
n 1 X
log[L(µ,σ 2 ; x1 ,x2 , . . . ,xn )] = l(µ,σ 2 ; x1 ,x2 , . . . ,xn ) = − ln(2πσ 2 ) − 2 (xi − µ)2
2 2σ i=1

Calculando as derivadas parciais e igualando-as a zero obtemos :


n
∂l(µ,σ 2 ) 1 X
= 2 (xi − µ) = 0
∂µ σ i=1

109
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

n
∂l(µ,σ 2 ) n 1 X
= − + (xi − µ)2 = 0
∂σ 2 2σ 2 2σ 4 i=1
As soluções das equações acima fornecem os estimadores de máxima verossimilhança
n
1X
µ̂ = x̄ σ̂ 2 = (xi − x̄)2
n i=1

Repare que são os mesmos estimadores obtidos pelo método dos momentos.

Exemplo:

Suponha que a amostra a seguir, obtida aleatoriamente, é de uma variável aleatória normal com média
µ e variância σ 2 :

x1 = 1,92; x2 = 4,04; x3 = 2,27; x4 = 3,19; x5 = 4,28; x6 = 4,57; x7 = 2,25; x8 = 2,74; x9 = 3,87;

x10 = 4,56; x11 = 4,90; x12 = 3,57; x13 = 3,52; x14 = 4,95; x15 = 3,00.
Qual a estimativa para os parâmetros θ1 = µ e θ2 = σ 2 usando os estimadores de máxima verossimilhança?

Solução:
53,63
θ̂1 = X̄ = = 3,58
15
n
1X 13,78
θ̂2 = (Xi − X̄)2 = = 0,92
n i=1 15

5.3.3 Distribuições amostrais

Conforme salientamos na seção 5.1, em inferência estatı́stica usamos informações contidas em amostras
aleatórias para chegarmos a conclusões sobre parâmetros da população. Estas informações ou estatı́sticas,
são também variáveis aleatórias que dependem dos resultados obtidos em cada amostra em particular.
É portanto de fundamental importância conhecermos a distribuição das estatı́sticas: esta distribuição é
chamada distribuição amostral.

Nesta seção apresentaremos diversos resultados que serão usados nas próximas seções. Alguns destes
resultados serão provados como ilustração, mas na maioria deles omitiremos as demonstrações, por fugi-
rem do alcance do nosso curso. As provas podem ser vistas em [2].

5.3.3.1 Distribuição da média amostral - caso normal

Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ e variância σ 2 . A
σ2 X̄n − µ √
média X̄n tem distribuição normal com média µ e variância , ou de forma equivalente Zn = n
n σ
tem distribuição normal com média 0 e variância 1.

110
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Exemplos:

1. Seja X̄25 a média de uma amostra aleatória de tamanho 25 de uma distribuição normal com média
µ = 75 e variância σ 2 = 100. Qual é a probabilidade de que X̄25 assuma valores entre 71 e 79?

Solução:
Conforme resultado apresentado acima, X̄25 tem distribuição normal com média µ = 75 e variância
igual a 100
25 = 4, ou seja:
· ¸
71 − 75 X̄ − 75 79 − 75
P(71 < X̄25 < 79) = P < <
2 2 2
= P(−2 < Z < 2)
= P(Z < 2) − P(Z < −2)
= P(Z < 2) − P(Z > 2)
= P(Z < 2) − [1 − P(Z < 2)]
= 2P(Z < 2) − 1 = 2 × 0,977250 − 1 = 0,9545

2. Suponha que a aceitação de um lote de 1.000 peças ocorre apenas se o comprimento médio de 10
peças estiver entre 9,2 e 10,8 cm. Se o comprimento das peças têm distribuição normal com média
10 cm e variância 2 cm2 o que pode ser dito sobre a aceitação do lote?

Solução:
P(lote ser aceito)=P(9,2 < X̄ < 10,8) onde X : comprimento da peça e X ∼ N (10, 2).
Mas X̄ ∼ N (10, 2/10) e portanto:
· ¸
9,2 − 10 10,8 − 10
P(9,2 < X̄ < 10,8) = P √ ≤Z≤ √
0,2 0,2
= P(−1,79 ≤ Z ≤ 1,79)
= P(Z ≤ 1,79) − P(Z ≤ −1,79)
= P(Z ≤ 1,79) − [1 − P(Z ≤ 1,79)
= 2P(Z ≤ 1,79) − 1 = 0,9265

5.3.3.2 Distribuição da diferença de médias


Sejam X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ1 e variância σ12
e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de uma distribuição normal com média µ2 e variância σ22 . Se X e
Y são independentes, então a diferença das médias X̄n − Ȳm tem distribuição normal com média µ1 − µ2
σ2 σ2
e variância 1 + 2 , ou de forma equivalente:
n m
X̄n − Ȳm − (µ1 − µ2 )
Z= r
σ12 σ2
+ 2
n m

111
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

tem distribuição normal com média 0 e variância 1. Se σ12 = σ22 = σ 2 , então

X̄n − Ȳm − (µ1 − µ2 )


Z= s · ¸
2
1 1
σ +
n m

Exemplo:

Suponha X1 ,X2 , . . . ,X10 uma amostra aleatória de uma distribuição normal com média µ = 10 e
variância σ 2 = 9 e Y1 ,Y2 , . . . ,Y15 uma amostra aleatória de uma distribuição normal com média µ = 15 e
variância σ 2 = 9, independente da primeira distribuição; e sejam X̄10 e Ȳ15 as médias amostrais corres-
pondentes. Calcular P(−4 ≤ Ȳ15 − X̄10 ≤ 4).

Solução:
 
 
 −4 − (µ2 − µ1 ) Ȳ15 − X̄10 − (µ2 − µ1 ) 4 − (µ2 − µ1 ) 
P(−4 ≤ Ȳ15 − X̄10 
≤ 4) = P  s · s · ≤s · 
¸ ≤ ¸ ¸
 1 1 1 1 1 1 
σ2 + σ2 + σ2 +
n m n m n m
 
 
 −4 − 5 4−5 
= P
 s · ¸ ≤ Z ≤ s ·

¸
 1 1 1 1 
9 + 9 +
10 15 10 15
= P(−7,35 ≤ Z ≤ −0,81)
= P(Z ≤ −0,81) − P(Z ≤ −7,35)
= [1 − P(Z ≤ 0,81)] − [1 − P(Z ≤ 7,35)]
= (1 − 0,791030) − (1 − 1) = 0,2090

5.3.3.3 Distribuição Quiquadrado


1. Seja Z uma variável aleatória normal padrão, isto é, uma variável com distribuição normal com
média 0 e variância 1; então Z 2 tem distribuição quiquadrado com 1 grau de liberdade.
2. Sejam Z1 ,Z2 , . . . ,Zn variáveis aleatórias independentes e normalmente distribuı́das com média 0 e
variância 1, então a variável Xn2 = Z12 + Z22 + · · · + Zn2 tem distribuição quiquadrado com n graus
de liberdade.

Como aplicação da segunda propriedade acima, se X1 ,X2 , . . . ,Xn é uma amostra aleatória de uma
distribuição normal com média µ e variância σ 2 , então
· ¸2 · ¸2 · ¸2
X1 − µ X2 − µ Xn − µ
X2 = + + ··· +
σ σ σ
n ·
X ¸2
Xi − µ
=
i=1
σ

tem distribuição quiquadrado com n graus de liberdade.

112
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Quando µ é substituı́do por X̄n na expressão acima, a soma perde um grau de liberdade e temos que
Xn · ¸2
Xi − X̄n
i=1
σ

tem distribuição quiquadrado com n − 1 graus de liberdade. Dizemos que a soma perde um grau de liber-
P
n Pn
dade pois (Xi − X̄) = 0 (pois X̄ = n1 i=1 Xi ); então conhecidos X1 = x1 , X2 = x2 , . . . , Xn−1 = xn−1
i=1
e X̄n o valor de Xn será determinado.

Chamamos a atenção do leitor para a diferença entre as expressões


Xn · ¸2 Xn · ¸2
Xi − X̄n xi − x̄n
e
i=1
σ i=1
σ

. Observe que a primeira é uma variável aleatória; a segunda é um valor da variável aleatória.

Para ilustrar melhor a perda de um grau de liberdade, consideremos um vetor X = (X1 ,X2 ,X3 ) que
pode assumir valores em R3 , isto é, ele tem 3 “graus de liberdade”, ele varia no espaço de três dimensões.
X1 + X2 + X3
Se X̄3 = , é fácil ver que X1 − X̄ + X2 − X̄ + X3 − X̄ = 0, equivalente a uma equação da
3
forma
aX1 + bX2 + cX3 = 0
que é a equação de um plano em R3 , isto é, o vetor (X1 ,X2 ,X3 ) agora pode variar num espaço de 2
dimensões; diz-se que ele perdeu um grau de liberdade.

Observemos agora a expressão:


n ·
X ¸2
Xi − X̄n
;
i=1
σ
que pode ser escrita como
Xn · ¸
1 (Xi − X̄n )2 (n − 1)Sn2
2
(n − 1) =
σ i=1
(n − 1) σ2

(n − 1)Sn2
onde Sn2 é a variância amostral definida em 1.3.2. Pode-se provar que é independente de X̄n ,
σ2
o que nos traz ao seguinte resultado:
3. Seja X1 ,X2 , . . . ,Xn uma amostra de uma distribuição normal com variância σ 2 . Se X̄n é a média
(n − 1)Sn2
desta amostra, então tem distribuição qui-quadrado com n − 1 graus de liberdade e é
σ2
independente de X̄n .

Exemplo:

Suponha X1 ,X2 , . . . ,X10 uma amostra aleatória de uma distribuição normal com variância σ 2 = 10.
Qual a probabilidade que a variância da amostra seja menor que 16,31?

Solução:

µ 2

2 S10 (n − 1) 16,31 × 9
P(S10 < 16,31) = P < = P(X92 < 14,68) = 0,9 (pela tabela 2 do apêndice)
σ2 10

113
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

5.3.3.4 Distribuição t de Student


Seja Z uma variável aleatória com distribuição normal padrão e seja V uma variável aleatória com
distribuição quiquadrado com n graus de liberdade. Se V e Z são independentes, então a variável
Z
T =p
V /n
tem função de densidade dada por:
· ¸
n+1
Γ
2 1
fT (t) = √ × , −∞<t<∞
πn Γ(n/2) · t2
¸ n+1
2

1+
n
R∞
onde Γ(α) = 0
xα−1 e−x dx é a função gama.

Diz-se que T tem distribuição t de Student com n graus de liberdade. Não é importante se decorar
a função de densidade, mas sim saber lidar com probabilidades referentes a ela, especialmente usando a
1 1 2
tabela 3 (no apêndice). Quando n aumenta, fT (t) converge para √ e− 2 t , que é a função de densidade

de Z, normal padrão. Isto é, quando n aumenta a distribuição t de Student pode ser aproximada por
uma distribuição normal padrão.

Duas aplicações diretas deste resultado são:


1. Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ e variância σ 2 ,
então: · ¸
X̄n − µ √
n √
σ n(X̄n − µ)
Tn = r =
(n − 1)Sn2 Sn
2
/(n − 1)
σ
tem distribuição t de Student com n − 1 graus de liberdade. A prova deste resultado decorre de
5.3.3.1, 5.3.3.3 e de 5.3.3.4. É claro que usaremos esta distribuição quando σ 2 não é conhecida.

2. Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ1 e variância
σ 2 ; e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de outra distribuição normal com média µ2 e variância
σ 2 , com σ 2 desconhecida, independente da primeira. Então a variável
X̄n − Ȳm − (µ1 − µ2 )
s · ¸
1 1
σ2 +
n m
Tn+m−2 = s· ¸
(n − 1)S12 (m − 1)S22
+ /(n + m − 2)
σ2 σ2
X̄n − Ȳm − (µ1 − µ2 )
Tn+m−2 = s · ¸
(n − 1)S12 + (m − 1)S22 1 1
+
n+m−2 n m
tem uma distribuição t de Student com n + m − 2 graus de liberdade.

Chamamos atenção para a diferença entre a variável Tn+m−2 e a variável Z definida em 5.3.3.2. Pre-
cisamos da variável Tn+m−2 quando não conhecemos a variância comum σ 2 .

114
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

5.3.3.5 Distribuição F de Fisher


Agora consideremos uma variável aleatória U com distribuição quiquadrado com m graus de liberdade
e uma variável aleatória V independente da primeira, com distribuição quiquadrado com n graus de
liberdade. a variável
U/m
F(m,n) =
V /n
tem uma distribuição chamada F de Fisher com m graus de liberdade no numerador e n graus de liberdade
no denominador, e sua função de densidade é dada por:
· ¸
m + n h m im/2
Γ
2 n x(m/2)−1
fF (x) = hmi hni ×h , 0<x<∞
Γ Γ mx i(m+n)/2
2 2 1 +
n
Novamente, não é importante memorizarmos a função de densidade; mas sim saber utilizar a tabela 4
(no apêndice).

Uma aplicação importante desta distribuição é a seguinte:


1. Seja X1 ,X2 , . . . ,Xn uma amostra aleatória da distribuição normal com média µ1 e variância σ12 e
seja Y1 ,Y2 , . . . ,Ym uma amostra aleatória de outra distribuição normal com média µ2 e variância
σ22 , independente da primeira, então
(n−1)S12
σ12
/(n − 1) S12 σ22
F = =
(m−1)S22
/(m − 1) S22 σ12
σ22

tem distribuição F com n − 1 e m − 1 graus de liberdade. Esta variável vai nos permitir construir
intervalos de confiança e fazer testes referentes à razão de duas variâncias.

As tabelas 4a a 4g fornecem os valores de fα(m,n) tais que:

P(F(m,n) > fα(m,n) ) = α para alguns valores de α

Para calcularmos por exemplo para α = 0,95 usamos o fato de que


1
f0,95(m,n) =
f0,05(n,m)

Esta igualdade pode ser demonstrada por:


 
· ¸ · ¸
U/m  1  1
P(F(m,n) ≤ fα ) = P ≤ fα = P V /n ≤ fα = P ≤ fα
V /n F(n,m)
U/m

Exemplos:
1. Achar o valor f0,95(4,5)
Solução:
1
P[F(4,5) ≥ f0,95(4,5) ] = 0,95 =⇒ P[F(4,5) ≥ ] = 0,95
f0,05(5,4)
1 1
f0,95(4,5) = = = 0,16
f0,05(5,4) 6,26

115
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

2. Considere uma variável aleatória com distribuição F com 5 e 10 graus de liberdade. Determinar a
e b tais que P(a < F(5,10) < b) = 0,90.
Solução:
É claro que existe uma infinidade de valores a e b que atendem à condição.

f(x)

a1a2 b1 b2 X

Na figura acima (a1 ,b1 ) e (a2 ,b2 ) são dois pares possı́veis. Por convenção escolhemos a e b tais que:

P(F(5,10) < a) = P(F(5,10) > b) = 0,05

O cálculo do valor de b é direto da tabela 7 onde encontramos b = 3,33. Para encontrarmos o valor
de a fazemos:
P(F(5,10) < a) = 0,05 =⇒ P(F(5,10) ≥ a) = 0,95
1
Como f0,95(5,10) = f0,05(10,5) na tabela achamos que a = 1/4,74 = 0,21

5.3.4 Teorema Central do Limite

As amostras consideradas até aqui são √extraı́das de populações normais. Em 5.3.3.1 (Distribuição da
n(X̄n − µ)
média amostral - caso normal) vimos que tem distribuição normal padrão, se X̄n é a média
σ
de uma amostra aleatória de tamanho n de uma distribuição normal com média µ e variância σ 2 . Em
(n − 1)Sn2
5.3.3.3 (Distribuição Quiquadrado) vimos que tem distribuição qui-quadrado com n − 1 graus
σ2
2
de liberdade, se Sn é a variância da mesma amostra. Nestes casos, independentemente do tamanho da
(n − 1)Sn2
amostra as distribuições para X̄n e são exatas.
σ2
Quando a distribuição de X não é normal, precisamos de amostras grandes para aproximar a distri-
buição de X̄n , e esta aproximação é dada pelo teorema estabelecido a seguir:

Teorema 3. Teorema Central do Limite: seja X1 ,X2 , . . . ,Xn uma amostra aleatória√ de uma variável
n(X̄ n − µ)
aleatória com média µ e variância σ 2 positiva e finita; então a variável Zn = tem uma
σ
distribuição limite que é normal com média zero e variância um.

Não damos prova do teorema, e sim uma idéia de seu significado. O que significa dizer que Zn tem
uma distribuição que no limite é a normal padrão? Zn tem uma distribuição, porém não é nosso interesse

116
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

determiná-la. O teorema diz que, para todo z ∈ R, P(Zn ≤ z) converge para P(Z ≤ z), à medida que n
aumenta; sendo Z a normal padrão. Isto vai implicar que P(z1 ≤ Zn ≤ z2 ) converge para P(z1 ≤ Z ≤ z2 ).

Salientamos que para cada z ∈ R, {P(Zn ≤ z)}∞ n=1 define uma sequência de números reais e para
cada par (z1 ,z2 ) de números reais {P(z1 ≤ Zn ≤ z2 )}∞
n=1 define também uma sequência de números reais:
o teorema nos diz que para todo z ∈ R, a primeira sequência converge para P(Z ≤ z) e para cada par
(z1 ,z2 ) de números reais a segunda sequência converge para P(z1 ≤ Zn ≤ z2 ).

Maiores detalhes podem ser encontrados em textos de nı́vel intermediário, sob o tı́tulo “Convergência
em Distribuição”

Exemplos:
1. Seja X̄ a média de uma amostra aleatória de tamanho 100 de uma distribuição quiquadrado com
50 graus de liberdade. Aproximar o valor de P(49 < X̄ < 51).

Solução:
· ¸
49 − µ √ X̄ − µ √ 51 − µ √
P(49 < X̄ < 51) = P n< n< n
σ σ σ
2
Como X ∼ X50 , µ = gl = 50 e σ 2 = 2gl = 100, então
· ¸
49 − 50 √ X̄ − 50 √ 51 − 50 √
P(49 < X̄ < 51) = P 100 < 100 < 100
10 10 10
· ¸
X̄ − 50 √
= P −1 < 100 < 1
10
≈ P(−1 < Z < 1) ≈ 0,6826

2. Seja X̄ a média de uma amostra aleatória de tamanho 64 de uma distribuição exponencial com
1
parâmetro λ = . Qual a probabilidade de que X̄ seja maior que 75?
80

Solução:
A média e variância de X são respectivamente:
1 1
µ= = 80 σ2 = = 6400
λ λ2
Assim podemos calcular:
· ¸
X̄ − 80 √ 75 − 80 √
P(X̄ > 75) = P 64 > 64
80 80
· ¸
X̄ − 80 −5
=P >
10 10
≈ P(Z > −0,5) ≈ 0,6915


n(X̄n − µ)
O Teorema Central do Limite fornece a função de distribuição aproximada de , quando
σ
σ é positivo e finito. A partir dele podemos, entre outras coisas, construir intervalos de confiança para µ.

117
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Quando não conhecemos σ 2 surge um problema, que é superado com a utilização de S 2 , que como vimos
é o estimador de σ 2 .

Pode-se provar que S 2 “converge estocasticamente” para σ 2 . A noção de convergência estocástica


foge do escopo deste curso, porém vai nos permitir usar a estatı́stica:

X̄ − µ √ √
n n(X̄ − µ)
rσ =
S 2 S
σ 2

Pelo resultado estabelecido, o denominador da primeira expressão converge para 1 e pelo√ Teorema
n(X̄ − µ)
Central do Limite o numerador tem distribuição aproximadamente normal padrão, então
S
tem também uma distribuição aproximadamente normal padrão. Mais √ uma vez, não é importante o
n(X̄ − µ)
entendimento dos conceitos, basta que se saiba utilizar o fato de que tem uma distribuição
S
que se aproxima da normal padrão quando o tamanho da amostra é grande.

Para terminar esta seção chamamos a atenção que na seção 5.3.3 definimos a distribuição exata dos
estimadores e nesta seção (5.3.4) tratamos de distribuições aproximadas. Estas aproximações melhoram
quando aumenta n. Em outras palavras, na seção 5.3.3 os resultados valem mesmo se o tamanho das
amostras seja pequeno, já na seção 5.3.4 precisamos de amostras grandes. (Para maiores detalhes ver [3])

5.3.5 Estimação por intervalos

Como vimos nas seções anteriores, a Estimação Pontual fornece como estimativa do parâmetro des-
conhecido um único valor. Em muitas situações no entanto esta estimativa pontual de um parâmetro
não fornece informação completa necessária para o estudo ou problema em questão. Quando se estima
determinado valor para, por exemplo, a média de uma variável, é improvável que a média verdadeira µ
seja exatamente igual a este valor. Assim uma questão importante aparece: quão próximo está X̄ da
média verdadeira?

Uma das formas de resolver este problema é preestabelecer a margem máxima de erro que queremos
cometer. Define-se então Erro de Estimação como a distância entre o parâmetro e valor estimado (por
exemplo |X̄ − µ|).

Outra abordagem é usar um intervalo estimado para o parâmetro populacional que expressasse o grau
de incerteza associado à estimativa. Damos a este intervalo o nome de Intervalo de Confiança. Nós
não teremos certeza de que o intervalo contém o valor correto do parâmetro populacional desconhecido.
Nós simplesmente usamos uma amostra aleatória da população para calcular a estimativa pontual e o
intervalo. Entretanto o intervalo de confiança é construı́do de tal forma que tenhamos alta confiança que
ele contém o parâmetro populacional desconhecido.

Assim dada uma amostra X1 ,X2 , . . . ,Xn de uma variável aleatória X com função de densidade de
probabilidade f (x,θ), com θ ∈ Θ, vamos encontrar I(X1 ,X2 , . . . ,Xn ) e S(X1 ,X2 , . . . ,Xn ), funções de
X1 ,X2 , . . . ,Xn tais que:

P[I(X1 ,X2 , . . . ,Xn ) ≤ u(θ) ≤ S(X1 ,X2 , . . . ,Xn )] = 1 − α

onde u(θ) é uma função do parâmetro θ. Diremos então que (I(X1 ,X2 , . . . ,Xn ), S(X1 ,X2 , . . . ,Xn )) é um

118
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

intervalo de confiança de 100(1−α)% para u(θ). (1−α) é chamado coeficiente de confiança do intervalo.

O método para resolver o problema é simples: consiste em encontrar uma variável aleatória que
dependa da função u(θ) e cuja distribuição seja conhecida. Há vários casos a considerar, dos quais
discutiremos detalhadamente apenas a Distribuição da média amostral - caso normal. Os demais casos
terão procedimentos análogos.

5.3.5.1 Intervalo de confiança para a média de uma distribuição normal


Caso 1: σ 2 conhecida.
Queremos achar I(X1 ,X2 , . . . ,Xn ) e S(X1 ,X2 , . . . ,Xn ) tais que
P[I(X1 ,X2 , . . . ,Xn ) ≤ µ ≤ S(X1 ,X2 , . . . ,Xn )] = 1 − α (neste caso u(θ) = µ).

n(X̄ − µ)
Sabemos que tem distribuição normal padrão, então na tabela podemos encontrar a e
σ
b que satisfaçam à equação do intervalo de confiança. Existe uma infinidade de pares de valores a e b
satisfazendo esta condição. [a1 ,b1 ] e [a2 ,b2 ] na figura abaixo são dois destes pares.

f(z)

a1 a2 b1 b2 Z

Mas aproveitamos a simetria da função de densidade normal e achamos a tal que


· √ ¸
n(X̄ − µ)
P −a ≤ ≤a =1−α
σ

f(z)

-a a Z

Olhando a figura acima, vemos que a = z(1− α2 ) ; sendo z(1− α2 ) tal que P(Z ≤ z(1− α2 ) ) = 1 − α2 .

119
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Então, levando na fórmula temos:


· √ ¸
n(X̄ − µ)
P −z(1− α2 ) ≤ ≤ z(1− α2 ) = 1 − α
σ

Manipulando as inequações acima temos:



n(X̄ − µ) σ σ
−z(1− α2 ) ≤ ≤ z(1− α2 ) ⇐⇒ −z(1− α2 ) √ ≤ X̄ − µ ≤ z(1− α2 ) √
σ n n
σ σ
⇐⇒ X̄ − z(1− α2 ) √ ≤ µ ≤ X̄ + z(1− α2 ) √
n n

Assim podemos escrever:


· ¸
σ σ
P X̄ − z(1− α2 ) √ ≤ µ ≤ X̄ + z(1− α2 ) √ =1−α
n n

As funções procuradas são portanto:


σ X1 + · · · + Xn σ
I(X1 ,X2 , . . . ,Xn ) = X̄ − z(1− α2 ) √ = − z(1− α2 ) √
n n n

σ X1 + · · · + Xn σ
S(X1 ,X2 , . . . ,Xn ) = X̄ + z(1− α2 ) √ = + z(1− α2 ) √
n n n

Exemplos:

1. Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ e σ 2 = 80. Se
n = 20 e x̄ = 81,20, encontrar um “intervalo de confiança” de 95% para µ (veja observações a seguir).

Solução:
Temos que 1 − α = 0,95; então z(1− α2 ) = z0,975 = 1,96 e assim:

I(x1 , . . . ,x20 ) = X̄ − z(1− α2 ) √σn = 81,20 − 1,96 √80
20
= 81,20 − 1,96 × 2 = 77,28
S(x1 , . . . ,x20 ) = X̄ − z(1− α2 ) √σn = 81,20 + 1,96 × 2 = 85,12
Então (77,28; 85,12) é um intervalo de confiança de 95% para µ.

2. No exemplo 1, considere σ 2 = 20 e encontre um “intervalo de confiança” de 95% para µ.

Solução:
Neste caso teremos:

I(x1 , . . . ,x20 ) = 81,20 − 1,96 √20
20
= 81,20 − 1,96 = 79,24
S(x1 , . . . ,x20 ) = 81,20 + 1,96 = 83,16
e o intervalo é (79,24; 83,16). Observe que diminuindo o valor de σ 2 o comprimento do intervalo é
menor.

120
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

3. Sejam os dados:

79,38; 62,55; 65,13; 58,68; 70,25; 84,79; 62,43; 82,55; 72,84; 82,32

que correspondem a 10 observações de uma distribuição normal com média µ e variância σ 2 = 81.
Construa um “intervalo de confiança” de 90% para µ.

Solução:
A partir dos dados, temos x̄ = 72,09. Como queremos 90% de confiança, 1 − α = 0,9; e assim
z(1− α2 ) = z0,95 = 1,645. Podemos agora calcular os limites do intervalo:

I(x1 , . . . ,x10 ) = X̄ − z0,95 √σn = 72,09 − 1,645 √81
10
= 72,09 − 1,645 × 2,846 = 67,41
S(x1 , . . . ,x10 ) = 72,09 + 1,645 × 2,846 = 76,77 O intervalo é portanto (67,41; 76,77)

Observações:

1. Observe que I(X1 ,X2 , . . . ,Xn ) e S(X1 ,X2 , . . . ,Xn ) são variáveis aleatórias antes da amostra ser
obtida e portanto tem sentido a expressão P[I(X1 ,X2 , . . . ,Xn ) ≤ µ ≤ S(X1 ,X2 , . . . ,Xn )] = 1 − α.
No entanto depois que a amostra é obtida, teremos I(X1 ,X2 , . . . ,Xn ) = i e S(X1 ,X2 , . . . ,Xn ) = s e
já não tem mais sentido dizer que P[i ≤ µ ≤ s] = 1 − α pois agora, dependendo do valor de µ, esta
probabilidade será 1 ou 0. Mesmo assim, por abuso de linguagem, diremos que (i, s) é um intervalo
de confiança de 100(1 − α)% para µ.
2. Assim sendo um intervalo de confiança de 95% para média não quer dizer que existe uma proba-
bilidade de 0,95 de que µ pertença ao intervalo. A interpretação correta é: Se pudéssemos obter
um número infinito de amostras aleatórias de tamanho n e construı́ssemos intervalos de confiança
de 95% para cada uma das amostras, temos a garantia de que 95% destes intervalos conteriam o
verdadeiro valor de µ.
· ¸
σ σ σ
3. O intervalo de confiança X̄ − z(1− α2 ) √ , X̄ + z(1− α2 ) √ tem comprimento igual a 2z(1− α2 ) √ .
n n n
Portanto podemos ver que quanto menor o valor de σ, menor o comprimento do intervalo, ou seja,
mais preciso é o intervalo.
4. Da mesma forma quanto menor o valor de z(1− α2 ) maior a precisão. Por outro lado, se α1 < α2
então z(1− α22 ) < z(1− α21 ) . Assim se quisermos maior coeficiente de confiança para o intervalo, o seu
comprimento será maior.
5. O comprimento do intervalo diminui à medida que n aumenta. Na prática, quando quisermos
intervalos mais precisos, podemos aumentar o tamanho da amostra. No entanto não podemos
esquecer que aumento no tamanho da amostra implica em aumento de custo. Além disso temos
sempre que ter em mente que na escolha de n e α é também importante a opinião da pessoa que
realiza a pesquisa. Esta última observação deve ser levada em conta em todos os casos de intervalo
de confiança a serem discutidos.

Caso 2: σ 2 desconhecida. √
n(X̄ − µ)
Neste caso, não podemos usar a estatı́stica pois o valor de σ não é conhecido. Temos por-
σ √
n(X̄n − µ)
tanto que usar um estimador de σ 2 para resolver o problema. Sabemos de 5.3.3.4 que Tn−1 =
S
tem distribuição t de Student com n − 1 graus de liberdade.

121
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Também foi visto que a função de densidade de Tn−1 é simétrica em torno do zero, então procuramos
na tabela o valor de T(n−1,1− α2 ) tal que:
· ¸
X̄n − µ √
P −t(n−1,1− α2 ) ≤ n ≤ t(n−1,1− α2 ) = 1 − α
S
e daı́ temos: · ¸
S S
P X̄n − t (n−1,1− α
2)
√ ≤ µ ≤ X̄n + t(n−1,1− 2 ) √
α =1−α
n n
e nosso intervalo de confiança é definido por:
S X1 + · · · + Xn S
I(X1 ,X2 , . . . ,Xn ) = X̄ − t(n−1,1− α2 ) √ = − t(n−1,1− α2 ) √
n n n
S X1 + · · · + Xn S
S(X1 ,X2 , . . . ,Xn ) = X̄ + t(n−1,1− α2 ) √ = + t(n−1,1− α2 ) √
n n n

Exemplos:
4. No exemplo 1, suponhamos não conhecer σ 2 , mas um estimador S 2 = 78,45 nos é fornecido. De-
termine o intervalo de 95% de confiança.

Solução:
S
I(x1 , . . . ,x20 ) = X̄ − t(19;0,975) √
n

78,45
= 81,20 − 2,093 √
20
p
= 81,20 − 2,093 3,92
= 81,20 − 4,15 = 77,05

S(x1 , . . . ,x20 ) = 81,20 + 4,15 = 85,35

Portanto o intervalo é (77,05; 85,35).


5. No exemplo 3, suponhamos que não conhecemos a variância. Usando a amostra no entanto achamos
S 2 = 93,89. Calcule um intervalo de confiança de 90%.

Solução:
S
I(x1 , . . . ,x10 ) = X̄ − t(9;0,95) √
n

93,89
= 72,09 − 1,833 √
10
p
= 72,09 − 1,833 9,389
= 72,09 − 5,62 = 66,47

S(x1 , . . . ,x10 ) = 72,09 + 5,62 = 77,71

Portanto o intervalo é (66,47; 77,71).

122
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

5.3.5.2 Intervalo de confiança para o parâmetro p da distribuição binomial

Vamos construir intervalos de confiança para o parâmetro p de distribuição binomial com n conhecido.
X − np
Se X ∼ b(n, p), o Teorema Central do Limite afirma que para n grande, p tem distribuição
np(1 − p)
aproximadamente normal com média zero e variância um. Então:
" #
X − np
P −z(1− α2 ) ≤ p ≤ z(1− α2 ) ≈ 1 − α
np(1 − p)

que pode ser reescrito por:


 
X
−p
P −z(1− α2 ) ≤ q n
≤ z(1− α2 )  ≈ 1 − α
p(1−p)
n

ou ainda " r r #
X p(1 − p) X p(1 − p)
P − z(1− α2 ) ≤p≤ + z(1− α2 ) ≈1−α
n n n n

X
Como os limites do intervalo dependem de p, substituimos por seu estimador dado por e assim:
n
v
uX
u (1 − X )
X t
I(X) = − z(1− α2 ) n n
n n
v
uX
u (1 − X )
X t
S(X) = + z(1− α2 ) n n
n n

Observação: Aparentemente, neste caso, estamos construindo um intervalo de confiança para p a


partir de uma observação da variável X. Mas na verdade pode ser provado que X possui a distribuição
de uma soma de n variáveis aleatórias independentes X1 ,X2 , . . . ,Xn , onde cada uma destas variáveis tem
distribuição binomial com parâmetros 1 e p.

Em outras palavras, X e Y = X1 + · · · + Xn onde P(Xi = 1) = p e P(Xi = 0) = (1 − p) possuem a


mesma distribuição.

Então na verdade:
X X1 + · · · + Xn
= = X̄
N n
é a média de uma amostra aleatória de tamanho n de uma distribuição binomial com parâmetros 1 e p.

Exemplo:

Seja X uma variável aleatória com distribuição binomial de parâmetros 300 e p. Foi tomada uma
observação e achou-se X = 75. Encontrar um intervalo de confiança de 90% para p.

123
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Solução:
v
ux
u (1 − x )
x t
I(x) = − z(1− α2 ) n n
n n
v
u 75 75
u (1 − )
75 t
= − 1,645 300 300
300 300
= 0,25 − 0,04 = 0,21

v
ux
u (1 − x )
x t
S(x) = + z(1− α2 ) n n
n n
= 0,25 + 0,04 = 0,29

portanto o intervalo é (0,21; 0,29).

5.3.5.3 Intervalo de confiança para diferença de duas médias - Caso normal

Sejam X1 ,X2 , . . . ,Xn uma amostra aleatória de tamanho n de uma variável X com distribuição normal
com média µ1 e variância σ12 e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de tamanho m de uma variável Y
com distribuição normal com média µ2 e variância σ22 ; sendo as duas variáveis aleatórias independentes.
Nesta subseção veremos como encontrar um intervalo de confiança para µ2 − µ1 , ou seja, encontrar
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) e S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) tais que:

P[I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) ≤ µ2 − µ1 ≤ S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym )] = 1 − α

Este problema ocorre frequentemente na vida profissional do engenheiro. Consideremos o seguinte


exemplo: suponhamos que estamos produzindo barras de aço e calibramos a linha de produção de modo
que, se X representa o comprimento das barras, X tem distribuição normal com média µ1 e variância
σ 2 . Em determinado momento o mercado pede barras com comprimento maior do que o usual. Então
faremos nova calibração na linha de produção, para aumentarmos os comprimentos, de modo que σ 2 não
varie. Após a calibração faremos uma produção prévia e construiremos um intervalo de confiança para
µ2 −µ1 , onde µ2 será a nova média. Se I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) e S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym )
são ambos positivos, é razoável pensar que estamos satisfazendo as novas exigências do mercado.

Caso 1: As variâncias são conhecidas.

Para construir o intervalo de confiança para µ2 − µ1 no caso em que σ12 e σ22 são conhecidas, usamos
a variável aleatória
Ȳn − X̄m − (µ2 − µ1 )
Z= r
σ12 σ2
+ 2
n m
definida em 5.3.3.2, que tem distribuição normal padrão e os extremos do intervalo são:

124
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

r
σ12 σ2
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ − z(1−α/2) + 2
n m
r
2
σ1 σ2
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ + z(1−α/2) + 2
n m
Exemplo:

Suponha que estamos testando a resistência à tração de 10 barras de aço produzidas pelo fabricante
1 e 15 barras produzidas pelo fabricante 2. A partir de experiências anteriores sabemos que o fabricante
1 produz barras de aço cuja resistência à tração tem variância de 900 kgf 2 /cm4 , enquanto para o fabri-
cante 2 este valor é 625 kgf 2 /cm4 . As amostras nos forneceram resistências médias de 5.000 kgf /cm2
e 4.800 kgf /cm2 respectivamente para os fabricantes 1 e 2. Construa um intervalo de confiança de 90%
para a diferença entre as médias (µ2 − µ1 ).

Solução:

r r
σ12 σ2 900 625
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = X̄2 − X̄1 − z(1−α/2) + 2 = 4.800 − 5000 − 1,645 +
n m 10 15

r r
σ12 σ2 900 625
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) =≤ X̄2 − X̄1 + z(1−α/2) + 2 = 4.800 − 5000 + 1,645 +
n m 10 15
E assim o intervalo procurado é
−218,88 kgf /cm2 ≤ µ2 − µ1 ≤ −181,12 kgf /cm2

Caso 2: As variâncias são desconhecidas mas iguais.

Para construir o intervalo de confiança para µ2 − µ1 no caso em que σ 2 não é conhecida usamos a
variável aleatória Tn+m−2 definida em 5.3.3.4 e os extremos do intervalo são:

r
1 1
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ − t(n+m−2, 1− α
2)
Sp +
n m

r
1 1
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ + t(n+m−2, 1− α
2)
Sp +
n m

onde: s
(n − 1)S12 + (m − 1)S22
Sp =
n+m−2
e além disso: h i
α
t(n+m−2, 1− α
2)
é tal que P Tn+m−2 ≤ t(n+m−2, 1− α
2)
=1−
2
e S12 e S22 são as variâncias amostrais correspondentes. Como σ12 = σ22 = σ 2 não é conhecida usamos o
estimador Sp2 .

125
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Exemplos:

1. No exemplo da produção de barras de aço e da calibragem da máquina, suponha que X̄ = 31,24;


S1 = 1,57; n = 10; Ȳ = 26,69; S2 = 1,42; n = 15. Construa um intervalo de confiança de 95% para
µ2 − µ1 .

Solução:

r s · ¸
1 1 9(1,57)2 + 14(1,42)2 1 1
Sp + = + = 0,604
n m 10 + 15 − 2 10 15

t(n+m−2, 1− α
2)
= t23;0,975 = 2,069
então:
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = 26,69 − 31,24 − (0,604)(2,069) = −2,80

S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = 26,69 − 31,24 + 1,25 = −0,30


portanto o intervalo procurado é (−2,80; −0,30)

2. Uma linha de produção produz barras de aço cujo comprimento X é uma variável aleatória que
pelas caracterı́sticas do processo de produção pode-se supor normalmente distribuı́da com média
µ1 e variância σ 2 desconhecida. A linha de produção foi submetida a uma nova calibração para
aumentar a média, porém conservando a variância igual a σ 2 . Duas amostras, antes e depois da
calibração foram obtidas e calculou-se x̄ = 3,82 m; S12 = 0,08 m2 ; ȳ = 4,08 m; S22 = 0,10 m2 . Se
os tamanhos amostrais foram 15 e 20 respectivamente, encontre um intervalo de confiança de 95%
para µ2 − µ1 .

Solução:

r s · ¸
1 1 14(0,08) + 19(0,10) 1 1
Sp + = + = 0,103
n m 15 + 20 − 2 15 20

t(n+m−2, 1− α
2)
= t33;0,975 = 2,03

então:
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = 4,08 − 3,82 − (0,103)(2,03) = 0,26 − 0,21 = 0,05

S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = 0,26 + 0,21 = 0,47


portanto o intervalo procurado é (0,05; 0,47)

126
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Caso 3: As variâncias são desconhecidas e diferentes.

Para construir o intervalo de confiança para µ2 − µ1 no caso em que σ12 e σ22 são desconhecidas ainda
usamos a mesma variável aleatória T definida em 5.3.3.4, com os graus de liberdade calculados por:
µ ¶2
S12 S22
+
n m
ν= ¡ ¢2 ¡ 2 ¢2 − 2
2
S1 /n S /m
+ 2
n+1 m+1
Neste caso os extremos do intervalo são:
r
S12 S2
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ − t(ν, 1− α
2)
+ 2
n m

r
S12 S2
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = Ȳ − X̄ + t(ν, 1− α
2)
+ 2
n m

5.3.5.4 Intervalo de confiança para variância de uma distribuição normal


Caso 1: µ desconhecida.

Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma distribuição normal com média µ e variância σ 2 ,
(n − 1)S 2
com µ e σ 2 desconhecidas. Sabemos de 5.3.3.3 que tem distribuição quiquadrado com n − 1
σ2
graus de liberdade. Então da tabela teremos que:

· ¸
2 (n − 1)S 2 2
P X(n−1, α ≤ ≤ X(n−1, 1− α
2) σ2 2)

2 2
onde X(n−1, α e X(n−1, 1− α são tais que:
2) 2)

2 2 α 2 2 α
P[Xn−1 ≤ X(n−1, α ]= e P[Xn−1 ≤ X(n−1, 1− α ] =1−
2) 2 2) 2

Daı́ obtemos os extremos do intervalo:


(n − 1)S 2
I(X1 ,X2 , . . . ,Xn ) = 2
X(n−1, 1− α )
2
n
X
(n − 1) (xi − x̄)2
= 2
X(n−1, 1− α n−1
2 ) i=1

127
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

(n − 1)S 2
S(X1 ,X2 , . . . ,Xn ) = 2
X(n−1, α
) 2
n
(n − 1) X (xi − x̄)2
= 2
X(n−1, α ) i=1 n − 1
2

Caso 2: µ conhecida.

Quando µ é conhecida o procedimento para construção do intervalo de confiança é o mesmo, só que
µ ¶2
Pn xi − µ
usamos que também tem distribuição quiquadrado, mas com n graus de liberdade.
i=1 σ
Exemplo:

Uma amostra aleatória de tamanho 15 de uma distribuição normal com média µ e variância σ 2 foi
obtida e calculou-se x̄ = 3,20; S 2 = 4,24. Determinar um intervalo de confiança de 90% para σ 2 .

Solução:

(n − 1)S 2
I(X1 , . . . ,X15 ) = 2
X(n−1, 1− α ) 2

14 × 4,24
= 2
X(14; 0,95)
59,36
= = 2,51
23,68

14 × 4,24
S(X1 , . . . ,X15 ) = 2
X(14; 0,05)
59,36
= = 9,04
6,57

portanto o intervalo procurado é (2,51; 9,04)

5.3.5.5 Intervalo de confiança para razão de variâncias - Caso normal


Sejam X uma variável aleatória com distribuição normal com média µ1 e variância σ12 ; Y uma variável
aleatória com distribuição normal com média µ2 e variância σ22 independente de X.

Sejam X1 ,X2 , . . . ,Xn e Y1 ,Y2 , . . . ,Ym amostras aleatórias das respectivas distribuições. Nesta subseção
σ2
iremos construir um intervalo de confiança para 22 .
σ1
De 5.3.3.5 sabemos que

S12 σ22
F =
S22 σ12
tem distribuição F com n − 1 e m − 1 graus de liberdade.

128
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

Então na tabela encontramos F α2 ,(n−1, m−1) e F1− α2 ,(n−1, m−1) tais que
h i
P F α2 ,(n−1, m−1) ≤ F ≤ F1− α2 ,(n−1, m−1) =1−α

Daı́ os extremos do intervalo são:

S22
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = F α2 ,(n−1, m−1)
S12
S22
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = F1− α2 ,(n−1, m−1) .
S12
Como foi visto em 5.3.3.5 (Distribuição F de Fisher),
1
F α2 ,(n−1, m−1) =
F 1− α
2 ,(m−1, n−1)

e assim podemos reescrever:


1 S22
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = 2
F1− α2 ,(m−1, n−1) S1

Os limites do intervalo de confiança para o caso em que as médias µ1 e µ2 são conhecidas podem ser
obtidos com as modificações adequadas usando o mesmo modelo.

Exemplo:

Imagine que tenhamos as duas amostras de uma distribuição normal de tamanhos 10 e 5 e que as
variâncias amostrais sejam respectivamente s21 = 20,0 e s22 = 35,6. Qual seria o intervalo de confiança
com α = 0,05 para σ22 /σ12 ?

Solução:

1 35,6
I(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) =
F0,975(4, 9) 20,0
1 35,6
=
4,72 20,0
= 0,38

35,6
S(X1 ,X2 , . . . ,Xn ; Y1 ,Y2 , . . . ,Ym ) = F0,975(9, 4)
20,0
35,6
= 8,90
20,0
= 15,84

Assim o intervalo de 95% para σ22 /σ12 é (0,38; 15,84).

129
5.3. ESTIMAÇÃO DE PARÂMETROS cpa/gsa

5.3.5.6 Intervalo de confiança para a média - distribuição não normal


Todos os casos discutidos até aqui envolveram distribuições normais. Vamos considerar agora um caso
em que não temos distribuição normal e no qual usaremos o Teorema Central do Limite.

Seja X1 ,X2 , . . . ,Xn uma amostra aleatória de uma variável X com função de densidade
√ de proba-
n(Xn − µ)
bilidade f (x,θ), θ ∈ Θ. Se a variância de X é positiva e finita, sabemos que Zn = tem
σ
distribuição aproximadamente normal com média zero e variância um. Então, na tabela da normal padrão
achamos z(1− α2 ) tal que:

· ¸
Xn − µ √
P −z(1− α2 ) ≤ n ≤ z(1− α2 ) = 1 − α
σ

e obtemos um intervalo (aproximado) com coeficiente de confiança 100(1 − α)%, cujos extremos são:

σ
I(X1 ,X2 , . . . ,Xn ) = X̄ − z(1− α2 ) √
n

σ
S(X1 ,X2 , . . . ,Xn ) = X̄ + z(1− α2 ) √
n

Podemos observar que estes extremos são iguais aos extremos achados no caso 5.3.5.1, mas aqui o
intervalo é aproximado, enquanto em 5.3.5.1 ele era exato.

Quando σ 2 não é conhecida, usamos a estatı́stica


Xn − µ √ √
n n(Xn − µ)
1
zn = s σ =
(n − 1)S 2 S
(n − 1)σ 2

Como já vimos na seção 5.3.4, sabemos que a distribuição de zn1 ainda é aproximadamente normal
padrão e neste caso o nosso intervalo aproximado tem os extremos:

S
I(X1 ,X2 , . . . ,Xn ) = X̄ − z(1− α2 ) √
n
S
S(X1 ,X2 , . . . ,Xn ) = X̄ + z(1− α2 ) √
n

Observe que f (x,θ) neste caso é uma função de densidade de probabilidade qualquer. A única exigência
que fazemos, além de n ser grande,é que a variância seja finita e positiva.

130
5.4. TESTE DE HIPÓTESES cpa/gsa

Exemplos:
1. Observou-se o tempo de vida de 65 lâmpadas produzidas pela fábrica A. Se x̄ = 321 dias e S = 18,4
dias, construa um intervalo de confiança de 95% para µ, a vida média das lâmpadas produzidas
pela fábrica A.

Solução:

n(Xn − µ)
Neste caso não conhecemos a variância, então usaremos a estatı́stica zn1 = :
S
S
I(x1 , . . . ,x65 ) = x̄ − z(1− α2 ) √
n
18,4
= 321 − z(0,975) √
65
= 321 − 1,96 × 2,2822
= 321 − 4,47 = 316,96

S(x1 , . . . ,x65 ) = 321 + 4,47


= 325,47

e o intervalo de confiança é (316,96; 325,47)

2. Suponha que no exemplo anterior a variância é conhecida e igual a 400. Construa o novo intervalo
de confiança de 95% para µ

Solução:


400
I(x1 , . . . ,x65 ) = 321 − 1,96 √
65
= 321 − 1,96(2,4807)
= 321 − 4,86 = 316,14

S(x1 , . . . ,x65 ) = 321 + 4,86


= 325,86

Intervalo é (316,14; 325,86)

5.4 Teste de Hipóteses


5.4.1 Introdução

Na seção anterior aprendemos a construir intervalos de confiança para parâmetros que estimamos a
partir de amostras. Como veremos a seguir esta é uma ferramenta fundamental no estudo de um dos
tópicos mais importantes no dia a dia dos engenheiros: o teste de hipóteses. Apresentamos a seguir alguns
conceitos básicos.

131
5.4. TESTE DE HIPÓTESES cpa/gsa

Definição 28. Hipótese Estatı́stica - Uma hipótese estatı́stica é uma afirmação sobre uma população.
A afirmação pode ser referente à distribuição ou aos parâmetros que caracterizam a distribuição.
Exemplos:
1. X tem distribuição normal.
2. E(X) = µ = 100.
3. V (X) = σ 2 = 200.
Introduzimos os conceitos básicos sobre testes de hipótese através do seguinte exemplo:

Suponha que uma empresa produza vigotas premoldadas de concreto de comprimento X. De acordo
com o padrão de produção da empresa, X tem distribuição normal com média µ = 120 cm e desvio
padrão σ = 0,5 cm.
Um cliente dessa empresa formula uma reclamação alegando que as vigotas estão sendo produzidas
com comprimento menor e reinvindica a devolução do dinheiro pago pela compra feita no último mês.
Neste problema, a hipótese do fabricante é que µ = 120 cm. e a hipótese do cliente é que µ < 120
cm. Assim o fabricante precisa tomar uma decisão com respeito à reclamação do comprador. O que
normalmente se faz é colher uma amostra aleatória de tamanho n e observar a média amostral. É muito
natural, neste exemplo, decidir em favor do cliente se a média amostral for pequena e menor que 120.
Ou seja a reclamação do cliente será atendida se X̄n < 120 − c para alguma constante positiva c.

120-c 120

Região Crítica

Neste problema µ = 120 é chamada Hipótese Nula e será denotada por H0 (H0 : µ = 120 cm no
exemplo). Já µ < 120 é chamada de Hipótese Alternativa e será denotada por H1 (H1 : µ < 120 cm
no exemplo).

O procedimento que leva a tomar uma decisão com respeito à média é chamado de Teste de Hipótese.
X̄n no exemplo é chamada de Estatı́stica do Teste. A região destacada na figura anterior, chama-se
Região Crı́tica. Esta região contém todos os valores de X̄n para os quais daremos razão ao cliente.

Antes de continuarmos precisamos estabelecer uma diferença entre uma Hipótese e uma Proposição.
Uma proposição é aceita universalmente e ela pode ser provada: O Teorema fundamental do cálculo, o
Teorema de Pitágoras ou as Leis de Newton são exemplos de proposições e elas podem ser provadas. Uma
hipótese não pode ser provada. Em algumas situações, sob determinadas condições, a hipótese pode ser
verdadeira e sobre outras condições pode ser falsa.

Ao tomarmos uma decisão sobre uma hipótese estamos sujeitos a dois tipos de erro: o primeiro, cha-
mado de erro tipo I é rejeitar H0 sendo ela verdadeira. O segundo, chamado de erro tipo II é não
rejeitar H0 sendo ela falsa. Na literatura universal costuma ser usada a seguinte tabela:

Decisão H0 é verdadeira H0 é falsa


Rejeitar H0 Erro tipo I Decisão correta
Não rejeitar H0 Decisão correta Erro tipo II

No exemplo de testar H0 : µ = 120 contra H1 : µ < 120, dissemos que podemos decidir em favor do
cliente se X̄n < 120 − c. Resta encontrar o valor da constante c. Para encontrar tal valor precisamos da

132
5.4. TESTE DE HIPÓTESES cpa/gsa

Definição 29. Nı́vel de significância: o nı́vel de significância de um teste, representado por α, é


a probabilidade de cometer erro tipo I. O valor de α é fixado de acordo à seriedade do erro tipo I.
Geralmente α = 0,01; 0,05; 0,1.

Então
α = P(cometer erro tipo I) = P(rejeitar H0 |H0 é verdadeira)
2
No exemplo, α = P(X̄n < 120 − c|µ = 120). Como sabemos que sob H0 , X̄n ∼ N (120; 0,5 n ) podemos
escrever
½√ √ ¾
n n
P(X̄n < 120 − c|µ = 120) = P (X̄n − 120) < [(120 − c) − 120] |µ = 120
0,5 0,5
µ √ ¶
n
= P Z < [(120 − c) − 120]
0,5
µ √ ¶
n
= P Z < −c
0,5

Da tabela normal padrão obtemos zα √tal que


n
P(Z < zα ) = α. Resolvendo a equação −c = zα ,
0,5
−0,5
obtemos c = √ zα .
n za 0

Figura 5.1: zα : P(Z ≤ zα ) = α

−0,5
Para ilustração, se α = 0,05 e n = 25; então zα = −1,645 e c = √ (−1,645) = 0,1645.
25
Ou seja, decidimos em favor do cliente se X̄ < 120 − 0,1645 = 119,84 cm.

Resumindo: Se uma amostra aleatória de tamanho 25 é obtida, ao nı́vel α = 0,05 rejeitamos


H0 : µ = 120 e adotamos a hipótese H1 : µ < 120 se X̄ < 119,84. A região crı́tica neste caso, para
o nı́vel de significância α = 0,05 é C = {(X1 , . . . ,Xn ) : X̄ < 119,84}

Agora suponha que após a amostra ter sido retirada encontra-se X̄ = 119,7. Qual a decisão a ser
tomada? Desde que o valor observado de X̄ é menor que 119,84; rejeitamos H0 ao nı́vel de α = 0,05;
ou seja a reclamação do cliente é procedente. Dissemos neste caso que ao nı́vel de α = 0,05 a média é
significantemente menor que 120.

Uma outra forma de conduzir o teste é calcular o p-valor amostral que no exemplo é definido como
a probabilidade de que a média amostral seja menor que aquele valor realmente observado. No exemplo
observa-se X̄25 = 119,7.

p-valor amostral = P(X̄25 < 119,7|µ = 120)


5 5
= P[ (X̄25 − 120) < (119,7 − 120)|µ = 120]
0,5 0,5
= P(Z < −3) = 0,001350

133
5.4. TESTE DE HIPÓTESES cpa/gsa

A decisão a ser tomada é rejeitar H0 para todo valor de α maior ou igual ao p-valor amostral. Neste
caso rejeitamos H0 para todo valor de α maior ou igual a 0,001350.

A vantagem de conduzirmos um teste usando o p-valor amostral é que este valor informa para nós
uma forte ou uma fraca evidência contra a hipótese nula. Quanto menor é o p-valor amostral mais forte
será a evidência que temos para rejeitar a hipótese nula.

Suponha por exemplo que uma segunda amostra foi escolhida e observou-se X̄25 = 119,8. O p-valor
neste último caso é:
p-valor amostral = P(X̄25 < 119,8|µ = 120)
5 5
= P[ (X̄25 − 120) < (119,8 − 120)|µ = 120]
0,5 0,5
= P(Z < −2) = 0,018309

α = 0,05

XA X B 119,84 120

Vê-se portanto que em ambas as amostras temos evidências para rejeitar H0 mas esta evidência é
mais forte no caso da primeira amostra.

Veremos a seguir a probabilidade do erro tipo II. A probabilidade desse erro será representada por
β. Lembremos que a probabilidade de erro tipo II é a probabilidade de não rejeitar H0 quando ela
é falsa. O espaço paramétrico sob a hipótese alternativa, no exemplo, é representado pelo conjunto
Θ = {µ ∈ R : µ < 120}. Precisamos avaliar a probabilidade de erro tipo II para cada valor de µ neste
conjunto.
Se o verdadeiro valor da média é igual a µ − δ para algum valor de δ > 0 então
β(120 − δ) = P(não rejeitar h0 |µ = 120 − δ)
= P(X̄25 ≥ 119,84|µ = 120 − δ)

Se o verdadeiro valor da média é µ = 120 − δ então



n£ ¤ 5 £ ¤
X̄25 − (120 − δ) = X̄25 − (120 − δ)
σ 0,5
tem distribuição normal padrão. Então:
· ¸
5 5
β(120 − δ) = P (X̄25 − (120 − δ)) ≥ (119,84 − (120 − δ))|µ = 120 − δ
0,5 0,5
= P[Z ≥ 10(−0,16 + δ)]
= P(Z ≥ −1,6 + 10δ)
= 1 − P(Z < −1,6 + 10δ)

134
5.4. TESTE DE HIPÓTESES cpa/gsa

Assim, no exemplo, se a média verdadeira fosse 119,75 então δ = 120−119,75 = 0,25 e a probabilidade
de erro tipo II seria:
β(120 − δ) = 1 − P(Z < −1,6 + 10δ) −→ β(119,75) = 1 − P(Z < 0,9) = 1 − 0,815940 = 0,18406
Define-se o poder de um teste, avaliado em µ = µ0 − δ como a probabilidade de rejeitar H0
quando o verdadeiro valor da média é igual a µ = µ0 − δ. Representa-se o poder por K. Isto é
K(µ0 − δ) = 1 − β(µ0 − δ).

No exemplo, K(120 − δ) = 1 − β(120 − δ).


A seguir apresentamos as probabilidades de erro tipo II e os correspondentes valores do poder do teste
para alguns valores de δ no exemplo:
δ β(δ) K(δ)
0,10 0,725747 0,274253
0,20 0,344578 0,655422
0,30 0,080757 0,919243
0,40 0,008198 0,991802

K(d)
Um bom exercı́cio para o leitor seria calcular os Valor da função

valores de β(δ) e K(δ) para diversos valores de δ


e fazer um gráfico, que teria o aspecto da figura
mostrada ao lado, que foi calculada com δ de 0 a b(d)
0,45, com variações de 0,002.
d
Até aqui introduzimos, através de um exemplo, os conceitos básicos de testes de hipóteses. A partir
de agora generalizaremos estes conceitos para diferentes situações.

5.4.2 Testes sobre a média de uma população com distribuição normal

5.4.2.1 Variância conhecida


Considere X variável aleatória normalmente distribuı́da com média µ desconhecida e variância σ 2
conhecida. Consideremos os seguintes testes:
• Teste 1: H0 : µ = µ0 H1 : µ < µ 0
• Teste 2: H0 : µ = µ0 H1 : µ > µ 0
• Teste 3: H0 : µ = µ0 H1 : µ 6= µ0
Os testes 1 e 2 são chamados testes unilaterais e o teste 3 é chamado bilateral. Naturalmente nos
testes será usada X̄n de uma amostra aleatória de tamanho n. Teremos respectivamente:

• Ao nı́vel α, no teste 1, H0 será rejeitada se


µ ¶
σ
X̄n < µ0 − zα √ , onde P(Z < zα ) = 1 − α
n

135
5.4. TESTE DE HIPÓTESES cpa/gsa

• Ao nı́vel α, no teste 2, H0 será rejeitada se


µ ¶
σ
X̄n > µ0 + zα √
n

• Ao nı́vel α, no teste 3, H0 será rejeitada se


µ ¶ µ ¶
σ σ
X̄n < µ0 − z α2 √ ou X̄n > µ0 + z α2 √
n n
ou de forma equivalente se µ ¶
σ
|X̄n − µ0 | > z α2 √
n

Exemplos:
1. Uma montadora de veı́culos anuncia que seu carro popular de 1.000 c.c. tem uma eficiência
energética média de 16 km/litro de gasolina rodando em estrada asfaltada. O editor do caderno
de veı́culos do jornal local afirma que a eficiência energética do carro é menor do que a anunciada
pela montadora, e para provar conduz um teste com 25 carros do tipo anunciado. Supondo que a
eficiência energética tem distribuição normal com variância de 11(km/l)2 :
(a) Formule um teste apropriado para o editor do jornal, e construa a região crı́tica com nı́vel de
significância α = 0,05.
(b) Se o valor obtido pelo jornalista no teste foi X̄ = 15,6 km/l qual seria a sua conclusão? Qual
o p-valor para a média obtida pelo editor? E qual seria se a média obtida fosse 14,8 km/litro?
(c) Se a eficiência energética média real destes carros fosse 15,4 km/l, qual seria a probabilidade
de erro tipo II e qual o poder do teste?
Solução:

(a) A hipótese nula do teste seria H0 : µ = 16 km/l, e como o editor está interessado em confirmar
que a eficiência energéticaµ é menor,
¶ a hipótese alternativa seria H1 : µ < 16 km/l. H0 será
σ
rejeitada se X̄ < µ0 − zα √ . Como dado pelo programa α = 0,05; achamos na tabela da
n
normal padrão z0,05 = 1,645 e portanto a região crı́tica será:
( √ )
11
C = (X1 , . . . ,X25 ) : X̄ < 16 − 1,645 √ = 16 − 1,09 = 14,91
25

Ou seja, a hipótese nula será rejeitada para os valores de X̄ < 14,91.


(b) Como a média observada 15,6 é maior que 14,9 não podemos rejeitar a hipótese nula (H0 :
µ = 16 km/l), e portanto não há evidências para apoiar a afirmação do jornalista de que a
eficiência energética é menor que 16,0 km/l.
Sabemos que o p-valor amostral pode ser obtido por

p-valor = P(X̄25 < 15,6|µ = 16)


√ √
n n
= P( (X̄25 − µ) < (15,6 − µ|µ = 16)
σ √ σ
25
= P(Z < √ (15,6 − 16|µ = 16)
11
= P(Z < −0,6030) = 0,2743

136
5.4. TESTE DE HIPÓTESES cpa/gsa

Como este valor é maior que o nı́vel de significância α = 0,05 vemos que X̄25 = 15,6 está fora
da região crı́tica, e confirmando o teste feito em (a) não rejeitamos H0 .
Já se a média amostral fosse X̄ = 14,8 o p-valor amostral seria obtido por:
p-valor = P(X̄25 < 14,8|µ = 16)

n
= P(Z < (14,8 − µ|µ = 16)
√σ
25
= P(Z < √ (14,8 − 16|µ = 16)
11
= P(Z < −1,81) = 0,0351
Nesse caso o p-valor é menor que o nı́vel de significância e portanto rejeitarı́amos H0 . Se a
média amostral fosse X̄ = 14,8 poderı́amos apoiar a afirmação do jornalista de que a eficiência
energética é menor que a anunciada pela montadora.
(c) Para calcularmos a probabilidade de cometer erro tipo II se a verdadeira média fosse 15,4
lembremos que:
β(15,40) = P(X̄25 > 14,91|X̄25 = 15,4)

n
= P[Z > (14,91 − 15,4)]
σ
5
= P[Z > √ (14,91 − 15,4)]
11
= P(Z > −0,7387) = 0,7704
A probabilidade de cometer erro tipo II se a média for 15,4 é 0,7704 e portanto o poder do
teste é 0,2296.

2. Um engenheiro está na fase de concretagem de diversos pilares em uma obra e encomenda concreto
pronto com resistência média de 900kgf /cm2 . Uma empresa concorrente do fornecedor habitual se
dispõe a entregar por um preço mais barato um concreto pronto que alega fornecer uma resistência
maior que o usado atualmente. O engenheiro solicita então da E.E.U.F.M.G. um laudo técnico
de teste de compressão em 36 corpos de prova fabricados com o concreto desta segunda empresa,
obtendo uma resistência média de 930kgf /cm2 . Supondo que a resistência à compressão do concreto
tem distribuição normal com variância 5.625(kgf /cm2 )2 , e utilizando em nı́vel de significância de
α = 0,01 responda:
(a) O engenheiro deve trocar de fornecedor?
(b) Qual o p-valor amostral do concreto do segundo fornecedor?
(c) Qual o poder do teste se a média real do concreto do segundo fornecedor for 950kgf /cm2 ?

Solução:
(a) Para avaliarmos a conveniência da troca de fornecedor estabelecemos o teste H0 : µ = 900
contra H1 : µ > 900. A região crı́tica será:
( µ ¶ Ã√ ! )
σ 5.625
C = (X1 , . . . ,X36 ) : X̄ > µ0 + zα √ = 900 + 2,33 √ = 900 + 29,25 = 929,25
n 36
Como a média observada 930 é maior que 929,25, rejeitamos a hipótese nula, e portanto há
evidências para apoiar a afirmação de que o concreto fornecido pelo concorrente aumenta a
resistência à compressão e portanto o engenheiro deve trocar de fornecedor.

137
5.4. TESTE DE HIPÓTESES cpa/gsa

(b) O p-valor amostral é

p-valor = P(X̄36 > 930|µ = 900)


·√ √ ¸
n n
= P √ (X̄36 − µ) > √ (930 − µ)|µ = 900
σ2 σ2
" √ #
36
=P Z> √ (930 − 900)|µ = 900
5.625
= P(Z > 2,4) = 0,0082

Como este valor é menor que o nı́vel de significância α = 0,01 vemos que X̄ está na região
crı́tica, e confirmando o teste feito em (a) rejeitamos H0 .
(c) Para calcularmos o poder do teste, vejamos a probabilidade de cometer erro tipo II se a
verdadeira média fosse 950:

β(950) = P(X̄36 < 929,25|µ = 950)


·√ √ ¸
n n
= P √ (X̄36 − µ) < √ (929,25 − µ)
σ2 σ2
" √ #
6 36
=P (X̄36 − 950) < √ (929,25 − 950)
75 5.625
· ¸
6
=P Z< (929,25 − 950)
75
= P(Z < −1,66) = 0,0485

E portanto o poder do teste é K(950) = 1 − 0,4085 = 0,9515.

3. Como analista do controle de qualidade de uma fábrica de lâmpadas você sabe que o tempo de
vida do produto tem distribuição normal com variância igual a 14.400 horas2 e que sua linha de
produção está ajustada para que as lâmpadas possuam uma vida média de 1.600 horas.
(a) Construa um teste de hipótese bilateral para a duração média da lâmpada, construindo a
região crı́tica para α = 0,10.
(b) Qual sua conclusão se um lote de 100 lâmpadas da produção de um dia forneceu X̄100 = 1.615
horas como duração média da lâmpada? Qual o p-valor amostral para esta amostra?
(c) Se a média real fosse 1.620 horas qual seria o poder do teste?

Solução:
(a) A hipótese nula é H0 = 1.600 e a hipótese alternativa é H1 6= 1.600. Rejeitamos a hipótese
nula se: µ ¶ µ ¶
σ σ
X̄n < µ0 − z 2
α √ ou X̄n > µ0 + z 2
α √
n n
Como o valor de α = 0,10, então z α2 = 1,645 e assim a região crı́tica é
½ µ ¶ µ ¶¾
120 120
C = (X1 , . . . ,X100 ) : X̄ < 1.600 − 1,645 ou X̄ > 1.600 + 1,645
10 10
© ª
C = (X1 , . . . ,X100 ) : X̄ < 1.580,26 ou X̄ > 1.619,74

138
5.4. TESTE DE HIPÓTESES cpa/gsa

(b) Como a média amostral X̄100 = 1.615 não está na região crı́tica não rejeitamos H0 , ou seja
não há evidências amostrais para rejeitarmos a afirmação de que a linha de produção produz
lâmpadas com duração média de 1.600 horas.
No teste bilateral H0 : µ = µ0 versus H1 : µ 6= µ0 o p-valor amostral é calculado da seguinte
forma:
i. Se x̄obs < µ0 , p-valor = 2P(X̄ < x̄obs |µ = µ0 )
ii. Se x̄obs > µ0 , p-valor = 2P(X̄ > x̄obs |µ = µ0 )
Assim sendo o p-valor amostral é calculado por:

p-valor = 2P(X̄100 > 1.615|µ = 1.600)


·√ √ ¸
n n
= 2P √ (X̄100 − µ) > √ (1.615 − 1.600)|µ = 1.600)
σ2 σ2
à √ !
100
= 2P Z > √ 15 = P(Z > 1,25) = 0,2113
14.400

O p-valor é maior que α = 0,10 confirmando então que não rejeitamos a hipótese nula.

(c) Para calcularmos o poder do teste, temos que calcular a probabilidade de cometer erro tipo II
se a verdadeira média fosse 1.620. Lembremos que a probabilidade de cometer erro tipo II é a
probabilidade de não rejeitarmos H0 quando ela é falsa. Para não rejeitarmos H0 , X̄ deverá
cair na região de aceitação, ou seja:

β(1.620) = P(Não rejeitar H0 |µ = 1.620)


= P(1.580,26 < X̄100 < 1.619,74|µ = 1.620)
·√ √ √ ¸
n n n
=P √ (1.580,26 − µ) < √ (X̄100 − µ) < √ (1.619,74 − µ)|µ = 1.620
σ2 σ2 σ2
" √ √ #
100 100
=P √ (1.580,26 − 1.620) < Z < √ (1.619,74 − 1.620)
14.400 14.400
= P(−3,31 < Z < −0,02)
= P(Z < −0,02) − P(Z < −3,31) = 0,492022 − 0,000466 = 0,491556

Logo o poder do teste é K = 1 − 0,491556 = 0,508444

5.4.2.2 Variância desconhecida


No caso da variância ser desconhecida, usamos seu estimador usual ou seja
Xn
1
S2 = (Xi − X̄)2
(n − 1) i=1

n(X̄n −µ)
Na sub-seção 5.3.5.1 (caso 2) estabelecemos, sem prova, que a estatı́stica Tn = S tem distri-
buição t de Student com n − 1 graus de liberdade. Baseados nesta distribuição:
• Teste 1, H0 : µ = µ0 H1 : µ < µ0 , rejeitamos H0 , ao nı́vel α, se
µ ¶
S
X̄n < µ0 − t(n−1;α) √
n

139
5.4. TESTE DE HIPÓTESES cpa/gsa

• Teste 2: H0 : µ = µ0 H1 : µ > µ0 , rejeitamos H0 , ao nı́vel α, se


µ ¶
S
X̄n > µ0 + t(n−1;α) √
n

• Teste 3: H0 : µ = µ0 H1 : µ 6= µ0 , rejeitamos H0 , ao nı́vel α, se


µ ¶
S
|X̄n − µ0 | > t(n−1; α2 ) √
n

Para recordar, t(n−1;α) é tal que P(Tn−1 > t(n−1;α) ) = α. E t(n−1; α2 ) é definido analogamente.

Exemplo
1. Num teste de resistência de cordas (7 cm. de diâmetro) para uma amostra de tamanho n = 16,
foram obtidos os seguintes resultados para a tensão de ruptura: X̄16 = 4.482kg e S16 = 115kg.
Suponha que a tensão de ruptura é uma variável com distribuição normal. Se o fabricante alega
que a resistência média é µ = 4.500 e você é responsável pela segurança de quem irá utilizar a
corda:
(a) Defina um teste apropriado e construa a região crı́tica com α = 0,01.
(b) Qual a conclusão para os valores amostrais apresentados? Qual o p-valor amostral?
(c) Qual a probabilidade de se cometer erro tipo II se a média real fosse 4.475kg?

Solução
(a) A hipótese nula é H0 : µ = 4.500 e a hipótese alternativa é H1 : µ < 4.500. Rejeitamos a
hipótese nula se: µ ¶
S
X̄n < µ0 − t(n−1;α) √
n
A região crı́tica é:
½ µ ¶¾
115
C= (X1 , . . . ,X16 ) : X̄16 < 4.500 − t(15; 0,01)
4
© ª
C = (X1 , . . . ,X16 ) : X̄16 < 4.500 − 2,602 × 28,75 = 4.425,19

(b) Como a média amostral é X̄16 = 4.482kg > 4.425,19kg, não rejeitamos a hipótese nula ou seja
não há evidências contrárias a que a resistência média da corda seja µ = 4.500 kg O p-valor
amostral é calculado por:

p-valor = P(X̄16 < 4.482|µ = 4.500)


·√ √ ¸
n n
=P (X̄16 − µ) < (4.482 − 4.500)|µ = 4.500)
S S
à √ !
16
= P T15 < (−18) = P(T15 < −0,63) ≈ 0,27
115

Como esperado pelo resultado de (a) o p-valor amostral é maior que o nı́vel de significância
dado α = 0,01, confirmando que não rejeitamos H0 .

140
5.4. TESTE DE HIPÓTESES cpa/gsa

(c) Para calcularmos a probabilidade de erro tipo II

β(4.475) = P(Não rejeitar H0 |µ = 4.475)


= P(X̄16 > 4.425,19|µ = 4.475)
·√ √ ¸
n n
=P (X̄16 − µ) > (4.425,19 − µ)
S S
" √ #
16
= P T15 < (4.425,19 − 4.475)
115
= P(T15 < −1,732)
= P(T15 > 1,732) ≈ 0,052

5.4.3 Testes sobre a média, caso não normal

Se X1 ,X2 , . . . ,Xn é uma amostra aleatória de


√ tamanho n de uma variável aleatória X com média µ
n(X̄n − µ)
e variância σ 2 e n é grande, a variável Zn = tem distribuição aproximadamente normal
σ
padrão. Se σ não é conhecida, √ usa-se o estimador S. Como estamos assumindo tamanhos amostrais
n(X̄n − µ)
grandes, a distribuição de Zn0 = ainda tem distribuição aproximadamente normal padrão.
S
• No teste 1: H0 : µ = µ0 H1 : µ < µ0 ; ao nı́vel de significância α, a região crı́tica aproximada é
½ µ ¶¾
σ
C = (X1 , . . . Xn ) : X̄n < µ0 − zα √ se σ é conhecido ou
n
½ µ ¶¾
S
C = (X1 , . . . Xn ) : X̄n < µ0 − zα √ se σ é desconhecido.
n
Observe que a região crı́tica usa o quantil da distribuição normal padrão, ou seja, a região crı́tica
é similar à região crı́tica no caso normal com variância conhecida. A diferença está que neste caso
a região crı́tica é aproximada. Para usar esta aproximação precisamos de amostras grandes. Quão
grande precisa ser esta amostra, depende da distribuição dos dados. Um histograma pode nos au-
xiliar na avaliação do tamanho amostral. Se o histograma é simétrico em torno de algum ponto,
precisamos de amostras relativamente pequenas (n = 30 pode ser suficiente), mas se o histograma
é assimétrico precisamos de tamanhos amostrais maiores.

• Teste 2: H0 : µ = µ0 H1 : µ > µ 0
• Teste 3: H0 : µ = µ0 H1 : µ 6= µ0

As regiões crı́ticas para os testes 2 e 3 são obtidas de forma análoga ao teste 1, sendo importante
reforçar que as regiões são aproximadas.

5.4.3.1 Um caso particular: testes sobre proporções


Imaginemos uma eleição para presidente em que o candidato A deseja fazer inferência sobre a pro-
porção de eleitores que apoiam sua candidatura. Assuma que existem dezenas de milhões de eleitores e
que o candidato A escolhe uma amostra aleatória de tamanho 3.500 e conta entre eles o número de eleito-
res que apoiam sua candidatura. Podemos considerar o número 3.500 muito pequeno quando comparado

141
5.4. TESTE DE HIPÓTESES cpa/gsa

às dezenas de milhões de eleitores que apoiam o candidato A. Sendo assim, se definirmos:

½
1 se o eleitor i apoia o candidato A,
Xi =
0 caso contrário.

pode-se assumir que X1 , X2 , . . . , X3500 são independentes e identicamente distribuı́das com distri-
buição de Bernoulli com parâmetro p, sendo p a proporção de eleitores na população que apoia o candi-
dato A.

Neste caso µ = E(X) = p e σ 2 = V (X) = p(1 − p).

Então, de acordo com o Teorema Central do Limite, a variável


√ √
n(X̄n − µ) n(p̂ − p)
Zn = =p
σ p(1 − p)
Pn
onde p̂ = X̄n = n1 i=1 Xi define a proporção estimada a partir da amostra, tem distribuição aproxima-
damente normal padrão.

No teste de H0 : p = p0 H1 : p < p0 , H0 será rejeitada, ao nı́vel de α, se


r
p0 (1 − p0 )
p̂ < p0 − zα
n

Exemplos:

1. (continuação) O candidato A afirma que p0 = 0,30. Se dos 3.500 eleitores entrevistados, 738 apoiam
sua candidatura, teste a hipótese nula com α = 0,05.

Solução:
A hipótese nula neste caso é H0 : p = 0,30 e a hipótese alternativa H1 : p < 0,30. Ao nı́vel de
α = 0,05, H0 será rejeitada se
r r
p0 (1 − p0 ) 0,30(0,70)
p̂ < p0 − zα = 0,30 − z0,05 = 0,30 − 1,642(0,007746) = 0,2873
n 3.500

Como o valor observado p̂ = 738/3500 = 0,2109 é menor que 0,2873, rejeitamos a hipótese nula; isto
é, há evidências para rejeitar a afirmação de que a proporção de eleitores que apoiam o candidato
A seja 0,30.

2. Uma linha de produção em grande escala produz 8% de itens defeituosos. A empresa dona da linha,
visando reduzir a proporção de defeituosos faz investimentos de grande porte na linha de produção
e antes de religá-la definitivamente produz para teste 800 itens dos quais 52 resultaram defeituosos.
Para avaliar o efeito dos investimentos, formule um teste apropriado e obtenha conclusões ao nı́vel
α = 0,05.

142
5.4. TESTE DE HIPÓTESES cpa/gsa

Solução:
A hipótese nula neste caso é H0 : p = 0,08. Espera-se que, para justificar os investimentos, a
proporção de itens defeituosos tenha diminuı́do, isto é H1 : p < 0,08. Ao nı́vel de α = 0,05, H0 será
rejeitada se

r r
p0 (1 − p0 ) 0,08(0,92)
p̂ < p0 − zα = 0,08 − z0,05 = 0,08 − 1,642(0,009592) = 0,06422
n 800

Como o valor observado p̂ = 52/800 = 0,065 não rejeitamos a hipótese nula, isto é, não há evidências
para rejeitar a afirmação de que a proporção de defeituosos na linha após os investimentos seja igual
a 0,08. Assim sendo os investimentos não surtiram efeito.

5.4.4 Teste sobre variância de uma população com distribuição normal

Considere uma amostra aleatória X1 ,X2 , . . . ,Xn de uma variável aleatória X com distribuição normal
com variância σ 2 . Abordamos nesta seção o problema de testes sobre variância:
• Teste 1: H0 : σ 2 = σ02 H1 : σ 2 < σ02
• Teste 2: H0 : σ 2 = σ02 H1 : σ 2 > σ02
• Teste 3: H0 : σ 2 = σ02 H1 : σ 2 6= σ02

(n − 1)S 2
Lembremos que a variável tem distribuição qui-quadrado com n − 1 graus de liberdade.
σ2
No teste 1, H0 será rejeitada se a variância amostral for menor que um valor c, ou seja a região crı́tica
do teste é da forma {(x1 ,x2 , . . . ,xn ) : S 2 < c}. O valor de c é encontrado a partir do valor de α:
· ¸
2 2 2 (n − 1)S 2 (n − 1)c 2 2
α = P(S < c|σ = σ0 ) = P < |σ = σ0
σ02 σ02
· ¸
2 (n − 1)c
assim α = P Xn−1 <
σ02
· ¸
2 (n − 1)c
ou de forma equivalente 1 − α = P Xn−1 > ¬
σ02
2
Da tabela da distribuição qui-quadrado encontramos o valor X(1−α;n−1) tal que

2 2
P(Xn−1 > X(1−α;n−1) )=1−α ­

(n − 1)c 2 σ02
De ¬ e ­ tem-se que = X(1−α;n−1) e portanto c = X2 .
2
σ0 n − 1 (1−α;n−1)
Concluı́mos então que no teste 1, ao nı́vel α rejeita-se H0 se

σ02
S2 < X2
n − 1 (1−α;n−1)

143
5.4. TESTE DE HIPÓTESES cpa/gsa

Exemplo:

As notas de uma disciplina ajustam uma distribuição normal. Historicamente a variância é igual a 36.
Um novo método de ensino está sendo proposto para tornar a turma mais homogênea no aprendizado.
20 alunos são matriculados em uma disciplina em que é usado o novo método e observou-se que o valor
amostral de S 2 foi igual a 32. Formule um teste apropriado e avalie se o novo método atingiu o objetivo
(use α = 0,10).

Solução:
A hipótese nula é H0 : σ 2 = 36. Como espera-se que o método tenha surtido resultado temos a
hipótese alternativa H1 : σ 2 < 36. H0 será rejeitada se
σ02 36 2
S2 < 2
X(1−α;n−1) = X = 1,8947 × 11,65 = 22,07
n−1 19 (0,9;19)
Não podemos portanto rejeitar H0 , o que sugere que o novo método não surtiu efeito.

Procedendo analogamente como feito no teste 1, conclui-se que no teste 2 H0 será rejeitada, ao nı́vel
α se
σ02
S2 > X2
n − 1 (α;n−1)

E no teste 3 H0 será rejeitada, ao nı́vel α se


σ02 σ02
S2 < X2 α ou S2 > X 2α
n − 1 (1− 2 ;n−1) n − 1 ( 2 ;n−1)

Exemplo:

Para melhorar o processo de fabricação de detergente de sua empresa, o dono adquiriu uma nova
máquina de enchimento de garrafas plásticas. O fabricante desta máquina garantia que com sua uti-
lização, a variância do volume de detergente em cada garrafa seria 8,75 ml2 . Após sua intalação, o
empresário retirou uma amostra aleatória de 20 garrafas. O volume de cada garrafa nesta amostra resul-
tou em uma variância de 13,4 ml2 . Se o volume de enchimento tem distribuição normal, há evidências de
que a máquina de enchimento está atendendo à performance de variabilidade informada pelo fabricante,
com α = 0,05?

Solução:
As hipóteses a serem testadas são H0 : σ 2 = 8,75 ml2 contra H1 : σ 2 6= 8,75 ml2 e a região crı́tica
será:
½ ¾
2 σ02 2 2 σ02 2
C : (X1 , . . . , X20 ) : S < X α ou S > X α
n − 1 (1− 2 ;n−1) n − 1 ( 2 ;n−1)
Na tabela da quiquadrado temos:
2 2
X(1− α
;n−1) = X(0,975;19) = 8,91
2

X(2α ;n−1) 2
= X(0,025;19) = 32,85
2

e a região crı́tica fica:


½ ¾
2 8,75 2 8,75 © ª
C : (X1 , . . . , X20 ) : S < × 8,91 ou S > × 32,85 = (X1 , . . . , X20 ) : S 2 < 4,10 ou S 2 > 15,12
19 19

144
5.4. TESTE DE HIPÓTESES cpa/gsa

Como a variância amostral (S 2 = 13,4) está fora da região crı́tica não rejeitamos H0 , ou seja, não há
evidências significativas de que a variância seja diferente de 8,75 ml2 .

5.4.5 Testes sobre diferença de médias


5.4.5.1 Variâncias conhecidas
Sejam X1 ,X2 , . . . ,Xn uma amostra aleatória de tamanho n de uma variável aleatória X com distri-
buição normal com média µ1 e variância σ12 e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de tamanho m de uma
variável aleatória Y com distribuição normal com média µ2 e variância σ22 ; X e Y independentes.

Como já vimos a estatı́stica:

X̄n − Ȳm − (µ1 − µ2 )


Z= r
σ12 σ2
+ 2
n m
tem distribuição normal padrão (média= 0 e variância= 1).

Portanto para testarmos:


• Teste 1: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 < 0

• Teste 2: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 > 0
• Teste 3: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 6= 0

usamos a estatı́stica Z e:
• No teste 1: Ao nı́vel α, rejeita-se H0 se
Ãr !
σ12 σ2
X̄ − Ȳ < −zα + 2
n m

• No teste 2: Ao nı́vel α, rejeita-se H0 se


Ãr !
σ12 σ2
X̄ − Ȳ > zα + 2
n m

• No teste 3: Ao nı́vel α, rejeita-se H0 se


Ãr ! Ãr !
σ12 σ22 σ12 σ22
X̄ − Ȳ < −z α2 + ou X̄ − Ȳ > z α2 +
n m n m

Exemplo:

Um empresa produz postes de ferro para padrão de energia elétrica, pintados com tinta prateada
especial. Um fabricante de produtos quı́micos está anunciando um catalisador especial que, misturado à
tinta usada pelo fabricante dos padrões reduz o tempo de secagem. Sabe-se que o tempo de secagem é
uma variável aleatória com distribuição normal com desvio padrão de 8 minutos e que este desvio padrão
não deve se alterar pela adição do novo produto quı́mico. Dez postes são pintados com a tinta usual e

145
5.4. TESTE DE HIPÓTESES cpa/gsa

dez com a tinta misturada ao novo produto, simultaneamente. Os tempos médios de secagem das duas
amostras foram X̄ = 121 minutos e Ȳ = 112 minutos. Quais as conclusões que o fabricante de postes pode
tirar sobre a eficiência do catalisador, com um nı́vel de significância de α = 0,05? Qual o p-valor amostral?

Solução:
As hipóteses a serem testadas são H0 : µX − µY = 0 e H0 : µX − µY > 0, e a região crı́tica
correspondente é:
( Ãr !)
σ12 σ22
C : (X1 , . . . , X10 ; Y1 , . . . , Y10 ) : X̄ − Ȳ > zα +
n m

como z0,05 = 1,645 fica


( Ãr ! )
82 82
C: (X1 , . . . , X10 ; Y1 , . . . , Y10 ) : X̄ − Ȳ > 1,645 + = 5,89
10 10

Como X̄ − Ȳ = 121 − 112 = 9 > 5,89, nós rejeitamos H0 e portanto a um nı́vel de significância de 5%
podemos afirmar que há evidências para apoiar a afirmação do fabricante de produtos quı́micos de que o
novo ingrediente reduz o tempo de secagem.

Para o cálculo do p-valor fazemos:

¡ ¢
p-valor =P X̄ − Ȳ > 9|µX − µY = 0
 
 X̄ − Ȳ − (µX − µY ) 9 − (µX − µY ) 
p-valor =P 
 r > r |µX − µY = 0

2 2 2 2
σ1 σ σ1 σ
+ 2 + 2
n m n m
 
 9 
p-valor =P 
Z > r
 = P(Z > 2,52) = 0,005868

82 82
+
10 10

5.4.5.2 Variâncias desconhecidas mas iguais


Tomemos agora X1 ,X2 , . . . ,Xn uma amostra aleatória de tamanho n de uma variável aleatória X com
distribuição normal com média µ1 e variância σ 2 e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de tamanho m
de uma variável aleatória Y com distribuição normal com média µ2 e variância σ 2 ; X e Y independentes
e variâncias desconhecidas, mas iguais.

Nesse caso temos a estatı́stica:

X̄n − Ȳm − (µ1 − µ2 )


T = r
1 1
Sp +
n m
que tem distribuição t de Student com (n + m − 2) graus de liberdade.

Onde s
(n − 1)S12 + (m − 1)S22
Sp =
n+m−2

146
5.4. TESTE DE HIPÓTESES cpa/gsa

Portanto para testarmos:


• Teste 1: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 < 0
• Teste 2: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 > 0
• Teste 3: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 6= 0

usamos a estatı́stica T e:
• No teste 1: Ao nı́vel α, rejeita-se H0 se
Ãr !
1 1
X̄ − Ȳ < −t(n+m−2;α) Sp +
n m

• No teste 2: Ao nı́vel α, rejeita-se H0 se


Ãr !
1 1
X̄ − Ȳ > t(n+m−2;α) Sp +
n m

• No teste 3: Ao nı́vel α, rejeita-se H0 se


Ãr ! Ãr !
1 1 1 1
X̄ − Ȳ < −t(m+n−2; α2 ) Sp + ou X̄ − Ȳ > t(m+n−2; α2 ) Sp +
n m n m

Exemplo:

Suponha que você tenha duas amostras de populações normais independentes (X e Y ) sabidamente
de mesma variância que produziram as seguintes estatı́sticas:
2
• Amostra 1 : Tamanho n = 15 Média X̄ = 24,2 Variância SX = 10
• Amostra 2 : Tamanho m = 10 Média Ȳ = 23,9 Variância SY2 = 20

Teste H0 : µX = µY contra H1 : µX 6= µY e calcule o p-valor amostral, com α = 0,10.

Solução:
Calculemos inicialmente o desvio padrão amostral ponderado:
s r
2
(n − 1)SX + (m − 1)SY2 14 × 10 + 9 × 20
Sp = = = 3,73
n+m−2 15 + 10 − 2

e da tabela t obtemos:
t(m+n−2; α2 ) = t(23;0,05) = 1,714
A região crı́tica então é:
Ãr ! Ãr !
1 1 1 1
X̄ − Ȳ < −t(m+n−2; α2 ) + = −1,714 × 3,73 × + = −2,61
n m 15 10

ou Ãr !
1 1
X̄ − Ȳ > t(m+n−2; α2 ) + = 1,714 × 3,73 × 0,408 = 2,61
n m

147
5.4. TESTE DE HIPÓTESES cpa/gsa

Como X̄ − Ȳ = 24,2 − 23,9 = 0,3 está fora da região crı́tica, não rejeitamos H0 , ou seja, há evidências
para apoiar a afirmação de que as populações possuem a mesma média.

Para calcularmos o p-valor amostral fazemos:

p-valor =P(X̄ − Ȳ > 0,3|µX − µY = 0)


 
0,3 − 0
p-valor =P t23 > q 
1 1
Sp n + m
µ ¶
0,3
p-valor =P t23 > ≈ 0,42
1,5228

5.4.5.3 Variâncias desconhecidas e diferentes


Se tivermos X1 ,X2 , . . . ,Xn uma amostra aleatória de tamanho n de uma variável aleatória X com
2
distribuição normal com média µ1 e variância σX e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de tamanho m
de uma variável aleatória Y com distribuição normal com média µ2 e variância σY2 ; X e Y independentes
e variâncias desconhecidas e diferentes, para testarmos:
• Teste 1: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 < 0
• Teste 2: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 > 0
• Teste 3: H0 : µ1 − µ2 = 0 H1 : µ1 − µ2 6= 0
teremos agora:

• Teste 1: Ao nı́vel α, rejeita-se H0 se


Ãr !
2
SX S2
X̄ − Ȳ < −t(ν;α) + Y
n m

• Teste 2: Ao nı́vel α, rejeita-se H0 se


Ãr !
2
SX S2
X̄ − Ȳ > t(ν;α) + Y
n m

• Teste 3: Ao nı́vel α, rejeita-se H0 se


Ãr ! Ãr !
2
SX S2 2
SX S2
X̄ − Ȳ < −t(ν; α2 ) + Y ou X̄ − Ȳ > t(ν; α2 ) + Y
n m n m

onde ν, o número de graus de liberdade da estatı́stica T nesse caso é calculado por:


µ 2
¶2
SX SY2
+
n m
ν= ¡ ¢2 ¡ 2 ¢2 − 2
2
SX /n SY /m
+
n+1 m+1

148
5.4. TESTE DE HIPÓTESES cpa/gsa

5.4.6 Teste sobre razão de variâncias

Suponha que X1 ,X2 , . . . ,Xn seja uma amostra aleatória de tamanho n de uma população com dis-
2
tribuição normal com média µX e variância σX e Y1 ,Y2 , . . . ,Ym uma amostra aleatória de tamanho m
de uma população com distribuição normal com média µY e variância σY2 . Se as duas populações são
independentes e quisermos comparar as variâncias das duas populações com os testes:
µ 2 ¶ µ 2 ¶
2 σX σX
• Teste 1: H0 : σX = σY2 = 1 contra H 1 : σ 2
X < σ 2
Y < 1
σY2 σY2
µ 2 ¶ µ 2 ¶
2 σX σX
• Teste 2: H0 : σX = σY2 = 1 contra H 1 : σ 2
X > σ 2
Y > 1
σY2 σY2
µ 2 ¶ µ 2 ¶
2 2 σX 2 2 σX
• Teste 3: H0 : σX = σY =1 contra H1 : σX 6= σY 6= 1
σY2 σY2

Lembremos que a estatı́stica


S12 σ22
S22 σ12
tem distribuição F de Fisher com n − 1 e m − 1 graus de liberdade. Assim podemos escrever que as
regiões crı́ticas de cada um dos três testes, a um nı́vel de significância α são:

• Teste 1: ½ ¾
S2
C: (X1 , . . . , Xn ; Y1 , . . . , Ym ) : X < f(n−1;m−1;1−α)
SY2
ou de forma equivalente, como vimos:
½ 2
¾
SX 1
C : (X1 , . . . , Xn ; Y1 , . . . , Ym ) : 2 <
SY f(m−1;n−1;α)

• Teste 2: ½ ¾
S2
C: (X1 , . . . , Xn ; Y1 , . . . , Ym ) : X > f(n−1;m−1;α)
SY2

• Teste 3: ( )
S2 1
C: (X1 , . . . , Xn ; Y1 , . . . , Ym ) : X <
SY2 f(m−1;n−1; α2 )
ou ½ ¾
2
SX
C: (X1 , . . . , Xn ; Y1 , . . . , Ym ) : > f(n−1;m−1; α2 )
SY2

Exemplo:

Duas indústrias quı́micas produzem uma matéria prima cuja concentração de um elemento em par-
ticular é muito importante. A média da concentração deste elemento nos produtos dos dois fabricantes
é a mesma, mas suspeita-se que a variabilidade possa diferir entre os dois produtos. São colhidas duas
amostras, uma de cada fabricante, com o seguinte resultado:
1. Amostra do fabricante X: n = 10 e SX = 4,7 gr/l
2. Amostra do fabricante Y : n = 16 e SX = 5,8 gr/l

149
5.5. EXERCÍCIOS cpa/gsa

Há evidências para concluirmos que a variância da concentração do elemento em estudo seja diferente
para os dois fabricantes (use α = 0,05)?

Solução:
2 2
σX σX
Temos que testar H0 : = 1 contra H 1 : 6= 1. Neste caso sabemos que a região crı́tica será:
σY2 σY2
( )
2 2
SX 1 SX
C : (X1 , . . . , X10 ; Y1 , . . . , Y16 ) : 2 < ou 2 > f(n−1;m−1; α2 )
SY f(m−1;n−1; α2 ) SY

Na tabela F de Fisher achamos:

f(m−1;n−1; α2 ) = f(15;9;0,0025) = 3,77 e f(n−1;m−1; α2 ) = f(9;15;0,0025) = 3,12

e assim a região crı́tica fica


½ 2 2
¾
SX 1 SX
C : (X1 , . . . , X10 ; Y1 , . . . , Y16 ) : 2 < = 0,265 ou 2 > 3,12
SY 3,77 SY

Como
2
SX 4,72 22,09
= = = 0,6564
SY2 5,82 33,64
está fora da região crı́tica, não rejeitamos H0 ou seja, não há evidências para rejeitar a afirmação que a
variância das duas populações sejam iguais.

Observação Final: Vimos no item 5.4.5 que existem três opções diferentes para testarmos diferença
de médias de duas amostras de populações normais:
2
• σX e σY2 conhecidas;
2
• σX e σY2 desconhecidas mas iguais
2
• σX e σY2 conhecidas e diferentes.
Se não tivermos nenhuma informação sobre as variâncias, devemos inicialmete testar a igualdade das
2
mesmas, conforme visto no item 5.4.6 e aı́ sim, após rejeitarmos ou não a hipótese H0 : σX = σY2 ,
escolhemos adequadamente o teste para diferença de médias.

5.5 Exercı́cios

1. O peso de ruptura de certo tipo de barras tem distribuição normal. Este peso foi medido para
18 destas barras. A média obtida foi 137,1 kg e a variância amostral S 2 igual a 4,62kg 2 (desvio
padrão= 2,15 kg). Encontre um intervalo de 95% de confiança para a média de ruptura destas
barras.
2. Uma variável aleatória tem distribuição normal com média desconhecida e variância= 9. Deseja-se
testar, ao nı́vel α = 0,05, a hipótese H0 : µ = 80 contra a alternativa H1 : µ 6= 80 . Defina a região
crı́tica deste teste, a partir de uma amostra aleatória de tamanho 16. Se o valor observado de foi
x̄16 = 82,6, qual a decisão que você tomaria?

150
5.5. EXERCÍCIOS cpa/gsa

3. Uma empresa produz barras de aço de 120 cm. O padrão de qualidade exige que as barras produzidas
tenham distribuição normal com desvio padrão σ = 0,5 cm (Variância=0,25 cm2 ). A seção de
controle de qualidade da empresa testa, a partir de amostra retirada aleatoriamente da procução
no inı́cio de cada semana, esta hipótese. No inı́cio da primeira semana de julho obteve os dados
registrados a seguir:

121,2 119,6 120,9 119,8 121,6 120,0 120,2 118,9 119,9 119,7
120,0 120,4 121,0 119,4 120,3 119,7 120,4 120,6 120,4

Supondo que a hipótese de normalidade não seja rejeitada, teste ao nı́vel de significância α = 0,05,
a hipótese especificada pelo padrão de qualidade, ou seja:
(a) Testar H0 : µ = 120 contra H1 : µ > 120;
(b) testar H0 : µ = 120 contra H1 :6= 120;
(c) assuma que a variância populacional é σ 2 = 0,25 e encontre o p-valor amostral no teste do
item (b).

4. Uma variável aleatória tem distribuição normal com média desconhecida e variância=9. Deseja-se
testar, ao nı́vel α = 0,01, H0 : µ = 100 contra H1 : µ 6= 100.

(a) Defina a região crı́tica para este teste a partir de uma amostra aleatória de tamanho 20;
(b) Se o valor observado de foi x̄20 = 104,6; qual a decisão que você tomaria? Calcule o p-valor
amostral;
(c) Calcule o poder do teste se o verdadeiro valor da media é 103.

5. Uma empresa produz barras de aço que de acordo a especificações do mercado precisam ter média
igual a 100 e desvio padrão igual a 1. Foi medido o comprimento de 15 barras e obteve-se:

99,9 101,2 99,4 101,2 102,1 101,2 99,8 99,5 102,0 103,5 100,1 103,8 101,6 100,7 99,3

Feito o teste de normalidade, esta hipótese não foi rejeitada.


(a) Teste a hipótese H0 : µ = 100 contra H1 : µ 6= 120 ao nı́vel α = 0,10;
(b) Teste a hipóteseH0 : σ 2 = 1 contra σ 2 6= 1 ao nı́vel α = 0,10;
(c) Calcule o p-valor amostral do teste descrito em (a) e calcule o poder do teste se o verdadeiro
valor da média for igual a 101.
(d) Construa um intervalo de confiança de 90% para a média.

6. Você é proprietário de uma empresa que produz vergalhões de aço para construção civil. Utililiza o
aço grau AO01 cuja resistência nominal à tração tem distribuição normal com média 50 kgf /mm2
e desvio padrão 2,5 kgf /mm2 . Um cliente tradicional de sua empresa alega que seu aço está forne-
cendo uma resistência à tração inferior à nominal. Suponha que você tem que julgar a reclamação
de seu cliente.
(a) Formule um teste apropriado e defina a região crı́tica ao nı́vel de α = 0,01; usando uma amostra
de tamanho 25.

151
5.5. EXERCÍCIOS cpa/gsa

(b) Se o valor observado de x̄25 = 47,5 kgf /mm2 , qual a sua decisão?
(c) Calcule o poder do teste se o verdadeiro valor da média é igual a 48 kgf /mm2 .

7. Lâmpadas para veı́culos eram tradicionalmente produzidas por um único fabricante. Uma nova
fábrica aparece no mercado, alegando que as lâmpadas por ela produzidas têm tempo de vida
maior. Duas lâmpadas, uma de cada fabrica, são colocadas nos faróis de 15 veı́culos e os tempos de
vida, em milhares de horas, das correspondentes lâmpadas observados. Os resultados obtidos estão
contidos na tabela abaixo:

Veı́culo 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Fab. A 3,6 2,5 2,2 3,4 3,3 2,6 2,0 3,9 3,9 3,4 4,4 3,7 2,9 5,9 4,2
Fab. B 4,4 3,3 2,8 4,4 3,6 3,7 2,1 4,6 5,1 4,6 3,6 4,6 2,7 5,6 3,9

(a) Formule um teste para avaliar a alegação da nova fabrica.


(b) Você compraria a nova lâmpada, sendo que ela é mais cara que a antiga? (use um nı́vel de
significância de 0,05).

8. Você é responsável pelo envazamento de latas de refrigerante de uma fábrica e semanalmente ins-
peciona a linha de produção para saber se ela está bem ajustada. A amostra da última semana
forneceu os seguintes volumes ( em ml.):

299 309 302 298 302 291 296 302 306 303 301 303

(a) Teste ao nı́vel α = 0,10; H0 : µ = 300 vs H1 : µ 6= 300.


(b) Teste ao nı́vel α = 0,10; H0 : σ 2 = 12 vs H1 : σ 2 6= 12.

9. O diâmetro de rodas ferroviárias produzidas por duas forjas está sendo investigado. Amostras
aleatórias de tamanhos n = 9 e m = 16 respectivamente das forjas X e Y , foram obtidas e apurou-
se o seguinte resultado
½ ½
x̄ = 670mm ȳ = 665mm
Forja X = 2 Forja Y =
SX = 49mm2 SY2 = 36mm2

(a) Existe alguma evidência para apoiar a afirmação de que as rodas da forja Y possuem diâmetro
menor que as rodas da forja X? Suponha que as variâncias são iguais e use α = 0,10.
(b) Encontre o p-valor para a estatı́stica calculada em a.

10. Um pesquisador do departamento de estatı́stica da UFMG estudou modelos de degradação para


analisar o tempo de vida de pneus automotivos. Para uma amostra de 51 pneus ele encontrou uma
distância média percorrida até o desgaste limite de 49.500 km, com desvio padrão igual a 1.600 km.
Suponha que a distância percorrida até o desgaste limite tenha distribuição normal.
(a) Encontre a região crı́tica para testar H0 : µ = 50.000 km contra H1 : µ < 50.000 km,
considerando um nı́vel de significância de 5%. A que conclusão você chega com o resultado
obtido pelo pesquisador?

152
5.5. EXERCÍCIOS cpa/gsa

(b) Qual o p-valor amostral da experiência relatada?


(c) Calcule o poder do teste feito em a, se o verdadeiro valor da média é igual a 49.815 km.

11. O peso de 9 alunos sorteados aleatoriamente na turma A1 de Estatı́stica e Probabilidade resultou


em:
68 80 80 70 82 87 73 80 65
Supondo que o peso é uma variável aleatória com distribuição normal:
(a) Construa um intervalo de confiança de 95% para a média.
(b) Teste a hipótese H0 : µ = 73 contra H1 : µ 6= 73 ao nı́vel α = 0,10 (Construa a região crı́tica e
explique o resultado).
(c) Teste a hipótese H0 : σ 2 = 120 contra H1 : σ 2 6= 120 ao nı́vel α = 0,05 (Construa a região
crı́tica e explique o resultado).

12. A chapa que tenta reconstruir o DA do Icex afirma contar com apoio de 80% dos estudantes do
Instituto. Um enquete é realizada com 100 estudantes escolhidos aleatoriamente, e 72 afirmaram
apoiar a chapa. Se p é a proporção dos alunos que apoiam a chapa:

(a) Defina; ao nı́vel de significância α = 0,01; a região crı́tica para testar H0 : p = 0,8 contra
H1 : p < 0,8.
(b) Construa um intervalo de confiança de 95% de confiança para a real proporção de pessoas que
apoiam a chapa com base na amostra da enquete.

153
Capı́tulo 6

Bibliografia

154
Referências Bibliográficas

[1] Atuncar, G. S. e Amorim, F. G. Estimação do número ótimo de classes em um histograma. Relatórios


de Projetos em Estatı́stica, Depto de Estatı́stica UFMG, Belo Horizonte. 2003
[2] Casella, George & Berger, Roger L Statistical Inference, 2nd Edition Duxbury, Thompson Learning.
2002.
[3] Hogg, R & Craig, A Introduction to Mathematical Statistics, 5th Edition. Prentice Hall. 1994.
[4] Karlin, S & Taylor, H A first course in stochastic process, Academic Press. 1975.
[5] Kolmogorov, A. N., Foundations of the theory of probability, Grundbegriffe der Wahrscheinlichkeits-
rechnung. 1933.
[6] Magalhaes Marcos Nascimento, Noções de Probabilidade e Estatı́stica, Marcos Nascimento Maga-
lhaes, Antônio Carlos Pedros de Lima. 6a ed. Editora Universidade de São Paulo. 2008.
[7] Montgomery D. C. e Runger G. C., Estatı́stica aplicada e probabilidade para engenheiros; tradução
Verônica Calado. LTC Livros Técnicos e Cientı́ficos Editora S.A. 2008.
[8] Ross, Sheldon, A First course in probability, 5th Edition. Prentice Hall, Inc. 1998.

155
Capı́tulo 7

Apêndice

156
cpa/gsa

Tabela 1: TABELA NORMAL

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,500000 0,503989 0,507978 0,511966 0,515953 0,519939 0,523922 0,527903 0,531881 0,535856
0,1 0,539828 0,543795 0,547758 0,551717 0,555670 0,559618 0,563559 0,567495 0,571424 0,575345
0,2 0,579260 0,583166 0,587064 0,590954 0,594835 0,598706 0,602568 0,606420 0,610261 0,614092
0,3 0,617911 0,621720 0,625516 0,629300 0,633072 0,636831 0,640576 0,644309 0,648027 0,651732
0,4 0,655422 0,659097 0,662757 0,666402 0,670031 0,673645 0,677242 0,680822 0,684386 0,687933
0,5 0,691462 0,694974 0,698468 0,701944 0,705401 0,708840 0,712260 0,715661 0,719043 0,722405
0,6 0,725747 0,729069 0,732371 0,735653 0,738914 0,742154 0,745373 0,748571 0,751748 0,754903
0,7 0,758036 0,761148 0,764238 0,767305 0,770350 0,773373 0,776373 0,779350 0,782305 0,785236
0,8 0,788145 0,791030 0,793892 0,796731 0,799546 0,802337 0,805105 0,807850 0,810570 0,813267
0,9 0,815940 0,818589 0,821214 0,823814 0,826391 0,828944 0,831472 0,833977 0,836457 0,838913
1,0 0,841345 0,843752 0,846136 0,848495 0,850830 0,853141 0,855428 0,857690 0,859929 0,862143
1,1 0,864334 0,866500 0,868643 0,870762 0,872857 0,874928 0,876976 0,879000 0,881000 0,882977
1,2 0,884930 0,886861 0,888768 0,890651 0,892512 0,894350 0,896165 0,897958 0,899727 0,901475
1,3 0,903200 0,904902 0,906582 0,908241 0,909877 0,911492 0,913085 0,914657 0,916207 0,917736
1,4 0,919243 0,920730 0,922196 0,923641 0,925066 0,926471 0,927855 0,929219 0,930563 0,931888
1,5 0,933193 0,934478 0,935745 0,936992 0,938220 0,939429 0,940620 0,941792 0,942947 0,944083
1,6 0,945201 0,946301 0,947384 0,948449 0,949497 0,950529 0,951543 0,952540 0,953521 0,954486
1,7 0,955435 0,956367 0,957284 0,958185 0,959070 0,959941 0,960796 0,961636 0,962462 0,963273
1,8 0,964070 0,964852 0,965620 0,966375 0,967116 0,967843 0,968557 0,969258 0,969946 0,970621
1,9 0,971283 0,971933 0,972571 0,973197 0,973810 0,974412 0,975002 0,975581 0,976148 0,976705
2,0 0,977250 0,977784 0,978308 0,978822 0,979325 0,979818 0,980301 0,980774 0,981237 0,981691
2,1 0,982136 0,982571 0,982997 0,983414 0,983823 0,984222 0,984614 0,984997 0,985371 0,985738
2,2 0,986097 0,986447 0,986791 0,987126 0,987455 0,987776 0,988089 0,988396 0,988696 0,988989
2,3 0,989276 0,989556 0,989830 0,990097 0,990358 0,990613 0,990863 0,991106 0,991344 0,991576
2,4 0,991802 0,992024 0,992240 0,992451 0,992656 0,992857 0,993053 0,993244 0,993431 0,993613
2,5 0,993790 0,993963 0,994132 0,994297 0,994457 0,994614 0,994766 0,994915 0,995060 0,995201
2,6 0,995339 0,995473 0,995604 0,995731 0,995855 0,995975 0,996093 0,996207 0,996319 0,996427
2,7 0,996533 0,996636 0,996736 0,996833 0,996928 0,997020 0,997110 0,997197 0,997282 0,997365
2,8 0,997445 0,997523 0,997599 0,997673 0,997744 0,997814 0,997882 0,997948 0,998012 0,998074
2,9 0,998134 0,998193 0,998250 0,998305 0,998359 0,998411 0,998462 0,998511 0,998559 0,998605
3,0 0,998650 0,998694 0,998736 0,998777 0,998817 0,998856 0,998893 0,998930 0,998965 0,998999
3,1 0,999032 0,999065 0,999096 0,999126 0,999155 0,999184 0,999211 0,999238 0,999264 0,999289
3,2 0,999313 0,999336 0,999359 0,999381 0,999402 0,999423 0,999443 0,999462 0,999481 0,999499
3,3 0,999517 0,999534 0,999550 0,999566 0,999581 0,999596 0,999610 0,999624 0,999638 0,999651
3,4 0,999663 0,999675 0,999687 0,999698 0,999709 0,999720 0,999730 0,999740 0,999749 0,999758
3,5 0,999767 0,999776 0,999784 0,999792 0,999800 0,999807 0,999815 0,999822 0,999828 0,999835
3,6 0,999841 0,999847 0,999853 0,999858 0,999864 0,999869 0,999874 0,999879 0,999883 0,999888
3,7 0,999892 0,999896 0,999900 0,999904 0,999908 0,999912 0,999915 0,999918 0,999922 0,999925
3,8 0,999928 0,999931 0,999933 0,999936 0,999938 0,999941 0,999943 0,999946 0,999948 0,999950
3,9 0,999952 0,999954 0,999956 0,999958 0,999959 0,999961 0,999963 0,999964 0,999966 0,999967

157
a
GL
0,995 0,990 0,975 0,970 0,950 0,900 0,800 0,700 0,600 0,500 0,400 0,300 0,250 0,200 0,150 0,100 0,050 0,025 0,010 0,005

1 0,00 0,00 0,00 0,00 0,00 0,02 0,06 0,15 0,27 0,45 0,71 1,07 1,32 1,64 2,07 2,71 3,84 5,02 6,63 7,88

2 0,01 0,02 0,05 0,06 0,10 0,21 0,45 0,71 1,02 1,39 1,83 2,41 2,77 3,22 3,79 4,61 5,99 7,38 9,21 10,60

3 0,07 0,11 0,22 0,25 0,35 0,58 1,01 1,42 1,87 2,37 2,95 3,66 4,11 4,64 5,32 6,25 7,81 9,35 11,34 12,84
Tabela 2
4 0,21 0,30 0,48 0,54 0,71 1,06 1,65 2,19 2,75 3,36 4,04 4,88 5,39 5,99 6,74 7,78 9,49 11,14 13,28 14,86

5 0,41 0,55 0,83 0,90 1,15 1,61 2,34 3,00 3,66 4,35 5,13 6,06 6,63 7,29 8,12 9,24 11,07 12,83 15,09 16,75 Qui-quadrado
6 0,68 0,87 1,24 1,33 1,64 2,20 3,07 3,83 4,57 5,35 6,21 7,23 7,84 8,56 9,45 10,64 12,59 14,45 16,81 18,55

7 0,99 1,24 1,69 1,80 2,17 2,83 3,82 4,67 5,49 6,35 7,28 8,38 9,04 9,80 10,75 12,02 14,07 16,01 18,48 20,28

8 1,34 1,65 2,18 2,31 2,73 3,49 4,59 5,53 6,42 7,34 8,35 9,52 10,22 11,03 12,03 13,36 15,51 17,53 20,09 21,95

9 1,73 2,09 2,70 2,85 3,33 4,17 5,38 6,39 7,36 8,34 9,41 10,66 11,39 12,24 13,29 14,68 16,92 19,02 21,67 23,59

10 2,16 2,56 3,25 3,41 3,94 4,87 6,18 7,27 8,30 9,34 10,47 11,78 12,55 13,44 14,53 15,99 18,31 20,48 23,21 25,19

11 2,60 3,05 3,82 4,00 4,57 5,58 6,99 8,15 9,24 10,34 11,53 12,90 13,70 14,63 15,77 17,28 19,68 21,92 24,73 26,76

12 3,07 3,57 4,40 4,60 5,23 6,30 7,81 9,03 10,18 11,34 12,58 14,01 14,85 15,81 16,99 18,55 21,03 23,34 26,22 28,30

13 3,57 4,11 5,01 5,22 5,89 7,04 8,63 9,93 11,13 12,34 13,64 15,12 15,98 16,98 18,20 19,81 22,36 24,74 27,69 29,82

14 4,07 4,66 5,63 5,86 6,57 7,79 9,47 10,82 12,08 13,34 14,69 16,22 17,12 18,15 19,41 21,06 23,68 26,12 29,14 31,32

15 4,60 5,23 6,26 6,50 7,26 8,55 10,31 11,72 13,03 14,34 15,73 17,32 18,25 19,31 20,60 22,31 25,00 27,49 30,58 32,80

16 5,14 5,81 6,91 7,16 7,96 9,31 11,15 12,62 13,98 15,34 16,78 18,42 19,37 20,47 21,79 23,54 26,30 28,85 32,00 34,27

17 5,70 6,41 7,56 7,83 8,67 10,09 12,00 13,53 14,94 16,34 17,82 19,51 20,49 21,61 22,98 24,77 27,59 30,19 33,41 35,72

158
18 6,26 7,01 8,23 8,51 9,39 10,86 12,86 14,44 15,89 17,34 18,87 20,60 21,60 22,76 24,16 25,99 28,87 31,53 34,81 37,16

19 6,84 7,63 8,91 9,20 10,12 11,65 13,72 15,35 16,85 18,34 19,91 21,69 22,72 23,90 25,33 27,20 30,14 32,85 36,19 38,58

20 7,43 8,26 9,59 9,90 10,85 12,44 14,58 16,27 17,81 19,34 20,95 22,77 23,83 25,04 26,50 28,41 31,41 34,17 37,57 40,00

21 8,03 8,90 10,28 10,60 11,59 13,24 15,44 17,18 18,77 20,34 21,99 23,86 24,93 26,17 27,66 29,62 32,67 35,48 38,93 41,40

22 8,64 9,54 10,98 11,31 12,34 14,04 16,31 18,10 19,73 21,34 23,03 24,94 26,04 27,30 28,82 30,81 33,92 36,78 40,29 42,80

23 9,26 10,20 11,69 12,03 13,09 14,85 17,19 19,02 20,69 22,34 24,07 26,02 27,14 28,43 29,98 32,01 35,17 38,08 41,64 44,18

24 9,89 10,86 12,40 12,75 13,85 15,66 18,06 19,94 21,65 23,34 25,11 27,10 28,24 29,55 31,13 33,20 36,42 39,36 42,98 45,56

25 10,52 11,52 13,12 13,48 14,61 16,47 18,94 20,87 22,62 24,34 26,14 28,17 29,34 30,68 32,28 34,38 37,65 40,65 44,31 46,93

26 11,16 12,20 13,84 14,22 15,38 17,29 19,82 21,79 23,58 25,34 27,18 29,25 30,43 31,79 33,43 35,56 38,89 41,92 45,64 48,29

27 11,81 12,88 14,57 14,96 16,15 18,11 20,70 22,72 24,54 26,34 28,21 30,32 31,53 32,91 34,57 36,74 40,11 43,19 46,96 49,65

28 12,46 13,56 15,31 15,70 16,93 18,94 21,59 23,65 25,51 27,34 29,25 31,39 32,62 34,03 35,71 37,92 41,34 44,46 48,28 50,99

29 13,12 14,26 16,05 16,45 17,71 19,77 22,48 24,58 26,48 28,34 30,28 32,46 33,71 35,14 36,85 39,09 42,56 45,72 49,59 52,34

30 13,79 14,95 16,79 17,21 18,49 20,60 23,36 25,51 27,44 29,34 31,32 33,53 34,80 36,25 37,99 40,26 43,77 46,98 50,89 53,67

40 20,71 22,16 24,43 24,94 26,51 29,05 32,34 34,87 37,13 39,34 41,62 44,16 45,62 47,27 49,24 51,81 55,76 59,34 63,69 66,77

50 27,99 29,71 32,36 32,95 34,76 37,69 41,45 44,31 46,86 49,33 51,89 54,72 56,33 58,16 60,35 63,17 67,50 71,42 76,15 79,49

60 35,53 37,48 40,48 41,15 43,19 46,46 50,64 53,81 56,62 59,33 62,13 65,23 66,98 68,97 71,34 74,40 79,08 83,30 88,38 91,95

70 43,28 45,44 48,76 49,50 51,74 55,33 59,90 63,35 66,40 69,33 72,36 75,69 77,58 79,71 82,26 85,53 90,53 95,02 100,43 104,21

80 51,17 53,54 57,15 57,96 60,39 64,28 69,21 72,92 76,19 79,33 82,57 86,12 88,13 90,41 93,11 96,58 101,88 106,63 112,33 116,32
cpa/gsa
a
GL
0,48 0,45 0,40 0,35 0,30 0,25 0,20 0,15 0,10 0,08 0,06 0,05 0,04 0,03 0,025 0,01 0,005 0,0025 0,001 0,0005

1 0,063 0,158 0,325 0,510 0,727 1,000 1,376 1,963 3,078 3,895 5,242 6,314 7,916 10,579 12,706 31,821 63,656 127,32 318,29 636,58 Tabela 3
2 0,057 0,142 0,289 0,445 0,617 0,816 1,061 1,386 1,886 2,189 2,620 2,920 3,320 3,896 4,303 6,965 9,925 14,089 22,328 31,600

3 0,054 0,137 0,277 0,424 0,584 0,765 0,978 1,250 1,638 1,859 2,156 2,353 2,605 2,951 3,182 4,541 5,841 7,453 10,214 12,924
T de Student
4 0,053 0,134 0,271 0,414 0,569 0,741 0,941 1,190 1,533 1,723 1,971 2,132 2,333 2,601 2,776 3,747 4,604 5,598 7,173 8,610

5 0,053 0,132 0,267 0,408 0,559 0,727 0,920 1,156 1,476 1,649 1,873 2,015 2,191 2,422 2,571 3,365 4,032 4,773 5,894 6,869

6 0,052 0,131 0,265 0,404 0,553 0,718 0,906 1,134 1,440 1,603 1,812 1,943 2,104 2,313 2,447 3,143 3,707 4,317 5,208 5,959

7 0,052 0,130 0,263 0,402 0,549 0,711 0,896 1,119 1,415 1,572 1,770 1,895 2,046 2,241 2,365 2,998 3,499 4,029 4,785 5,408

8 0,052 0,130 0,262 0,399 0,546 0,706 0,889 1,108 1,397 1,549 1,740 1,860 2,004 2,189 2,306 2,896 3,355 3,833 4,501 5,041

9 0,052 0,129 0,261 0,398 0,543 0,703 0,883 1,100 1,383 1,532 1,718 1,833 1,973 2,150 2,262 2,821 3,250 3,690 4,297 4,781

10 0,051 0,129 0,260 0,397 0,542 0,700 0,879 1,093 1,372 1,518 1,700 1,812 1,948 2,120 2,228 2,764 3,169 3,581 4,144 4,587

11 0,051 0,129 0,260 0,396 0,540 0,697 0,876 1,088 1,363 1,507 1,686 1,796 1,928 2,096 2,201 2,718 3,106 3,497 4,025 4,437

12 0,051 0,128 0,259 0,395 0,539 0,695 0,873 1,083 1,356 1,498 1,674 1,782 1,912 2,076 2,179 2,681 3,055 3,428 3,930 4,318

13 0,051 0,128 0,259 0,394 0,538 0,694 0,870 1,079 1,350 1,490 1,664 1,771 1,899 2,060 2,160 2,650 3,012 3,372 3,852 4,221

14 0,051 0,128 0,258 0,393 0,537 0,692 0,868 1,076 1,345 1,484 1,656 1,761 1,887 2,046 2,145 2,624 2,977 3,326 3,787 4,140

15 0,051 0,128 0,258 0,393 0,536 0,691 0,866 1,074 1,341 1,478 1,649 1,753 1,878 2,034 2,131 2,602 2,947 3,286 3,733 4,073

16 0,051 0,128 0,258 0,392 0,535 0,690 0,865 1,071 1,337 1,474 1,642 1,746 1,869 2,024 2,120 2,583 2,921 3,252 3,686 4,015

17 0,051 0,128 0,257 0,392 0,534 0,689 0,863 1,069 1,333 1,469 1,637 1,740 1,862 2,015 2,110 2,567 2,898 3,222 3,646 3,965

159
18 0,051 0,127 0,257 0,392 0,534 0,688 0,862 1,067 1,330 1,466 1,632 1,734 1,855 2,007 2,101 2,552 2,878 3,197 3,610 3,922

19 0,051 0,127 0,257 0,391 0,533 0,688 0,861 1,066 1,328 1,462 1,628 1,729 1,850 2,000 2,093 2,539 2,861 3,174 3,579 3,883

20 0,051 0,127 0,257 0,391 0,533 0,687 0,860 1,064 1,325 1,459 1,624 1,725 1,844 1,994 2,086 2,528 2,845 3,153 3,552 3,850

21 0,051 0,127 0,257 0,391 0,532 0,686 0,859 1,063 1,323 1,457 1,621 1,721 1,840 1,988 2,080 2,518 2,831 3,135 3,527 3,819

22 0,051 0,127 0,256 0,390 0,532 0,686 0,858 1,061 1,321 1,454 1,618 1,717 1,835 1,983 2,074 2,508 2,819 3,119 3,505 3,792

23 0,051 0,127 0,256 0,390 0,532 0,685 0,858 1,060 1,319 1,452 1,615 1,714 1,832 1,978 2,069 2,500 2,807 3,104 3,485 3,768

24 0,051 0,127 0,256 0,390 0,531 0,685 0,857 1,059 1,318 1,450 1,612 1,711 1,828 1,974 2,064 2,492 2,797 3,091 3,467 3,745

25 0,051 0,127 0,256 0,390 0,531 0,684 0,856 1,058 1,316 1,448 1,610 1,708 1,825 1,970 2,060 2,485 2,787 3,078 3,450 3,725

26 0,051 0,127 0,256 0,390 0,531 0,684 0,856 1,058 1,315 1,446 1,608 1,706 1,822 1,967 2,056 2,479 2,779 3,067 3,435 3,707

27 0,051 0,127 0,256 0,389 0,531 0,684 0,855 1,057 1,314 1,445 1,606 1,703 1,819 1,963 2,052 2,473 2,771 3,057 3,421 3,689

28 0,051 0,127 0,256 0,389 0,530 0,683 0,855 1,056 1,313 1,443 1,604 1,701 1,817 1,960 2,048 2,467 2,763 3,047 3,408 3,674

29 0,051 0,127 0,256 0,389 0,530 0,683 0,854 1,055 1,311 1,442 1,602 1,699 1,814 1,957 2,045 2,462 2,756 3,038 3,396 3,660

30 0,051 0,127 0,256 0,389 0,530 0,683 0,854 1,055 1,310 1,441 1,600 1,697 1,812 1,955 2,042 2,457 2,750 3,030 3,385 3,646

40 0,050 0,126 0,255 0,388 0,529 0,681 0,851 1,050 1,303 1,432 1,589 1,684 1,796 1,936 2,021 2,423 2,704 2,971 3,307 3,551

50 0,050 0,126 0,255 0,388 0,528 0,679 0,849 1,047 1,299 1,426 1,582 1,676 1,787 1,924 2,009 2,403 2,678 2,937 3,261 3,496

60 0,050 0,126 0,254 0,387 0,527 0,679 0,848 1,045 1,296 1,423 1,577 1,671 1,781 1,917 2,000 2,390 2,660 2,915 3,232 3,460

120 0,050 0,126 0,254 0,386 0,526 0,677 0,845 1,041 1,289 1,414 1,566 1,658 1,766 1,899 1,980 2,358 2,617 2,860 3,160 3,373

100000 0,050 0,126 0,253 0,385 0,524 0,674 0,842 1,036 1,282 1,405 1,555 1,645 1,751 1,881 1,960 2,326 2,576 2,807 3,090 3,291
!
cpa/gsa
GL 1

GL 2
1 2 3 4 5 6 7 8 9 10 12 14 15 16 18 20 30 40 60 120 1000000
! Tabela 4a
1 4052 4999 5404 5624 5764 5859 5928 5981 6022 6056 6107 6143 6157 6170 6191 6209 6260 6286 6313 6340 6366

2 98,50 99,00 99,16 99,25 99,30 99,33 99,36 99,38 99,39 99,40 99,42 99,43 99,43 99,44 99,44 99,45 99,47 99,48 99,48 99,49 99,50 F de Fisher
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,05 26,92 26,87 26,83 26,75 26,69 26,50 26,41 26,32 26,22 26,13

4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,25 14,20 14,15 14,08 14,02 13,84 13,75 13,65 13,56 13,46

5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,77 9,72 9,68 9,61 9,55 9,38 9,29 9,20 9,11 9,02

6 13,75 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,60 7,56 7,52 7,45 7,40 7,23 7,14 7,06 6,97 6,88

7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,36 6,31 6,28 6,21 6,16 5,99 5,91 5,82 5,74 5,65
a = 0,01
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,56 5,52 5,48 5,41 5,36 5,20 5,12 5,03 4,95 4,86

9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 5,01 4,96 4,92 4,86 4,81 4,65 4,57 4,48 4,40 4,31

10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,60 4,56 4,52 4,46 4,41 4,25 4,17 4,08 4,00 3,91

11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63 4,54 4,40 4,29 4,25 4,21 4,15 4,10 3,94 3,86 3,78 3,69 3,60

12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,05 4,01 3,97 3,91 3,86 3,70 3,62 3,54 3,45 3,36

13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 3,96 3,86 3,82 3,78 3,72 3,66 3,51 3,43 3,34 3,25 3,17

14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,70 3,66 3,62 3,56 3,51 3,35 3,27 3,18 3,09 3,00

15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,56 3,52 3,49 3,42 3,37 3,21 3,13 3,05 2,96 2,87

16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,45 3,41 3,37 3,31 3,26 3,10 3,02 2,93 2,84 2,75

17 8,40 6,11 5,19 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,46 3,35 3,31 3,27 3,21 3,16 3,00 2,92 2,83 2,75 2,65

160
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,27 3,23 3,19 3,13 3,08 2,92 2,84 2,75 2,66 2,57

19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,19 3,15 3,12 3,05 3,00 2,84 2,76 2,67 2,58 2,49

20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,13 3,09 3,05 2,99 2,94 2,78 2,69 2,61 2,52 2,42

21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,07 3,03 2,99 2,93 2,88 2,72 2,64 2,55 2,46 2,36

22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 3,02 2,98 2,94 2,88 2,83 2,67 2,58 2,50 2,40 2,31

23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,97 2,93 2,89 2,83 2,78 2,62 2,54 2,45 2,35 2,26

24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,93 2,89 2,85 2,79 2,74 2,58 2,49 2,40 2,31 2,21

25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,89 2,85 2,81 2,75 2,70 2,54 2,45 2,36 2,27 2,17

26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,86 2,81 2,78 2,72 2,66 2,50 2,42 2,33 2,23 2,13

27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,82 2,78 2,75 2,68 2,63 2,47 2,38 2,29 2,20 2,10

28 7,64 5,45 4,57 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,90 2,79 2,75 2,72 2,65 2,60 2,44 2,35 2,26 2,17 2,06

29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,87 2,77 2,73 2,69 2,63 2,57 2,41 2,33 2,23 2,14 2,03

30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,74 2,70 2,66 2,60 2,55 2,39 2,30 2,21 2,11 2,01

40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,56 2,52 2,48 2,42 2,37 2,20 2,11 2,02 1,92 1,80

50 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,56 2,46 2,42 2,38 2,32 2,27 2,10 2,01 1,91 1,80 1,68

60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,39 2,35 2,31 2,25 2,20 2,03 1,94 1,84 1,73 1,60

120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,23 2,19 2,15 2,09 2,03 1,86 1,76 1,66 1,53 1,38

100000 6,64 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,08 2,04 2,00 1,93 1,88 1,70 1,59 1,47 1,32 1,01
!
cpa/gsa
GL 1

GL 2
1 2 3 4 5 6 7 8 9 10 11 12 13 15 20 24 30 40 60 120 1000000
!
1 647,79 799,48 864,15 899,60 921,83 937,11 948,20 956,64 963,28 968,63 973,03 976,72 979,84 984,87 993,08 997,27 1001,40 1005,60 1009,79 1014,04 1018,26 Tabela 4b
2 38,51 39,00 39,17 39,25 39,30 39,33 39,36 39,37 39,39 39,40 39,41 39,41 39,42 39,43 39,45 39,46 39,46 39,47 39,48 39,49 39,50
F de Fisher
3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,37 14,34 14,30 14,25 14,17 14,12 14,08 14,04 13,99 13,95 13,90

4 12,22 10,65 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,79 8,75 8,72 8,66 8,56 8,51 8,46 8,41 8,36 8,31 8,26

5 10,01 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,57 6,52 6,49 6,43 6,33 6,28 6,23 6,18 6,12 6,07 6,02

6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,41 5,37 5,33 5,27 5,17 5,12 5,07 5,01 4,96 4,90 4,85

7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,71 4,67 4,63 4,57 4,47 4,41 4,36 4,31 4,25 4,20 4,14
a = 0,025
8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,24 4,20 4,16 4,10 4,00 3,95 3,89 3,84 3,78 3,73 3,67

9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,91 3,87 3,83 3,77 3,67 3,61 3,56 3,51 3,45 3,39 3,33

10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,66 3,62 3,58 3,52 3,42 3,37 3,31 3,26 3,20 3,14 3,08

11 6,72 5,26 4,63 4,28 4,04 3,88 3,76 3,66 3,59 3,53 3,47 3,43 3,39 3,33 3,23 3,17 3,12 3,06 3,00 2,94 2,88

12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,32 3,28 3,24 3,18 3,07 3,02 2,96 2,91 2,85 2,79 2,72

13 6,41 4,97 4,35 4,00 3,77 3,60 3,48 3,39 3,31 3,25 3,20 3,15 3,12 3,05 2,95 2,89 2,84 2,78 2,72 2,66 2,60

14 6,30 4,86 4,24 3,89 3,66 3,50 3,38 3,29 3,21 3,15 3,09 3,05 3,01 2,95 2,84 2,79 2,73 2,67 2,61 2,55 2,49

15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 3,01 2,96 2,92 2,86 2,76 2,70 2,64 2,59 2,52 2,46 2,40

16 6,12 4,69 4,08 3,73 3,50 3,34 3,22 3,12 3,05 2,99 2,93 2,89 2,85 2,79 2,68 2,63 2,57 2,51 2,45 2,38 2,32

17 6,04 4,62 4,01 3,66 3,44 3,28 3,16 3,06 2,98 2,92 2,87 2,82 2,79 2,72 2,62 2,56 2,50 2,44 2,38 2,32 2,25

161
18 5,98 4,56 3,95 3,61 3,38 3,22 3,10 3,01 2,93 2,87 2,81 2,77 2,73 2,67 2,56 2,50 2,44 2,38 2,32 2,26 2,19

19 5,92 4,51 3,90 3,56 3,33 3,17 3,05 2,96 2,88 2,82 2,76 2,72 2,68 2,62 2,51 2,45 2,39 2,33 2,27 2,20 2,13

20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,72 2,68 2,64 2,57 2,46 2,41 2,35 2,29 2,22 2,16 2,09

21 5,83 4,42 3,82 3,48 3,25 3,09 2,97 2,87 2,80 2,73 2,68 2,64 2,60 2,53 2,42 2,37 2,31 2,25 2,18 2,11 2,04

22 5,79 4,38 3,78 3,44 3,22 3,05 2,93 2,84 2,76 2,70 2,65 2,60 2,56 2,50 2,39 2,33 2,27 2,21 2,14 2,08 2,00

23 5,75 4,35 3,75 3,41 3,18 3,02 2,90 2,81 2,73 2,67 2,62 2,57 2,53 2,47 2,36 2,30 2,24 2,18 2,11 2,04 1,97

24 5,72 4,32 3,72 3,38 3,15 2,99 2,87 2,78 2,70 2,64 2,59 2,54 2,50 2,44 2,33 2,27 2,21 2,15 2,08 2,01 1,94

25 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,56 2,51 2,48 2,41 2,30 2,24 2,18 2,12 2,05 1,98 1,91

26 5,66 4,27 3,67 3,33 3,10 2,94 2,82 2,73 2,65 2,59 2,54 2,49 2,45 2,39 2,28 2,22 2,16 2,09 2,03 1,95 1,88

27 5,63 4,24 3,65 3,31 3,08 2,92 2,80 2,71 2,63 2,57 2,51 2,47 2,43 2,36 2,25 2,19 2,13 2,07 2,00 1,93 1,85

28 5,61 4,22 3,63 3,29 3,06 2,90 2,78 2,69 2,61 2,55 2,49 2,45 2,41 2,34 2,23 2,17 2,11 2,05 1,98 1,91 1,83

29 5,59 4,20 3,61 3,27 3,04 2,88 2,76 2,67 2,59 2,53 2,48 2,43 2,39 2,32 2,21 2,15 2,09 2,03 1,96 1,89 1,81

30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,46 2,41 2,37 2,31 2,20 2,14 2,07 2,01 1,94 1,87 1,79

40 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 2,45 2,39 2,33 2,29 2,25 2,18 2,07 2,01 1,94 1,88 1,80 1,72 1,64

50 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 2,26 2,22 2,18 2,11 1,99 1,93 1,87 1,80 1,72 1,64 1,55

60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,22 2,17 2,13 2,06 1,94 1,88 1,82 1,74 1,67 1,58 1,48

120 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 2,22 2,16 2,10 2,05 2,01 1,94 1,82 1,76 1,69 1,61 1,53 1,43 1,31

100000 5,02 3,69 3,12 2,79 2,57 2,41 2,29 2,19 2,11 2,05 1,99 1,94 1,90 1,83 1,71 1,64 1,57 1,48 1,39 1,27 1,01
!
cpa/gsa
GL 1

GL 2
1 2 3 4 5 6 7 8 9 10 11 12 13 15 20 24 30 40 60 120 1000000
!
1 161,45 199,50 215,71 224,58 230,16 233,99 236,77 238,88 240,54 241,88 242,98 243,90 244,69 245,95 248,02 249,05 250,10 251,14 252,20 253,25 254,32
Tabela 4c
2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,40 19,41 19,42 19,43 19,45 19,45 19,46 19,47 19,48 19,49 19,50 F de Fisher
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,76 8,74 8,73 8,70 8,66 8,64 8,62 8,59 8,57 8,55 8,53

4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,94 5,91 5,89 5,86 5,80 5,77 5,75 5,72 5,69 5,66 5,63

5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,70 4,68 4,66 4,62 4,56 4,53 4,50 4,46 4,43 4,40 4,37

6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,03 4,00 3,98 3,94 3,87 3,84 3,81 3,77 3,74 3,70 3,67

7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,60 3,57 3,55 3,51 3,44 3,41 3,38 3,34 3,30 3,27 3,23
a = 0,05
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,31 3,28 3,26 3,22 3,15 3,12 3,08 3,04 3,01 2,97 2,93

9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,10 3,07 3,05 3,01 2,94 2,90 2,86 2,83 2,79 2,75 2,71

10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,94 2,91 2,89 2,85 2,77 2,74 2,70 2,66 2,62 2,58 2,54

11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,82 2,79 2,76 2,72 2,65 2,61 2,57 2,53 2,49 2,45 2,40

12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,72 2,69 2,66 2,62 2,54 2,51 2,47 2,43 2,38 2,34 2,30

13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,63 2,60 2,58 2,53 2,46 2,42 2,38 2,34 2,30 2,25 2,21

14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,57 2,53 2,51 2,46 2,39 2,35 2,31 2,27 2,22 2,18 2,13

15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,51 2,48 2,45 2,40 2,33 2,29 2,25 2,20 2,16 2,11 2,07

16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,46 2,42 2,40 2,35 2,28 2,24 2,19 2,15 2,11 2,06 2,01

17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,41 2,38 2,35 2,31 2,23 2,19 2,15 2,10 2,06 2,01 1,96

162
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,37 2,34 2,31 2,27 2,19 2,15 2,11 2,06 2,02 1,97 1,92

19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,34 2,31 2,28 2,23 2,16 2,11 2,07 2,03 1,98 1,93 1,88

20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,31 2,28 2,25 2,20 2,12 2,08 2,04 1,99 1,95 1,90 1,84

21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,28 2,25 2,22 2,18 2,10 2,05 2,01 1,96 1,92 1,87 1,81

22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,26 2,23 2,20 2,15 2,07 2,03 1,98 1,94 1,89 1,84 1,78

23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,24 2,20 2,18 2,13 2,05 2,01 1,96 1,91 1,86 1,81 1,76
24 4,25968 3,40283 3,00879 2,77629 2,62065 2,50819 2,42263 2,35508 2,30024 2,25474 2,21631 2,18338 2,15482 2,10768 2,02666 1,98376 1,93896 1,89196 1,84236 1,78964 1,73306
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,20 2,16 2,14 2,09 2,01 1,96 1,92 1,87 1,82 1,77 1,71

26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,18 2,15 2,12 2,07 1,99 1,95 1,90 1,85 1,80 1,75 1,69

27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,17 2,13 2,10 2,06 1,97 1,93 1,88 1,84 1,79 1,73 1,67

28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,15 2,12 2,09 2,04 1,96 1,91 1,87 1,82 1,77 1,71 1,65

29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,14 2,10 2,08 2,03 1,94 1,90 1,85 1,81 1,75 1,70 1,64

30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,13 2,09 2,06 2,01 1,93 1,89 1,84 1,79 1,74 1,68 1,62

40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,04 2,00 1,97 1,92 1,84 1,79 1,74 1,69 1,64 1,58 1,51

50 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,99 1,95 1,92 1,87 1,78 1,74 1,69 1,63 1,58 1,51 1,44

60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,95 1,92 1,89 1,84 1,75 1,70 1,65 1,59 1,53 1,47 1,39

120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,87 1,83 1,80 1,75 1,66 1,61 1,55 1,50 1,43 1,35 1,25

100000 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,79 1,75 1,72 1,67 1,57 1,52 1,46 1,39 1,32 1,22 1,01
!
cpa/gsa
GL 1

GL 2
1 2 3 4 5 6 7 8 9 10 11 12 13 15 20 24 30 40 60 120 1000000
!
1 39,86 49,50 53,59 55,83 57,24 58,20 58,91 59,44 59,86 60,19 60,47 60,71 60,90 61,22 61,74 62,00 62,26 62,53 62,79 63,06 63,33 Tabela 4d
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,40 9,41 9,41 9,42 9,44 9,45 9,46 9,47 9,47 9,48 9,49
F de Fisher
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,22 5,22 5,21 5,20 5,18 5,18 5,17 5,16 5,15 5,14 5,13

4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,91 3,90 3,89 3,87 3,84 3,83 3,82 3,80 3,79 3,78 3,76

5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,28 3,27 3,26 3,24 3,21 3,19 3,17 3,16 3,14 3,12 3,11

6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,92 2,90 2,89 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,72

7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,68 2,67 2,65 2,63 2,59 2,58 2,56 2,54 2,51 2,49 2,47
a = 0,10
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,52 2,50 2,49 2,46 2,42 2,40 2,38 2,36 2,34 2,32 2,29

9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,40 2,38 2,36 2,34 2,30 2,28 2,25 2,23 2,21 2,18 2,16

10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,30 2,28 2,27 2,24 2,20 2,18 2,16 2,13 2,11 2,08 2,06

11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27 2,25 2,23 2,21 2,19 2,17 2,12 2,10 2,08 2,05 2,03 2,00 1,97

12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,17 2,15 2,13 2,10 2,06 2,04 2,01 1,99 1,96 1,93 1,90

13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16 2,14 2,12 2,10 2,08 2,05 2,01 1,98 1,96 1,93 1,90 1,88 1,85

14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12 2,10 2,07 2,05 2,04 2,01 1,96 1,94 1,91 1,89 1,86 1,83 1,80

15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,04 2,02 2,00 1,97 1,92 1,90 1,87 1,85 1,82 1,79 1,76

16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06 2,03 2,01 1,99 1,97 1,94 1,89 1,87 1,84 1,81 1,78 1,75 1,72

17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03 2,00 1,98 1,96 1,94 1,91 1,86 1,84 1,81 1,78 1,75 1,72 1,69

163
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00 1,98 1,95 1,93 1,92 1,89 1,84 1,81 1,78 1,75 1,72 1,69 1,66

19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98 1,96 1,93 1,91 1,89 1,86 1,81 1,79 1,76 1,73 1,70 1,67 1,63

20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,91 1,89 1,87 1,84 1,79 1,77 1,74 1,71 1,68 1,64 1,61

21 2,96 2,57 2,36 2,23 2,14 2,08 2,02 1,98 1,95 1,92 1,90 1,87 1,86 1,83 1,78 1,75 1,72 1,69 1,66 1,62 1,59

22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93 1,90 1,88 1,86 1,84 1,81 1,76 1,73 1,70 1,67 1,64 1,60 1,57

23 2,94 2,55 2,34 2,21 2,11 2,05 1,99 1,95 1,92 1,89 1,87 1,84 1,83 1,80 1,74 1,72 1,69 1,66 1,62 1,59 1,55

24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91 1,88 1,85 1,83 1,81 1,78 1,73 1,70 1,67 1,64 1,61 1,57 1,53

25 2,92 2,53 2,32 2,18 2,09 2,02 1,97 1,93 1,89 1,87 1,84 1,82 1,80 1,77 1,72 1,69 1,66 1,63 1,59 1,56 1,52

26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88 1,86 1,83 1,81 1,79 1,76 1,71 1,68 1,65 1,61 1,58 1,54 1,50

27 2,90 2,51 2,30 2,17 2,07 2,00 1,95 1,91 1,87 1,85 1,82 1,80 1,78 1,75 1,70 1,67 1,64 1,60 1,57 1,53 1,49

28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87 1,84 1,81 1,79 1,77 1,74 1,69 1,66 1,63 1,59 1,56 1,52 1,48

29 2,89 2,50 2,28 2,15 2,06 1,99 1,93 1,89 1,86 1,83 1,80 1,78 1,76 1,73 1,68 1,65 1,62 1,58 1,55 1,51 1,47

30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,79 1,77 1,75 1,72 1,67 1,64 1,61 1,57 1,54 1,50 1,46

40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79 1,76 1,74 1,71 1,70 1,66 1,61 1,57 1,54 1,51 1,47 1,42 1,38

50 2,81 2,41 2,20 2,06 1,97 1,90 1,84 1,80 1,76 1,73 1,70 1,68 1,66 1,63 1,57 1,54 1,50 1,46 1,42 1,38 1,33

60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,68 1,66 1,64 1,60 1,54 1,51 1,48 1,44 1,40 1,35 1,29

120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,63 1,60 1,58 1,55 1,48 1,45 1,41 1,37 1,32 1,26 1,19

100000 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,57 1,55 1,52 1,49 1,42 1,38 1,34 1,30 1,24 1,17 1,01
!
cpa/gsa