Escolar Documentos
Profissional Documentos
Cultura Documentos
Paraná
Departamento Acadêmico de Estatística
Fundamentos de Inferência
6 de dezembro de 2022
Conteúdo
1 Estimadores 1
1.1 Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Propriedades dos estimadores . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Suficiência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Não viés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1 EQM - Erro Quadrático Médio . . . . . . . . . . . . . . . . . . . . 6
1.5 Consistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Eficiência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Técnicas de Estimação 28
3.1 Método dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Método dos Mínimos Quadrados Ordinários . . . . . . . . . . . . . . . . . 29
3.3 Função de Máxima Verossimilhança . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Maximização da função de Verossimilhança . . . . . . . . . . . . . . 32
3.3.2 Exemplos de estimação verossímil . . . . . . . . . . . . . . . . . . . 36
4 Teste de Hipóteses 44
4.1 Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Hipótese Nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
i
CONTEÚDO ii
6 Análise de Variância 78
6.1 Experimento com único fator . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.2 Delineamento Completamente Casualisado (RCC) . . . . . . . . . . . . . . 78
6.3 Análise de variância para dois fatores . . . . . . . . . . . . . . . . . . . . . 82
6.4 Pressupostos da análise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7 Correlação 87
7.1 Variância, covariância e correlação . . . . . . . . . . . . . . . . . . . . . . . 87
7.1.1 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.1.2 Covariância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.1.3 Correlação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.2 Teste de hipótese para a correlação . . . . . . . . . . . . . . . . . . . . . . 93
8 Regressão 94
8.1 Regressão Linear Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.1.1 Método dos mínimos quadrados ordinários . . . . . . . . . . . . . . 94
8.2 Regressão Linear Múltipla . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.2.1 Estimando os coeficientes βi . . . . . . . . . . . . . . . . . . . . . . 98
8.2.2 Propriedades dos Estimadores β . . . . . . . . . . . . . . . . . . . . 103
8.3 Valores preditos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.4 Resíduos e análise dos resíduos . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.4.1 Propriedades dos resíduos . . . . . . . . . . . . . . . . . . . . . . . 106
8.4.2 Valor esperado dos resíduos . . . . . . . . . . . . . . . . . . . . . . 106
8.5 Análise de Variância ANOVA (para a regressora) . . . . . . . . . . . . . . 107
8.5.1 Medida de qualidade de ajuste: coeficiente de determinação R2 (ar-
madilhas do uso de R2 ) . . . . . . . . . . . . . . . . . . . . . . . . . 113
8.5.2 Verificação dos coeficientes . . . . . . . . . . . . . . . . . . . . . . . 114
8.5.3 Regressoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.6 Verificação dos pressupostos dos resíduos . . . . . . . . . . . . . . . . . . . 117
8.6.1 Critério de Escolha entre modelos: AIC - O critério de Akaike (Parte I)123
8.7 Intervalos de Predição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
8.7.1 Cálculo do Intervalo de Predição . . . . . . . . . . . . . . . . . . . 126
8.8 Verificação da Qualidade de Ajuste . . . . . . . . . . . . . . . . . . . . . . 128
8.8.1 Diagnóstico de influência . . . . . . . . . . . . . . . . . . . . . . . . 129
8.9 Conceitos fundamentais em análise generalizada . . . . . . . . . . . . . . . 130
Estimadores
Não é necessário recolher informações de toda uma pupulação sobre algum parâmetro
desconhecido, basta uma amostragem adequada. Esse é o objetivo dos estimadores, uma
função que fornce-nos um valor, chamado de estimativa, que contém informações úteis e
importantes sobre uma população.
1.1 Estimadores
Os estimadores são funções criadas por variáveis aleatórias.
Definição 1
Definição
Define-se estatística o estimador que não depende do parâmetro desconhecido θ,
mas a sua distribuição (função densidade ou massa de probabilidade) dependerá
de θ.
1 1 x̄−µ 2
f (x̄|µ, σx̄2 ) = p e− 2 ( )
σx̄
2πσx̄2
• Quantidade Pivotal
1
1.2. PROPRIEDADES DOS ESTIMADORES 2
Definição
Um povot é uma v.a. que depende do parâmetro desconhecido θ, mas a sua
distribuição não depende.
1.3 Suficiência
O princípio da suficiência diz que uma estatística T (X) será suficiente se toda a informação
contida na amostra {X1 , X2 , X3 , · · · Xn } consegue assimilar toda a informação possível so-
bre o parâmetro desonhecido θ, propriedade da população. Qualquer outra inserção de in-
formação além daquela contida na estatística suficiente T (X) não contribuirá em nada com
alguma melhora das informações contidas na estatística T (X) sobre o parâmetro θ. Por
exemplo, supondo que a média populacional µ de uma distribuição Gaussiana é desconhe-
cida, digamos X ∼ N (µ, σ 2 ). A estatística T (X) que consegue captar Pn
toda a informação
sobre a média populacional será a média amostral dada por X̄ = xi i=1
n ≤ N ∀x ∈ ℜ,
ou seja, uma outra estatística como média quadrática X̄RM S ou média harmônica X̄h
não contribuirá com novas informações sobre µ, além do que a média aritmética já con-
tribui.
Definição
Prova
pθ (X = x ∩ T (X) = T (x))
pθ (X = x|T (X) = T (x)) = (1.1)
pθ (T (X) = T (x))
1.3. SUFICIÊNCIA 3
então
pθ (X = x)
pθ (X = x|T (X) = T (x)) = (1.2)
pθ (T (X) = T (x))
p(x|θ)
= (1.3)
q(T (x)|θ)
Lembramos aqui que qualquer distribuição de probabilidade para uma estatística T (X) é
dita ser uma distribuição amostral.
Exemplo
p(x|θ)
pθ (X = x|T (X) =
q(T (x)|θ)
Teorema
f (x|θ) = g(t|θ)h(x)
Exemplo
Definição
Definição
Exemplo
Exemplo
e = θ̂ − θ
b(θ̂) = E(θ̂ − θ) = 0
= E(θ̂) − E(θ) = 0
=⇒ E(θ̂) = θ
Exemplo
(X−X̄)2
P
Verifique se o estimador S 2 = n−1
é ENV.
lim E(S 2 ) = σ 2
n→∞
Exemplo
(X−X̄)2
P
Verifique se o estimador σˆ2 = é ENV.
n
ˆ n−1
2
lim E(σ ) = lim σ2 = σ2
n→∞ n→∞ n
2) Caso polarizado
b(θ̂) ̸= 0
Vale aqui duas situações:
▶ Polarização à direita: b(θ̂) > 0
1.5 Consistência
A consistência significa que o aumento do tamanho da amostra implicará na convergência
das estimativas para o valor desconhcido de θ.
Definição
Devemos relembrar que duas variâncias estão sendo tratadas na população, a primeira é
a variância populacional σ 2 e a outra está relacionada à amostra, ou melhor, à estatística
T (X). No limite quando n → ∞ a média e a variância da estatística será
limn→∞ E(Tn (X)) = θ,
limn→∞ V ar(Tn (X)) = 0.
Exemplo
1.6. EFICIÊNCIA 8
Exemplo
1.6 Eficiência
Um estimador será mais eficiente se o seu EQM (θ̂) for o menor possível.
Teorema
com variância do estimador finito V arθ T (X) < ∞, tal que satisfaz a relação
d
2
dθ
T (X)
V ARθ T (X) ≥ 2
∂
Eθ ∂θ
log f (x|θ)
Teorema
Será dito estimador eficiente para θ se for um ENV e sua variância atingir o limite
inferior da desigualdade de Cramer-Rao para quaisquer valores de θ. Estimadores
eficientes são sempre UMVU.
[nI(θ)]−1
ef (θ̂) = ≤1
V ar(θ̂)
Exemplo
Suponha dois estimadores θˆ1 e θˆ2 , tal que o erro quadrático médio do primeiro esti-
1.6. EFICIÊNCIA 9
Definição 2
Sejam X1 , X2 , X3 , · · · Xn v.a’s independentes
Pn e identicamente distribuídas com X ∼
i X
2
N (µ, σ ), então a estatística X̄ = n segue uma distribuição normal X̄ ∼ (µ, σn ).
2
Dem.
10
2.1. DISTRIBUIÇÕES AMOSTRAIS 11
• Quantidade Pivotal
x̄ − µ √
X − E(X) x̄ − µ
Z= p = q = n (2.1)
V ar(X) σ2 σ
n
• Distribuição amostral
σ2
X̄ ∼ µ,
n
Definição
Sejam X1 , X2 , X3 , · · · Xn v.a’s independentes e identicamente distribuídas com X ∼
N (µ, σ 2 ), então
(n − 1)s2
2
∼ χ2ν
σ
segue uma distribuição qui-quadrado com ν graus de liberdade.
e, como
σ 2 = E(x2 ) − E(x)2 → E(x2 ) = σ 2 + µ2
σ2 σ2
= E(x̄2 ) − E(x̄)2 → E(x̄2 ) = + µ2
n n
2.1. DISTRIBUIÇÕES AMOSTRAIS 13
Então
n
E(σˆν2 ) = E(Xi2 ) − E(X̄ 2 )
ν 2
n 2 2
σ 2
= σ +µ − +µ
ν n
n 2 σ2
= σ −
ν n
n (n − 1)σ 2
=
ν n
(n − 1) 2
= σ
ν
Para cada caso temos
a) Estimador assintóticamente não viesado - EANV
(n − 1) 2
E(σˆ2 ) = σ
n
E(S 2 ) = σ 2
Temos que
nσˆ2 = (n − 1)S 2
(n − 1) 2
σˆ2 = S
n
n − 1
V ar(σˆ2 ) = V ar S 2
n
2
ˆ n−1
2
V ar(σ ) = V ar(S 2 )
n
2
n−1
= E[(S 2 − σ 2 )2 ]
n
2
2σ 4
n−1
=
n n−1
b) Variância para S 2
2σ 4
V ar(S 2 ) =
n−1
2.1. DISTRIBUIÇÕES AMOSTRAIS 14
• Quantidade Pivotal
(n − 1)s2
2
∼ χ2ν
σ
cuja distribuição não pode depender do parâmetro desconhecida σ
1
χ2ν = ν
xα/2−1 e−x/2
Γ 2
2α/2
Definição 3
Sejam X1 , X2 , X3 , · · · Xn v.a’s independentes e identicamente distribuídas com X ∼
Binom(N p, N pq), então pq
p̂ ∼ N p,
n
segue uma distribuição normal com média E(p̂) = p e variância V ar(p̂) = pq/n.
Seja p̂ = x
n
x E(x) np
E(p̂) = E = =
n n n
E(p̂) = p
Seja p̂ = x
n
x V ar(x) npq
V ar(p̂) = V ar = 2
= 2
n n n
pq
V ar(p̂) =
n
• Quantidade Pivotal
X − E(X) p̂ − p
Z= p = p pq (2.3)
V ar(X) n
• Distribuição amostral pq
p̂ ∼ p,
n
Resultado
Tabela 2.1: Distribuições Amostrais - Estimadores ENV
Prova
Seja Ȳ =
P
i X̄i
!
X X σ2 X
i
V ar X̄i = +2 cov(X̄i , X̄j )
i i
ni i<j
σ22 σ12
V ar(X̄1 + X̄2 ) + 2 · cov(X̄1 , X̄2 )
= +
n1 n2
=⇒ se, e somente se, as v.a’s são independentes (2.4)
→ cov(X̄1 , X̄2 ) = 0
σ12 σ22
V ar(X̄1 + X̄2 ) = +
n1 n2
Prova
P 2
ωs
Sp2 = P i com ωi o grau de liberdade
ω
ν1 s1 + ν2 s22
2
=
ν1 + ν2
(n1 − 1)s21 + (n2 − 1)s22
=
(n1 − 1) + (n2 − 1)
(n1 − 1)s21 + (n2 − 1)s22
Sp2 =
(n1 + n2 − 2)
s21 s22
V ar(X̄1 + X̄2 ) = + + 2 · cov(X̄1 , X̄2 )
n1 n2
=⇒ se, e somente se, as v.a’s são independentes → cov(X̄1 , X̄2 ) = 0
s21 s2
V ar(X̄1 + X̄2 ) = + 2
n1 n2
Teorema
Sejam duas variáveis aleatórias U ∼ χ2ν1 e W ∼ χ2ν2 , ambas independentes 2x2 com
distribuição qui-quadrado. A variável aleatória
U/ν1
W = ∼ F (ν1 , ν2 )
V /ν2
Dem.
(n1 − 1)s21
U=
σ12
(n2 − 1)s22
V =
σ22
(n1 −1)s21
2
χ /ν1 ν2 σ12
Fν1 ,ν2 ∼ ν21 = 2
χν2 /ν2 ν1 (n2 −1)s2
2
σ2
(2.5)
Portanto,
s21 σ22
Fν1 ,ν2 ∼
s22 σ12
P (|Z| ≤ zα/2 ) = 1 − α
P (−zα/2 ≤ Z ≤ zα/2 ) = 1 − α
X̄ − µ
P (−zα/2 ≤ √ ≤ zα/2 ) = 1 − α
σ/ n
√ √
P (X̄ − zα/2 σ/ n ≤ µ ≤ X̄ + zα/2 σ/ n) = 1 − α
O intervalo de confiança para a média com variância σ 2 conhecida será
√ √
I.C. : {X̄ − zα/2 σ/ n ≤ µ ≤ X̄ + zα/2 σ/ n}
Definimos o erro E por
√
E = zα/2 σ/ n =⇒ {X̄ − E ≤ µ ≤ X̄ + E}
P (|T | ≤ zα/2 ) = 1 − α
P (−tα/2 ≤ T ≤ tα/2 ) = 1 − α
X̄ − µ
P (−tα/2 ≤ √ ≤ tα/2 ) = 1 − α
s/ n
√ √
P (X̄ − tα/2 s/ n ≤ µ ≤ X̄ + tα/2 s/ n) = 1 − α
2.2. INTERVALOS DE CONFIANÇA 21
P (|Z| ≤ zα/2 ) = 1 − α
P (−zα/2 ≤ Z ≤ zα/2 ) = 1 − α
!
p̂ − p
P −zα/2 ≤ p pq ≤ zα/2 = 1 − α
n
r r
pq pq
P p̂ − zα/2 ≤ p ≤ p̂ + zα/2 =1−α
n n
p̂ − p
q = zα/2 (2.6)
p(1−p)
n
r
p(1 − p)
p̂ − p = zα/2 ·
n
p(1 − p)
(p̂ − p)2 = zα/2
2
·
n
p(1 − p)
p̂2 + p2 − 2p̂p = zα/22
·
! ! n
2 2
zα/2 zα/2
p2 1+ + p −2p̂ − + p̂2 = 0
n n
s Encontrando as raízes
2
2
2 2
zα/2 zα/2 zα/2
− −2p̂ − n
± −2p̂ − n − 4 1 + n p̂2
p12 = 2
zα/2
2 1+ n
2
q
zα/2 z2 2
zα/2 z2
2p̂ + n ± 4p̂ + α/2 n
+ 4p̂ n
− 4p̂ − 4p̂ 2 α/2
n
p12 =
z2
2 1 + α/2 n
2
q 2
zα/2 1 z z4
p̂ + 2n ± 2 4 α/2 n
(p̂ − p̂ 2 ) + α/2
n2
p12 =
z2
1 + α/2 n
2
q 2 4
zα/2 zα/2 zα/2
p̂ + 2n ± n
(p̂ − p̂2 ) + 4n 2
p12 =
z2
1 + α/2 n
2
q 2
zα/2 zα/2
p̂ + 2n ± zα/2 p̂(1−p̂) n
+ 4n2
p12 =
z2
1 + α/2 n
2.2.3 I.C. para diferença das médias com variâncias σi2 conheci-
das
σ2 σ22
Seja (X̄1 − X̄2 ) ∼ N (µ1 − µ2 ); n11 + n2
com quantidade pivotal
P (|Z| ≤ zα/2 ) = 1 − α
P (−zα/2 ≤ Z ≤ zα/2 ) = 1 − α
(X̄1 − X̄2 ) − (µ1 − µ2 )
P (−zα/2 ≤ q 2 ≤ zα/2 ) = 1 − α
σ1 σ22
n1
+ n2
s s
2 2 2 2
σ1 σ2 σ1 σ2
P (X̄1 − X̄2 ) − zα/2 + ≤ (µ1 − µ2 ) ≤ (X̄1 − X̄2 ) + zα/2 + =1−α
n1 n2 n1 n2
2.2.4 I.C. para diferença das médias com variâncias σi2 desconhe-
cidas e diferentes
Seja (X̄1 − X̄2 ) ∼ tν (0, 1) com quantidade pivotal
(X̄1 − X̄2 ) − (µ1 − µ2 )
T = q 2
s1 s2
n1
+ n22
P (|T | ≤ tα/2 ) = 1 − α
P (−tα/2 ≤ T ≤ tα/2 ) = 1 − α
(X̄1 − X̄2 ) − (µ1 − µ2 )
P (−tα/2 ≤ q 2 ≤ tα/2 ) = 1 − α
s1 s22
n1
+ n2
s s
2 2 2 2
s1 s s1 s
P (X̄1 − X̄2 ) − tα/2 + 2 ≤ (µ1 − µ2 ) ≤ (X̄1 − X̄2 ) + tα/2 + 2 = 1−α
n1 n2 n1 n2
2.2. INTERVALOS DE CONFIANÇA 24
2.2.5 I.C. para diferença das médias com variâncias σi2 desconhe-
cidas, porém iguais
Seja (X̄1 − X̄2 ) ∼ tν (0, 1) com quantidade pivotal
P (|T | ≤ tα/2 ) = 1 − α
P (−tα/2 ≤ T ≤ tα/2 ) = 1 − α
(X̄1 − X̄2 ) − (µ1 − µ2 )
P (−tα/2 ≤ q ≤ tα/2 ) = 1 − α
Sp n11 + n12
r r
1 1 1 1
P (X̄1 − X̄2 ) − tα/2 Sp + ≤ (µ1 − µ2 ) ≤ (X̄1 − X̄2 ) + tα/2 Sp + =1−α
n1 n2 n1 n2
com
ν = n1 + n2 − 2
P (|Z| ≤ zα/2 ) = 1 − α
P (−zα/2 ≤ T ≤ zα/2 ) = 1 − α
(p̂1 − p̂2 ) − (p1 − p2 )
P (−zα/2 ≤ q ≤ zα/2 ) = 1 − α
p1 q1 p2 q2
n1
+ n2
r r
p1 q1 p2 q2 p1 q1 p2 q2
P (p̂1 − p̂2 ) − tα/2 + ≤ (p1 − p2 ) ≤ (p̂1 − p̂2 ) + zα/2 + =1−α
n1 n2 n1 n2
(n − 1)s2
∼ χ21
σ2
O intervalo de confiança será
(n − 1)s2 (n − 1)s2
;
↑ χα/2;ν ↓ χα/2;ν
2.3. EXERCÍCIOS PARA TREINAR 26
Exemplo
Exemplo
Arquitetura Deseja-se verificar a diferença entre temperaturas extremas em dois
pontos de uma mesma sala. Na primeira posição foi retirada 8 amostras próximo ao
piso com temperatura média de T̄1 = 25C com s1 ± 2.1C e na segunda posição foi
retirada 9 amostras perto de uma janela com T̄1 = 32C com s1 ± 1.5C. Qual a possível
variação térmica na sala? Sabe-se que ∆T ≈ Q.
Exemplo
Eng. Mecânica Um engenheiro mecânico verificou que a folga desejada em uma
peça foi projetada para σ = ±0.021 mm. Uma amostra de sete peças apresentou uma
variância de s2 = 0.000883 mm2 . Qual a possível folga das peças produzidas?
Exemplo
Eng. da Computação Em um lote de 3252 pentes de memória, foi verificado que
6 peças estavam com o código errado em um amostra de n = 125 peças. Qual o erro
E da amostra para α = 5%? Qual o tamanho amostral n para um erro admissível
máximo de ±2% para cima e para baixo?
Exemplo
Eng. Mecânica A folga ϕ entre eletrodos de uma vela de ignição é de 1,1 mm. Foi
retirada a seguinte amostra:
a.m = {1.092, 1.089, 1.088, 1.103, 1.061, 1.003, 1.104, 1.102, 1.100}
Exemplo
Exemplo
Enfermagem O exame de creatinina avalia a função dos rins de uma pessoa. O laudo
de exames sobre a cretinina forneceu ao paciente o segunte resultado:
Interprete-a.
Exemplo
Eng. de Alimentos Sistemas de refrigeração de alimentos a serem consumidos ime-
diatamente devem estar entre −1.5 a 15C. Uma amostra de n = 16 produtos conge-
lados estavam com T = 6 ± 7.2C na data 01/02/17 e autra amostra de n = 12 com
T = 8±5.2C retirada atualmente. Qual a diferença de temperatura no armazenamento
do alimento? Considere α = 1%.
Exemplo
Arquitetura Um arquiteto deverá projetar uma calçada para pessoas com necessida-
des especiais. Equipamentos para cadeirantes pesam entre 12 a 20 kg e a sua largura
está entre 0,60 e 0,70 m. A recomendação na construção da calçada é incorporar uma
faixa livre de no mínimo 1,20 m com faixa de serviço maior do que 0,75 m. Se o cadei-
rante varia a sua posição em ±0, 30 metros para a esquerda e/ou para a direita, projete
uma calçada com folga suficiente para o cadeirante passar considerando a variação da
posição (use α = 5%).
Exemplo
Eng. Civil Cargas variáveis ou acidentais são cargas atuantes sobre estruturas em
função do uso e são cargas uniformemente distribuídas. As estruturas como salas,
cozinhas, wc e quartos são projetadas para operarem com carga média de 1.5 kN/m2 ,
encontre tamanho amostral n para um erro máximo de E = ±2%.
Capítulo 3
Técnicas de Estimação
Talvez a pergunta mais pertinente até o momento será: "Como encontrar uma função
T (X) das variáveis aleatórias?". Na verdade existem três técnicas mais usuais, sendo duas
delas calculadas por técnicas otimização, mais precisamente por estudo das funções:
A) Método dos Momentos
B) Método dos Mínimos Quadrados Ordinários
C) Método da Máxima Verossimihança
Exemplo
28
3.2. MÉTODO DOS MÍNIMOS QUADRADOS ORDINÁRIOS 29
Exemplo
n
1X k
µ̂k = Xi
n i
k = 2 equações são necessárias
µ̂1 = n1 ni Xi ,
P
µ̂2 = n1 ni Xi2 ,
P
Dessa forma, (
µ̂ = X̄
Pn1
σˆ2 = µ̂2 − µ̂21 = 1
Pn
n
2
i Xi − ( n1 2
i Xi ) ,
n
X n
X n
X
f (β0 , β1 ) = y2 + β02 + β12 x2
i i i
n
X n
X n
X
− 2 yβ0 − 2 yβ1 x + 2 β0 β1 x
i i i
Aplicando ∇f
⃗ (β0 , β1 ) = ⃗0
∂f (β0 , β1 ) ∂f (β0 , β1 )
î + ĵ = ⃗0
∂β0 ∂β1
ou (
nβˆ0 + βˆ1 ni x = ni y
P P
βˆ0 ni x + βˆ1 ni x2 = ni yx
P P P
!2
Pn n n
2n 2 i xi X X
det H = det Pn
= 4 n x2i − xi >0
2 i xi 2 ni x2i
P
i i
com fβ0 ,β0 = 2n > 0 e fβ1 ,β1 = 2 x2i > 0 confirmando um ponto de mínimo.
Pn
i
Exemplo
Dada o conjunto (X, Y ) encontre os estimadores βˆ0 e βˆ1 para a função linear
Y = β0 + β1 x + ϵ
X Y
-2 -3.7411458
-1 3.1580511
0 -0.9465511
1 3.3273956
2 4.2063737
3 4.6655514
4 5.4008614
5 10.7986029
Exemplo
Definição
Seja X1 , X2 , X3 , · · · Xn variáveis aleatórias independentes e identicamente distribuídas
com distribuição p.d.f. ou p.f. f (x|θ), para X = x um observado da amostra, definimos
L(θ|x) = f (x|θ)
Exemplo
Encontre o melhor estimador para a função exponencial
Resol.
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 33
n
Y
L(θ|x1 , x2 , x3 · · · xn ; θ) = f (xi |θ)
i
n
Y
= λe−λx
i
P
n −λ x
= λ e
=⇒ Aplicando o logarítimo
P
l(λ|x) = ln λn e−λ x
=⇒ Aplicando a maximização
P
∂l(λ|x) ∂ ln λn e−λ x
= =0
∂λ ∂λ P
∂ (n · ln λ − λ x)
= =0
∂λ
1 X
= n − x=0
λ̂
finalmente,
1
λ̂ =
x̄
portanto, o melhor estmador para λ é o inverso da média.
Vamos simular no R as condições para esse exemplo. Façamos uma população da distri-
buição exponencial com λ = 12:
No R softare:
x < −rexp(n, rate = 12)
Suponha que o valor de λ é desconmhecido e não sabemos que o seu resultado é 12. Ao
conjunto de dados vamos montar um histograma:
> hist(x)
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 34
> mean(x)
[ 1 ] 0.09038879
> 1/mean(x)
[ 1 ] 11.06332
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 36
Exemplo
Encontre o estimador de máxima verossimilhança para
f (x|θ) = θx (1 − θ)1−x
f (x|θ) = θx (1 − θ)1−x
Exemplo
Encontre o estimador de máxima verossimilhança para a probabilidade Binomial.
Aplicando o logarírimo
n
X n
X
l(θ; x) = [ln N ! − ln(N − x)! − ln x!] + x ln θ (3.6)
x=0 x=0
Xn n
X
+ ( N− x) ln(1 − θ)
x=0 x=0
n
!
X
+ nN − x ln(1 − θ)
x=0
(3.7)
Encontramos o estimador
Pn
i=1 xi x̄
θ̂ = =
Nn N
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 38
Exemplo
Aplicando o logarírimo
n
" 2 #
n X 1 x − µ
l(µ, σ 2 ; x) = − ln(2π) + −
2 x=0
2 σ
Exemplo
Encontre o estimador de máxima verossimilhança para a probabilidade Expo-
nencial.
Aplicando o logarírimo
n
!
X
l(λ; x) = −λ x + n ln λ (3.11)
x=0
Encontramos o estimador
n 1
λ̂ = Pn =
i=1 xi x̄
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 40
Exemplo
Aplicando o logarírimo
n n
X 1X
l(α, β; x) = −n ln Γ(α) − nα ln β + (α − 1) ln x − x
x=0
β x=o
n n
nX 1nX
l(α, β; x) = −n ln Γ(α) − nα ln β + (α − 1) ln x − x
n x=0 β n x=o
Exemplo
Encontre o estimador de máxima verossimilhança para a distribuição Geomé-
trica.
Aplicando o logarírimo
n
!
X
l(θ; x) = n ln θ + x − n ln(1 − θ)
x
n
θ X
l(θ; x) = n ln + ln(1 − θ) x
1−θ x
Finalmente,
(3.15)
1
θ̂ =
x̄
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 42
Exemplo
Encontre o estimador de máxima verossimilhança para a distribuição Poisson.
λx e−λ
f (x|λ) = (3.16)
x!
Aplicando o logarírimo
n
!
X
l(λ; x) = x · ln λ − nλ − n · ln x!
x=0
Encontramos o estimador
Pn
i=1 xi
λ̂ = = x̄
n
3.3. FUNÇÃO DE MÁXIMA VEROSSIMILHANÇA 43
Exemplo
Encontre o estimador de máxima verossimilhança para a distribuição Kuma-
raswamy.
Aplicando o logarírimo
" n n
#
Y Y
l(θ; x) = ln 3n θn x2 (1 − x3 )θ−1
n
X n
X
l(θ; x) = n ln 3 + n ln θ + 2 ln x + (θ − 1) (1 − x3 )
Encontramos o estimador
n
θ̂ = − Pn
(1 − x3 )
Capítulo 4
Teste de Hipóteses
4.1 Erros
O objetivo é lançar uma afirmativa e, se for verdade, gostaríamos de não rejeitá-la.
H0 é verdadeira H0 é falsa
Não Rejeita H0 Decisão correta β: Erro Tipo II
Rejeita-se H0 α: Erro Tipo I Decisão correta
a) Erro tipo I
P [rejeitar H0 |H0 é verdadeira] = α
Esta não é, com certeza, uma decisão correta. Essa probabilidade é o nível de
significância α que define a probabilidade de tomar uma decisão errada de rejeitar
uma hipótese nula, sendo essa verdadeira. Quando não sabemos o valor que assume
o nível de significância α, podemos propor o valor de α = 5%.
b) Erro tipo II
P [aceitar H0 |H0 é falsa] = β
Esta também é uma decisão incorreta. Essa probabilidade define a decisão errada
de aceitar uma afirmativa falsa.
44
4.2. HIPÓTESE NULA 45
Por exemplo, suponha que desejamos avaliar a proporção de aceitação sobre um produto
ou serviço através de um questionário e, assim avaliar a hipótese da proporção popu-
lacional. O algorítimo indica a quantidade pivotal z-score a ser utilizada para o teste
da proporção. No caso da média devemos tomar cuidado com o conhecimento prévio
(ou não) do desvio padrão amostral σ, a depender de seu conhecimento podemos decidir
ora por um teste normal padrão z-score ora por um teste t-Student. Por outro lado, o
teste do desvio padrão ou variância segue com a mesma quantidade pivotal que seque a
distribuição qui-quadrado.
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 47
Definição
σ2
X̄ ∼ N µ; ,
n
X̄ − µ
Z= √
σ/ n
A seguir demostramos como testar a hipótese para um desvio padrão ou variância conhe-
cida.
Exemplo
Um engenheiro civil quer verificar se a tensão admissível na tensão dos laminados de
ferro estão dentro do padrão estabelecido em normativa com tensão de 1250 kg/cm2 .
Uma amostra de 200 laminados de ferro apresentou uma média de x̄ = 1284,89 kg/cm2 .
No entanto, análises dos dados amostrais em levantamentos anteriores determinam um
desvio padrão de σ = ±7, 85kg/cm2 . Podemos afirmar que a média amostral está de
acordo com a média populacional estabelecida?
Sol. A hipótese é dada pela igualdade da média populacional com o valor da tensão
admissível na tensão dos laminados de ferro, ou seja
H0 : µ = 1250
• Quantidade Pivotal
X̄ − µ 1284, 89 − 1250
Z= √ = √ = 62, 85594
σ/ n 7, 85/ 200
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 48
• Valor z-Score tabelado: como refere-se ao teste de hipótese bilateral, temos a diluição
do nível de significância em dois lados, uma para a esquerda e outro para a direita,
cada um com a metade do nível de significância, isto é, α/2 = 2, 5%.
Definição
X̄ − µ
T = √
S/ n
O exemplo seguinte demostra como executar o teste de hipótese quando não conhecemos
a variância populacional para única amostra.
Exemplo
Teste de hipótese da média do comprimento dos parafusos Uma amostra de
18 comprimentos de parafusos observações acusou x̄ = 6.08 cm e s = 0.2 cm. Teste a
hipótese de que a média populacional das peças µ é superior ou igual a 6.12 cm.
• Quantidade Pivotal
6.08 − 6.12
tcalc = √ = −0.84852
0.2/ 18
• Tabela t-Student
O exemplo sequinte apresenta o caso de decisão para uma distribuição bilateral. Q pro-
babilidade da estatística de teste deverá ser duplicada para encontrarmos a probabilidade
p-valor.
Sol.
• Quantidade Pivotal
352.559 − 0
tcalc = √ = 1.2298
906.5701/ 10
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 51
• Tabela t-Student
Verifique se, em média, a dureza das peças está acima de 640 HV.
Sol.
• Quantidade Pivotal
641.4443 − 640
tcalc = √ = 1.306786
3.828556/ 12
• Tabela t-Student
Para verificar se o valor médido está de acordo com o valor teórico exato de 9.80665
m/s2 , o pesquisador utilizou o software R para encontrando a seguinte saída:
> t.test(dados, mu=mu_x ,alternative = H1,paired = FALSE)
data: dados
t = 0.85267, df = 39, p-value = 0.3991
alternative hypothesis: true mean is not equal to 9.80665
95 percent confidence interval:
9.797932 9.828076
sample estimates:
mean of x
9.813004
Sol.
Sol.
• Quantidade Pivotal
15 − 17
zcalc = √ = −2.730712
9/ 151
• Tabela t-Student
zα/2 = ±1.644854
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 55
• Conclusão: Com o P − valor = 0.0063 < α ou porque zcalc < −1.64, existem
evidências suficientes para rejeitarmos a hipótese nula de igualdade. Portanto, a
média populacional não é igual a 17 minutos de espera.
Sol.
• Quantidade Pivotal
98.20 − 98.60
zcalc = √ = −1.915155
68/ 106000
• Tabela t-Student
zα = +1.644854
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 56
• Conclusão: Com o P −valor = 0.9445 > α ou porque zcalc < 1.64, existem evidências
suficientes para não rejeitarmos a hipótese nula de igualdade. Portanto, a média
populacional não é igual a 17 minutos de espera.
Sol.
• Quantidade Pivotal
4.1 − 4.4
zcalc = √ = −0.9341179
1.9/ 35
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 57
• Tabela t-Student
zα = −1.644854
• Conclusão: Com o P − valor = 0.3502 > α ou porque zcalc > −1.64, existem
evidências suficientes para não rejeitarmos a hipótese nula de igualdade.
Sol.
• Quantidade Pivotal
153.25 − 150
tcalc = √ = 0.4832525
13.45053/ 4
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 58
• Tabela t-Student
tα/2 = ±3.182446
• Conclusão: Com o P − valor = 0.662 > α ou porque tcalc > −3.8 e tcalc < 3.8,
existem evidências suficientes para não rejeitarmos a hipótese nula de igualdade.
Portanto, a meta de vendas do mês foi alcançada.
4.3. TESTE DE HIPÓTESE PARA UMA AMOSTRA 59
Teorema
Dada uma função de distribuição das variáveis aleatórias definidas por zn = Y√nnpq
−np
,
onde yn ∼ Binom(n, p). Obteremos como resultado a convergência em distribuição
Yn − np
√ → N (0, 1)
npq
A distribuição amostral para a proporção está de acordo com o Teorema do Limite Central,
segundo De Muivre-Laplace citado acima:
Definição 4
Sejam X1 , X2 , X3 , · · · Xn v.a’s independentes e identicamente distribuídas com X ∼
Binom(N p, N pq), então pq
p̂ ∼ N p,
n
segue uma distribuição normal com média E(p̂) = p e variância V ar(p̂) = pq/n.
(n − 1)s2
χ2 =
σ2
• Teste unilateal à direita
H0 : σ 2 ≤ σ02
H1 : σ 2 > σ02 (4.4)
H0 : σ 2 ≥ σ02
H1 : σ 2 < σ02 (4.5)
• Teste bilateral
H0 : σ 2 = σ02
H1 : σ 2 ̸= σ02 (4.6)
Se a estatística de teste estiver fora da região critica não rejeitamos a hipótese nula.
Sol.
• Quantidade Pivotal
(n − 1)s2 (7 − 1)(2.0365)2
χ2calc = = = 3.110596
σ2 8
• Tabela χ2
χ2α/2 = 14.45
χ21−α/2 = 1.24
Figura 4.18: Algorítimo para o teste de hipótese para médias em duas amostras
Figura 4.19: Algorítimo para o teste de hipótese para variâncai e proporção em duas
amostras
Capítulo 5
X : {x ∈ N}
64
5.1. TABELAS DE CONTINGÊNCIA 65
Variável X
x1 x2 x3 x3
y1 a11 a12 a13 a14
y2 a21 a22 a23 a24
Variável Y
y3 a31 a32 a33 a34
y4 a41 a42 a43 a44
Cada elemento aij refere-se ao valor observado. A soma das observações são escritas
por
• Soma em cada linha X
ai+ = aij
j=1
• Soma total XX
a++ = aij = n
i=1 j=1
Valor esperado
Define-se o valor esperado para variáveis discretas por
X
E(x) = xP (x)
Variável X
x1 x2 x3 x3
y1 E11 E12 E13 E14
y2 E21 E22 E23 E24
Variável Y
y3 E31 E32 E33 E34
y4 E41 E42 E43 E44
Suponha que essa probabilidade equivale ao resultado da proporção diluída sobre todas
as observações a++ . De fato, o valor esperado pode ser entendido como E(•) = n · p
ai+ a+j ai+ a+j
E(aij ) = n · pij = a++ · P (xi ∩ yj ) = a++ · · =
a++ a++ a++
Quantidade Pivotal
A estatística de teste, chamada de estatística Qui-quadrado de Pearson, seque a distri-
buição χ2ν com ν graus de liberdade:
X (Ok − Ek )2
χ2ν = ; ∀k ∈ N∗
k
Ek
sendo as observações dada por "O"e o valor esperado por "E". O grau de liberade é o pro-
dudo dos graus de liberdade da quantidade de linhas e colunas da tabela de contingência
ν = νL · νC :
νL = (nL − 1) para L linhas
νC = (nC − 1) para C colunas
5.2. TESTE DE ADERÊNCIA 67
ou
H0 : p1 = p2 = p3 = · · · = pn ; ∀i ̸= j
é testada pela estatística de teste (quantidade pivotal)
Pk 2
2 i=1 (ni − npi0 )
χcalc =
npi0
sendo E(xi ) = npi0 , com grau de liberdade k −1. Rejeita-se a hipótese quando o resultado
da estatística de teste se encontrar na região crítica, isto é; χ2calc ≥ χ2α,k−1
Obs ou ni n1 n2 ··· n3
E(x) = npi0 E(x1 ) E(x2 ) ··· E(n3 )
A hipótese refere-se que não há diferença nas frequências observadas (Obs) e esperadas
E(x). Se isso ocorre, o modelo probabilístico têm a mesma distribuição da observa-
ção.
Ex1. Suponha jogar um dado de seis faces 120 vezes. Dada a frequência na observação
de cada face, verifique se o dado é honesto segundo a tabela abaixo:
Face 1 2 3 4 5 6
Obs. 20 22 17 18 19 24
Sol.
1) Hipótese
H0 : O dado é honesto
tal que para uma quantidade de n = 120 lances, o número obsrvado esperado
deverá seguir uma distribuição Binomial para cada face, cujo resultado é:
1 1
E(x) = nθ = n = 120 · = 20
N 6
Portanto, podemos esperar os seguintes resultados:
Face 1 2 3 4 5 6
Obs. 20 22 17 18 19 24
Esperado. 20 20 20 20 20 20
3) Estatística de teste
6
X (Ok − Ek )2
χ2calc = (5.3)
k=1
Ek
(20 − 20)2 (22 − 20)2 (17 − 20)2 (18 − 20)2 (19 − 20)2 (24 − 20)2
= + + + + +
20 20 20 20 20 20
≈ 1, 7
ν = (nc − 1) = (6 − 1) = 5; 1 − α = 95%
4) Teste da hipótese H0 Como o valor da estaística de teste χ2ν = 1, 7 < 11, 070 =
χ2tab , encontra-se na região de acitação 1 − α, não rejeitamos a hipótese nula.
5) Conclusão Exitem evidências significativas para apoiarmos a hipótese nula com
95% de confiança. Portanto, o dado pode ser considerado honesto.
5.2. TESTE DE ADERÊNCIA 69
Figura 5.2: Área p-valor= 88, 89% em azul e o nível de significância α = 5% em vermelho.
No software R:
> Dados <- as.table(rbind(c(20, 22, 17, 18, 19, 24)))
> dimnames(Dados) <- list(
+ Linha = c("saida"),
+ Faces = c("face 1","face 2","face 3","face 4","face 5","face 6")
+ )
>
> Dados
Faces
Linha face 1 face 2 face 3 face 4 face 5 face 6
saida 20 22 17 18 19 24
data: Dados
X-squared = 1.7, df = 5, p-value = 0.8889
>
> # Valores Obervados
> Qui2$observed
[1] 20 22 17 18 19 24
>
> # Valores Esperados
> Qui2$expected
[1] 20 20 20 20 20 20
>
>
> alfa = 0.05
> ggplot(data.frame(x = c(0, 25)), aes(x)) +
+ stat_function(fun = dchisq, args =list(df =Qui2$parameter)) +
+ stat_function(fun = dchisq, args =list(df =Qui2$parameter),
+ xlim = c(Qui2$statistic,25),
+ geom = "area",
+ alpha = .2,
+ fill = "blue")+
+ stat_function(fun = dchisq, args =list(df =Qui2$parameter),
+ xlim = c(qchisq(1-alfa,Qui2$parameter),25),
+ geom = "area",
+ alpha = .2,
+ fill = "red")
5.3. TESTE DE HOMEGENEIDADE 70
Variável X
x1 x2 x3 x3
y1 a11 a12 a13 a14
y2 a21 a22 a23 a24
Variável Y
y3 a31 a32 a33 a34
y4 a41 a42 a43 a44
X (Ok − Ek )2
χ2ν = ; ∀k ∈ N∗
k
Ek
sendo as observações dada por "O"e o valor esperado por "E". O grau de liberade é o
produdo dos graus de liberdade da quantidade de linhas e colunas da tabela de contin-
gência:
ν = (nL − 1)(nC − 1)
A decisão do teste se faz para χ2calc ≤ χ2tab,ν,1−α ou quando a probabilidade da estatística
de teste p-valor for
P (χ2tab,ν,1−α > χ2calc |H0 ) < α
Ex1. Suponha duas linhas de produção. A tabela abaixo conta as quantidades de peças
classificadas como conforme (Conf.), não conforme (N.Conf.) e recuperadas (Rec.).
Os dados demostram que as proporções em cada categoria são as mesmas para as
duas linhas de produção.
Classificação
Conforme Não conforme Recuperado
Linha 1 32 18 12
Linha 2 43 15 17
5.3. TESTE DE HOMEGENEIDADE 71
No software R:
\begin{lstlisting}[caption={Código fonte em R}, label=lst:rcode]
> Dados <- as.table(rbind(c(32,18,12), c(43,15,17)))
> dimnames(Dados) <- list(
+ Linha = c("Linha 1", "Linha 2"),
+ Classificacao = c("Conforme","Nao conforme", "Recuperado")
+ )
> Dados
Classificacao
Linha Conforme Nao conforme Recuperado
Linha 1 32 18 12
Linha 2 43 15 17
Sol.
Vamos avaliar a proporção em cada classificação.
Classificação
Conforme Não conforme Recuperado
Linha 1 32 18 12
Linha 2 43 15 17
Total 75(p̂c = 54, 7%) 33(p̂nc = 24, 1%) 29(p̂rec = 21, 2%)
1) Hipótese
A hipótese a ser testada é
H0 : pc = pnc = prec
ou
H0 : p1+ = p2+ = p3+
Isto é, as proporções conforme, não conforme e recuperado são iguais? Ou seja,
são homogêneas, igualmente distribuídas?
2) Valor esperado E(x) Primeiramente preciamos encontrar as somas marginais
Classificação
Conforme Não conforme Recuperado ai+
Linha 1 32 18 12 62
Linha 2 43 15 17 75
a+j 75 33 29 a++ = 137
a1+ · a+3 62 · 29
12 → E(a13 ) = = = 13, 124
a++ 137
e, para a linha 2
a2+ · a+1 75 · 75
43 → E(a21 ) = = = 41, 0581
a++ 137
a2+ · a+2 75 · 33
15 → E(a22 ) = = = 18, 065
a++ 137
a2+ · a+3 75 · 29
17 → E(a23 ) = = = 15, 875
a++ 137
Classificação O(E)
Conforme Não conforme Recuperado
Linha 1 32(33,941) 18(14,934) 12(13,124)
Linha 2 43(41,058) 15(18,065) 17(15,875)
No software R:
> Qui2 <- chisq.test(Dados); #Qui2
>
> # Valores Obervados
> Qui2$observed
Classificacao
Linha Conforme Nao conforme Recuperado
Linha 1 32 18 12
Linha 2 43 15 17
>
> # Valores Esperados
> Qui2$expected
Classificacao
Linha Conforme Nao conforme Recuperado
Linha 1 33.94161 14.93431 13.12409
Linha 2 41.05839 18.06569 15.87591
3) Estatística de teste
6
X (Ok − Ek )2
χ2calc = (5.4)
k=1
Ek
(32 − 33, 941)2 (18 − 14, 934)2 (12 − 13, 124)2 (43 − 41, 058)2
= + + +
33, 941 14, 934 13, 124 41, 058
2 2
(15 − 18, 065) (17 − 15, 875)
+ +
18, 065 15, 875
≈ 1, 528
No software R:
5.3. TESTE DE HOMEGENEIDADE 73
data: Dados
X-squared = 1.5283, df = 2, p-value = 0.4657
5) Conclusão
A decisão do teste se faz para χ2calc ≤ χ2tab,ν,1−α ou quando a probabilidade da
estatística de teste p-valor for
De fato,
χ2calc ≤ χ2tab,ν,1−α → 1, 528 ≤ 5, 991
decidimos em não rejeitar a hipótese nula para α = 5%. Isto é, a probabilidade
da estatística de teste χ2calc = 1.5283 é o p-valor 46,67%, o qual é maior do que
o nível de significância α = 5%. Portanto, as proporções não diferem.
No software R:
alfa = 0.05
ggplot(data.frame(x = c(0, 7)), aes(x)) +
stat_function(fun = dchisq, args =list(df =Qui2$parameter)) +
stat_function(fun = dchisq, args =list(df =Qui2$parameter),
xlim = c(Qui2$statistic,7),
geom = "area",
alpha = .2,
fill = "steelblue")+
stat_function(fun = dchisq, args =list(df =Qui2$parameter),
xlim = c(qchisq(1-alfa,Qui2$parameter),7),
geom = "area",
alpha = .2,
fill = "red")
P (X = x, Y = y) = P (X = x) · P (Y = y)
X (Ok − Ek )2
χ2ν = ; ∀k ∈ N∗
k
Ek
sendo as observações dada por "O"e o valor esperado por "E". O grau de liberade é o
produdo dos graus de liberdade da quantidade de linhas e colunas da tabela de contin-
gência:
ν = (nL − 1)(nC − 1)
A decisão do teste se faz para χ2calc ≤ χ2tab,ν,1−α ou quando a probabilidade da estatística
de teste p-valor for
P (χ2tab,ν,1−α > χ2calc |H0 ) < α
EX. Sejam duas variáveis distintas: velocidade e marca. Suponha querer determinar se
as velocidades do automóvel são independentes do consumo médio com relação à
marca.
No software R:
> Dados <- as.table(rbind(c(21,15,10), c(14,12,8),c(21,15,10)))
> dimnames(Dados) <- list(
Marca = c("A", "B","C"),
Velocidade = c("80km/h","100km/h", "120km/h"))
> Dados
Velocidade
Marca 80km/h 100km/h 120km/h
A 21 15 10
B 14 12 8
C 21 15 10
>
1) Hipótese
No software R:
3) Estatística de teste
6
X (Ok − Ek )2
χ2calc = (5.5)
k=1
Ek
(21 − 20, 444)2 (15 − 15, 333)2 (10 − 10, 222)2
= + +
20, 444 15, 333 10, 222
2 2
(14 − 15, 111) (12 − 11, 333) (8 − 7, 555)2
+ + +
15, 111 11, 333 7, 555
2 2
(21 − 20, 444) (15 − 15, 333) (10 − 10, 222)2
+ + +
20, 444 15, 333 10, 222
≈ 0, 2014
5.4. TESTE DE INDEPENDÊNCIA 76
No software R:
> Qui2 <- chisq.test(Dados); Qui2
data: Dados
X-squared = 0.20141, df = 4, p-value = 0.9953
5) Conclusão
A decisão do teste se faz para χ2calc ≤ χ2tab,ν,1−α ou quando a probabilidade da
estatística de teste p-valor for
De fato,
χ2calc ≤ χ2tab,ν,1−α → 0, 2014 ≤ 9, 488
Para a estatística de teste χ2calc = 0, 2014, a sua probabilidade, chamada de
p-valor é de 0,9953, sendo essa maior do que o nivel de significância α = 5%.
Assim, decidimos em aceitar a hipótese nula para esse nível de significância.
Portanto, as variávies velocidade e marca podem ser consideradas independen-
tes.
No software R:
alfa = 0.05
ggplot(data.frame(x = c(0, 7)), aes(x)) +
stat_function(fun = dchisq, args =list(df =Qui2$parameter)) +
stat_function(fun = dchisq, args =list(df =Qui2$parameter),
xlim = c(Qui2$statistic,7),
geom = "area",
alpha = .2,
fill = "steelblue")+
stat_function(fun = dchisq, args =list(df =Qui2$parameter),
xlim = c(qchisq(1-alfa,Qui2$parameter),7),
geom = "area",
alpha = .2,
fill = "red")
5.4. TESTE DE INDEPENDÊNCIA 77
Análise de Variância
Quando o nosso objetivo é verificar se há diferenca entre muitos grupos, mais do que
dois, então podemos usar a análsie de variância, cuj objetivo é avaliar se há diferença
significativa na média populacional, em pelo menos um grupo.
H0 : µT 1 = µT 2 = µT 3 = ... = µT K = ... = µT a
H1 : ∃µl ̸= µs
O modelo DCC inclui a variável dependente yi,j como função dos tratamentos αi , cujo
erro ϵ segue uma distribuição normal, homocedástica e independente ϵ ∼ N (0, σϵ2 ):
yij = µ + αi + +ϵij
A tabela de observação dos resultados yij deve ser organizada em a-tratamentos T na linha
com as suas respectivas n-amostras nas colunas, resultando em N = n · a observações.
Teorema
A identidade da soma dos quadrados fornece
n X
X a a
X n X
X a
2 2
(yij − y¯.. ) = n (y¯i. − y¯.. ) + (yij − y¯i. )2
i j i i j
78
6.2. DELINEAMENTO COMPLETAMENTE CASUALISADO (RCC) 79
Como vimos, estes termos podem ser expandidos (A±B)2 = A2 ±2AB +B 2 sem perda de
genaralidade; lembrando que o termo cruzado AB é nulo dada a ortogonalidade entre A e
B. O motivo para isso é encontrar uma simetria nas somas com o objetivo de relacionar as
respectivas variâncias. O resultado da simetria auxilia-nos muito na condução de outros
croquis mais avançados. Vamos definir aqui o termo constante chamado de corretor:
y..2
C= N =n·a
N
Ou seja,
• Soma dos quadrados totais: SQT =
Pn Pa
yij2 − C
i j
Teorema
n X
X a
SQT = (yij − y¯.. )2 (6.1)
i j
n
XXa
= (yij2 + y¯.. 2 − 2yij y¯.. )
i j
n
XXa n X
X a n X
X a
= yij2 + 2
y¯.. − 2y¯.. yij
i j i j i j
n a
XX na
= yij2 + nay¯.. 2 − 2y¯.. y..
i j
na
n
XXa
= yij2 + nay¯.. 2 − 2nay¯.. 2
i j
n
XXa y 2
..
= yij2 − na ; como N = n · a
i j
na
n a
XX y..2
= yij2 −
i j
N
y..2
C=
N
Questão
Mostre que
n a
X 1X 2
2
SQtrat = n (y¯i. − y¯.. ) = y −C
i
n j i.
Finalmente, além da tabela de análise de variância ficar mais compacta ela mostra-nos
um padrão verificado no exercício acima.
Exemplo
Seis máquinas diferentes estão sendo consideradas para o uso de fabricação. As máqui-
nas estão sendo comparadas em relação à resistência à tensão do produto. A resposta
da máquina é a resistência à tensão em kg/cm2 X10−1 . Verifique se as tensões na
fabricação diferem entre si.
T1 T2 T3 T4 T5 T6
1.750 1.770 1.755 1.703 1.776 1.635
1.705 1.716 1.745 1.723 1.628 1.703
1.740 1.700 1.745 1.741 1.707 1.672
1.698 1.702 1.695 1.795 1.672 1.697
Solução:
i = 1, 2, 3, · · · , a
j = 1, 2, 3, · · · , b
k = 1, 2, 3, · · · , n
• Efeitos de A
H0 : τ1 = τ2 = τ3 = ... = τa
H1 : ∃ τl ̸= τs
• Efeitos de B
H0 : β1 = β2 = β3 = ... = βb
H1 : ∃ βl =
̸ βs
• Interação AB
H0 : γ11 = γ12 = γij = ... = γab
H1 : ∃ γlm ̸= γvs
• Soma total ( Pa Pb Pn
yijk = i=1 j=1 k=1 yijk
yijk
yijk
¯ = abn
6.3. ANÁLISE DE VARIÂNCIA PARA DOIS FATORES 84
Teorema
A identidade da soma dos quadrados fornece
a X
X b X
n a
X b
X
2 2
(yijk − y¯··· ) = bn (y¯i.. − y¯··· ) + an (y¯.j. − y¯··· )2
i j k i j
a X
X b
+ n (yij. − y¯i.. − y¯.j. + y¯... )2
i j
a X
X b X
n
+ (yijk − y¯ij )2
i j k
• Soma dos quadrados da interação dos fatores AB: n ai bj (yij. − y¯i.. − y¯.j. + y¯... )2
P P
• Soma dos quadados dos erros: SQE = ai bj (yij − y¯i. − y¯.j + y¯.. )2
P P
Ou utilizando o corretor
2
y···
C=
abn
podemos reescrever a anova para duplo fatorial por
Exemplo
Seis máquinas diferentes estão sendo consideradas para o uso de fabricação. As máqui-
nas estão sendo comparadas em relação à resistência à tensão do produto. A resposta
da máquina é a resistência à tensão em kg/cm2 X10−1 . Verifique se as tensões na
fabricação diferem entre si para o novo caso: suponha que cada funcionário opere as
máquinas em três etapas diferentes. Há diferença entre os operadores? Há diferença
entre as máquinas? Existe intereação entre máquinas e os operadores? Desenvolva os
procedimentos de cálculo em uma planilha ou desenvolva um programa no software R.
ETAPA I T1 T2 T3 T4 T5 T6
Oper. 1 17.5 16.4 20.3 14.6 17.5 18.2
Oper. 2 16.9 19.2 15.7 16.7 19.2 16.2
Oper. 3 15.8 17.7 17.8 20.8 16.5 17.5
Oper. 4 18.6 15.4 18.9 18.9 20.5 20.1
ETAPA II T1 T2 T3 T4 T5 T6
Oper. 1 17.4 18.9 22.3 16.8 17.5 25.6
Oper. 2 18.0 18.5 20.4 16.4 13.6 20.2
Oper. 3 16.1 16.3 16.4 21.1 11.6 15.3
Oper. 4 17.7 18.5 13.0 14.9 21.3 21.3
ETAPA III T1 T2 T3 T4 T5 T6
Oper. 1 17.7 17.8 21.4 18.2 15.6 22.2
Oper. 2 10.8 16.4 13.9 15.4 22.4 18.9
Oper. 3 15.8 17.9 22.1 16.5 23.7 16.6
Oper. 4 15.5 16.9 19.9 18.6 17.8 14.4
6.4. PRESSUPOSTOS DA ANÁLISE 86
e ∼ N (0, σϵ2 )
Correlação
7.1.2 Covariância
A variância compartilhada entre duas variváeis denominamos covariância cov(X, Y ).
Definição
A covariância é definida como sendo a variância compartilhada. Define-se pela espe-
rança do produto dos desvios de duas variáveis aleatórias: E(dXi dXj ), ou seja:
COV (Xi , Xj ) = E[(Xi − E(Xi ))(Xj − E(Xj ))] = E(Xi Xj ) − E(Xi )E(Xj )(7.3)
d2x (x − x̄)2
P P
σx2 = =
n n
• Variância amostral de x:
d2x (x − x̄)2
P P
s2x = =
n−1 n−1
87
7.1. VARIÂNCIA, COVARIÂNCIA E CORRELAÇÃO 88
• Variância populacional de y:
d2y
P
(y − ȳ)2
P
σy2 = =
n n
• Variância amostral de y:
d2y
P
(y − ȳ)2
P
s2y = =
n−1 n−1
Exemplo
Suponha os desvios dx = x − x̄ e dy = y − ȳ para duas variáveis aleatórias: X =
{0.2, 0.6, 0.5, 0.4, 0.28} e Y = {0.1, 0.5, 0.9, 0.5, 0.5}. Qual o valor da covariância amos-
tral entre ambas as variáves. Explique o que este valor significa.
Portanto, P
dx dy
SX,Y = =
n−1
7.1.3 Correlação
A imagem da covariância pode estar entre (−∞, +∞). Uma alternativa de padronizar a
escala da imagem da covariância para os valores entre (−1, +1) é chamado de correla-
ção.
7.1. VARIÂNCIA, COVARIÂNCIA E CORRELAÇÃO 89
Devemos encontrar uma medida estatística que forneça o resultado finito. Como V ar(x) <
∞ e V ar(y) < ∞. Podemos padronizar a covariância através da desigualdade de Cauchy-
Schwarz:
Para o espaço
Pn 2R Euclidiano
Pn vamos reescrever o produto < uv >= ui vi , bem como
n
Pn
i
< u >= i ui e < v >= i vi Então,
2
Pn 2 Pn 2 Pn 2
dx dy i dx i dy
i
≤ (7.6)
n n n
s P 2 s Pn 2 n 2
n
P
i dx dy i dx i dy
≤
n n n
s P 2 s s
Pn 2 n 2
n
P
i dx dy i dx i dy
≤
n n n
Ou seja,
q p q
(σx,y )2 ≤ σx2 σy2 (7.7)
|σx,y | ≤ |σx ||σy |
σx,y
σx σy ≤ 1
Definição
Define-se a correlação populacional por
σx,y
ρ=
σx σy
Podemos interpretar a correlação como uma medida do grau da relação direta, inver-
samente proporcional ou inexistente. Isto é, quando a correlação for negativa (ρ < 0)
significa que as variáveis X e Y são inversamente proporcional. Quando inexistente terá
correlaçãonula (ρ = 0) e, por fim, quando ambas as variáveis forem diretamente propor-
cional a correlação será positiva (ρ > 0). Dizemos que será perfeitamente correlacionado
quando assumir valores extremos +1 ou -1.
É importante conhecermos a forma da correlação amostral. Basicamente podemos re-
escrever as variâncias de x e de y sem a dependência da média. Isso possibilita uma
estrutura mais prática para o cálculo da covariância amostral.
7.1. VARIÂNCIA, COVARIÂNCIA E CORRELAÇÃO 91
Definição
O coeficiente de correlação linear amostral r mede a força da correlação entre valores
emparelados de ambas as variáveis aleatórias de uma população. No caso amostral
usamos a letra latina r. A correlação linar pode ser definida por
d2x (x − x̄)2
P P
s2x = = (7.10)
n−1 n−1
(x2 + x̄2 − 2xx̄)
P
=
P 2 nP −1
x + x̄2 − 2x̄ x
P
=
n−1
P 2 P P
x + n nx − 2 nx
P 2
x n
= ·
n−1 n
P 2 P 2 P 2
n x + ( x) − 2 ( x)
=
n(n − 1)
n x − ( x)2
P 2 P
=
n(n − 1)
• Correlação amostral
7.1. VARIÂNCIA, COVARIÂNCIA E CORRELAÇÃO 92
P P
dx dy (x − x̄)(y − ȳ)
sxy = = (7.12)
n−1
P n−1
(xy − xȳ − yx̄ + x̄ȳ)
=
P n−1 P
P P
xy − xȳ − yx̄ + x̄ȳ
=
P Pn − 1 P
xy − ȳ x − x̄ y + nx̄ȳ
=
P n−P1 P P P P
y x
y + n nx y
P
xy − n x− n n
=
P P nP− 1 P P P
P y x x y
xy − n
x− n
y+n n n n
= ·
P P P n − 1P P n
nxy − 2 ( y) ( x) + ( x) ( y)
=
n(n − 1)
P P P
n xy − x y
=
n(n − 1)
Exemplo
Para os dados X = 1, 2, 3, 4 e Y = 1, 5, 5, 9 encontre o valor da correlação r.
H0 : ρ = 0 (7.14)
H1 : ρ ̸= 0 (7.15)
Regressão
ŷ = βˆ0 + βˆ1 x
Como devemos encontrar o mínimo da soma dos quadrados devemos fazer o estudo das
funções, isto é,
n
∂L X
|βˆ0 ,βˆ1 = −2 (y1 − βˆ0 − βˆ1 xi ) = 0 (8.1)
∂β0 i=1
n
∂L X
|βˆ0 ,βˆ1 = −2 (y1 − βˆ0 − βˆ1 xi )xi = 0 (8.2)
∂β1 i=1
94
8.1. REGRESSÃO LINEAR SIMPLES 95
Na prática o estimador βˆ0 pode ser encontrado com o uso das médias X̄, Ȳ e o valor
encontrado para a média βˆ1 , isto é:
βˆ0 = ȳ − βˆ1 x̄
Obs: Uma alternativa para encontar o estimador para a inclinação βˆ1 é através da razão
entre os desvios padrões sx , sy e o valor da correlação r:
sy
βˆ1 = r
sx
Exemplo
Um engenheiro mecânico deseja avaliar a capacidade de vazão em uma válvula com
fluído denso. O conjunto das medidas sobre a variação da pressão ∆P (P SI) e a
resposta na taxa de vazão cfm (pés cúbicos por minuto) está apresentado na seguinte
tabela:
x y x̄ ȳ xy x2
30,2 0,15 4,53 912,04
48,3 0,35 16,905 2332,89
112,3 1,00 112,3 12611,29
123,78333 1,08333
162,2 1,25 202,75 26308,84
191,9 1,75 335,825 36825,61
197,8 2,00 395,6 39124,84
Soma 742,7 6,5 1067,91 118115,51
• Intercepto
βˆ0 = ȳ − βˆ1 x̄ (8.5)
= 1, 08333 − (0, 01005737)(123, 78333) = −0, 161601497 (8.6)
Usando os Software R:
> x < −c(30.2, 48.3, 112.3, 162.2, 191.9, 197.8)
> y < −c(0.15, 0.35, 1.00, 1.25, 1.75, 2.00)
> model1 < −lm(y ∼ x)
> plot(y ∼ x)
> summary(model1)
(8.7)
Exemplo
Refaça o exemplo anterior encontrando o estimador do inclinação usando os desvios e
a correlação r. Use a equação βˆ1 = r ssxy
correlação linear indicar alto valor, por exemplo, r = 85%, podemos sugerir um modelo
afim (regressora):
y = β0 + β1 x1 + β2 x2 + ...βk xk
Chamamos de regressão linear simples se apenas uma variável dependente está pre-
sente:
y = β 0 + β 1 x1
e, chamamos de regressão linear múltipla se mais do que uma variável dependente está
presente
y = β0 + β1 x1 + β2 x2 + ... + βijxi xj ... + βk xk
podendo apresentar dois modos:
• Termo de interação: são termos cruzados e a sua interpretação significa o quanto
uma variável independente relacionado com uma segunda altera a resposta.
Para uma melhor visualização da regressão múltipla, considere uma resposta Y dada
segundo k-variáveis independentes X.
resp/variáveis x1 x2 ... xk
y1 x11 x12 ... x1k
y2 x21 x22 ... x2k
... ... ... ... ...
yn x31 x32 ... x3k
Obviamente, a reta proposta não se ajustará sob todos os pontos dispersos no gráfico
obtendo uma certa distância entre o ponto observado e o regressora. Chamamos essa
distâcia de erro ϵ. Considerando esse erro, a reta proposta será dada por yi = β0 +βi xi +ϵ.
A equação múltipla pode ser modelada por
k
X
yi = β0 + βij xij + ϵi
j=1
1 x11 x12 ... x1k
1 x21 x22 ... x2k
X= 1 x31 x32 ... x3k
1 ... ... ... ...
1 xn1 xn2 ... xnk
ϵ1
ϵ2
ϵ= ϵ3
...
ϵn
β0
β1
β= β2
...
βk
Devemos minimizar pelo estudo de funções. Lembre-se que a variável a ser estimada são
os coeficientes de β.
′
L = (Y − XB)) (Y − XB)) (8.8)
′ ′ ′ ′ ′ ′
= Y Y − B X Y − Y XB + B X B (8.9)
′ ′ ′ ′ ′
= Y Y − 2B X Y + B X B (8.10)
com
β0
β1
b=β= β2
...
βk
′ ′
Observe que a equação b = (X X)−1 X Y é formada apenas por k-variáveis independentes
e Y variaveis dependentes, isto é, é possível calcular os coeficientes apenas pelas variáveis
da dispersão.
Exemplo
Suponha o seguinte conjunto de dados. Com apenas estas informações encontre os
coeficientes lineares para a função y = β0 + β1 x1 + β2 x2 + β3 x3
y X1 X2 X3
25,5 1,74 5,30 10,80
31,2 6,32 5,42 9,40
25,9 6,22 8,41 7,20
38,4 10,52 4,63 8,50
18,4 1,19 11,60 9,40
26,7 1,22 5,85 9,90
26,4 4,10 6,62 8,00
25,9 6,32 8,72 9,10
32,0 4,08 4,42 8,70
25,2 4,15 7,60 9,20
39,7 10,15 4,83 9,40
35,7 1,72 3,12 7,60
26,5 1,70 5,30 8,20
Sol.
Vamos aplicar a equação matricial
′ ′
b = (X X)−1 X Y
1 1, 74 5, 30 10, 80
1 6, 32 5, 42 9, 40
1 6, 22 8, 41 7, 20
1 10, 52 4, 63 8, 50
1 1, 19 11, 60 9, 40
1 1, 22 5, 85 9, 90
X= 1 4, 10 6, 62 8, 00
1 6, 32 8, 72 9, 10
1 4, 08 4, 42 8, 70
1 4, 15 7, 60 9, 20
1 10, 15 4, 83 9, 40
1 1, 72 3, 12 7, 60
1 1, 70 5, 30 8, 20
′ ′
• Para calcular os coeficientes lineares β por b = (X X)−1 X Y é conveniente subdi-
′ ′
vidir o cáclulo matricial entre (X X)−1 e X Y, tal que o produto de ambas as ma-
trizes gera-nos os coeficientes de interesse. Primeiramente, vamos calcular o termo
′
(X X)−1 . Essa última contém informações muito importante sobre o conjunto de
dados, veremos a diante.
1 1 1 1 1 1 1 1 1 1 1 1 1
′ 1, 74 6, 32 6, 22 10, 52 1, 19 1, 22 4, 10 6, 32 4, 02 4, 15 10, 15 1, 72 1, 70
(X X) = ∗
5, 30 5, 42 8, 41 4, 63 11, 60 5, 85 6, 62 8, 72 4, 42 7, 60 4, 83 3, 12 5, 30
10, 80 9, 40 7, 20 8, 50 9, 40 9, 90 8, 00 9, 10 8, 70 9, 20 9, 40 7, 60 8, 20
8.2. REGRESSÃO LINEAR MÚLTIPLA 101
1 1, 74 5, 30 10, 80
1 6, 32 5, 42 9, 40
1 6, 22 8, 41 7, 20
1 10, 52 4, 63 8, 50
1 1, 19 11, 60 9, 40
1 1, 22 5, 85 9, 90
∗ 1 4, 10 6, 62 8, 00
1 6, 32 8, 72 9, 10
1 4, 08 4, 42 8, 70
1 4, 15 7, 60 9, 20
1 10, 15 4, 83 9, 40
1 1, 72 3, 12 7, 60
1 1, 70 5, 30 8, 20
13 59, 43 81, 82 115, 40
59, 43 394, 7255 360, 6621 522, 0780
′
(X X) =
81, 82 360, 6621 576, 7264 728, 3100
115, 40 522, 0780 728, 3100 1035, 9600
′
Não devemos esquecer de calcular a matriz a inversa (X X)−1
13 59, 43 81, 82 115, 40 1 0 0 0
59, 43 394, 7255 360, 6621 522, 0780 0 1 0 0
′
(X X)−1 =
81, 82 360, 6621 576, 7264 728, 3100 0 0 1 0
115, 40 522, 0780 728, 3100 1035, 9600 0 0 0 1
8, 0648 −0, 0826 −0, 0942 −0, 7905
−0, 0826 0, 0085 0, 0017 0, 0037
′
−1
(X X) =
−0, 0942 0, 0017 0, 0166 −0, 0021
−0, 7905 0, 0037 −0, 0021 0, 0886
′
• O segundo temrmo X Y deverá ser encontrado para calcularmos os coeficientes.
1 1 1 1 1 1 1 1 1 1 1 1 1
′ 1, 74 6, 32 6, 22 10, 52 1, 19 1, 22 4, 10 6, 32 4, 02 4, 15 10, 15 1, 72 1, 70
X Y= ∗
5, 30 5, 42 8, 41 4, 63 11, 60 5, 85 6, 62 8, 72 4, 42 7, 60 4, 83 3, 12 5, 30
10, 80 9, 40 7, 20 8, 50 9, 40 9, 90 8, 00 9, 10 8, 70 9, 20 9, 40 7, 60 8, 20
8.2. REGRESSÃO LINEAR MÚLTIPLA 102
25, 5
31, 2
25, 9
38, 4
18, 4
26, 7
∗ 26, 4
25, 9
32, 0
25, 2
39, 7
35, 7
26, 5
377, 5
1877, 567
′
XY=
2246, 661
3337, 780
′ ′
• Finalmente podemos calcular o produto (X X)−1 X Y = b para encontrarmos os
coeficientes da regressão
8, 0648 −0, 0826 −0, 0942 −0, 7905 377, 5
−0, 0826 0, 0085 0, 0017 0, 0037 1877, 567
′ ′
(X X)−1 X Y =
−0, 0942 0, 0017 0, 0166 −0, 0021 2246, 661
−0, 7905 0, 0037 −0, 0021 0, 0886 3337, 780
39, 1574
1, 0161
′ ′
b = (X X)−1 X Y =
−1, 8616
−0, 3433
Usando o Software R
> x1 < −c(1.74, 6.32, 6.22, 10.52, 1.19, 1.22, 4.10, 6.32, 4.08, 4.15, 10.15, 1.72, 1.70)
> x2 < −c(5.30, 5.42, 8.41, 4.63, 11.60, 5.85, 6.62, 8.72, 4.42, 7.60, 4.83, 3.12, 5.30)
> x3 < −c(10.80, 9.40, 7.20, 8.50, 9.40, 9.90, 8.00, 9.10, 8.70, 9.20, 9.40, 7.60, 8.20)
> y < −c(25.5, 31.2, 25.9, 38.4, 18.4, 26.7, 26.4, 25.9, 32.0, 25.2, 39.7, 35.7, 26.5)
> model1 < −lm(y x1 + x2 + x3)
> summary(model1)
(8.13)
8.3. VALORES PREDITOS 103
′ ′
Cov(b) = E(b − E(b))(b − E(b)) = σ 2 (X X)−1
′
β̂ ∼ (β, C ≡ σ 2 (X X)−1 )
C00 C01 C02
′
C = (X X)−1 = C10 C11 C12
C20 C11 C22
H0 : βj = 0
H1 : βj ̸= 0
βˆj − βj
tn−p ∼ q
σˆ2 Cjj
Ŷ = Xβ̂
′ ′
Sabemos que β̂ = (X X)−1 X Y
′ ′
Ŷ = X[(X X)−1 X Y]
′ ′
Ŷ = [X(X X)−1 X ]Y
(8.14)
8.3. VALORES PREDITOS 104
Vamos chamar de matriz chapéu H uma matriz formada apenas pelas variáveis indepen-
dentes que, quando aplicado na matriz de observação Y, têm o poder de gerar os valores
preditos Ŷ.
Ŷ = HY
′ ′
com H = X(X X)−1 X
a matriz chapéu.
Exemplo
′
No exemplo anterior encontramos a matriz (X X)−1 via matriz das variáveis observá-
veis X.
8, 0648 −0, 0826 −0, 0942 −0, 7905
−0, 0826 0, 0085 0, 0017 0, 0037
′
(X X)−1 =
−0, 0942 0, 0017 0, 0166 −0, 0021
−0, 7905 0, 0037 −0, 0021 0, 0886
Sol.
′ ′
Para calcular a matriz chapéu temos que multiplicar as matrizes: H = X(X X)−1 X
1 1, 74 5, 30 10, 80
1 6, 32 5, 42 9, 40
1 6, 22 8, 41 7, 20
1 10, 52 4, 63 8, 50
1 1, 19 11, 60 9, 40
8, 0648 −0, 0826 −0, 0942 −0, 7905
1 1, 22 5, 85 9, 90
−0, 0826 0, 0085 0, 0017 0, 0037
′ ′
H = X(X X)−1 X = 1 4, 10 6, 62 8, 00 ∗
−0, 0942 0, 0017 0, 0166 −0, 0021
1 6, 32 8, 72 9, 10
−0, 7905 0, 0037 −0, 0021 0, 0886
1 4, 08 4, 42 8, 70
1 4, 15 7, 60 9, 20
1 10, 15 4, 83 9, 40
1 1, 72 3, 12 7, 60
1 1, 70 5, 30 8, 20
1 1 1 1 1 1 1 1 1 1 1 1 1
1, 74 6, 32 6, 22 10, 52 1, 19 1, 22 4, 10 6, 32 4, 02 4, 15 10, 15 1, 72 1, 70
∗ =
5, 30 5, 42 8, 41 4, 63 11, 60 5, 85 6, 62 8, 72 4, 42 7, 60 4, 83 3, 12 5, 30
10, 80 9, 40 7, 20 8, 50 9, 40 9, 90 8, 00 9, 10 8, 70 9, 20 9, 40 7, 60 8, 20
0.46603 0.15131 −0.27883 −0.05233 0.0898 0.316032 −0.0645 0.0190 0.1049 0.1039 0.095174 0.00359 0.04583
0.15131
0.14323 −0.01623 0.16815 −0.0130 0.087247 0.0176 0.0852 0.0833 0.0716 0.209164 0.00360 0.00860
−0.27883 −0.01623 0.42964 0.13089 0.1817 −0.129805 0.2138 0.1646 0.0195 0.0788 0.002853 0.10030 0.10241
−0.05233 0.16815 0.13089 0.38234 −0.1718 −0.078474 0.0565 0.1154 0.0868 0.0331 0.354873 0.00817 −0.03381
0.08984
−0.01304 0.18177 −0.17184 0.5801 0.123212 0.0917 0.2485 −0.0708 0.1979 −0.128523 −0.16017 0.03122
0.31603
0.08724 −0.12980 −0.07847 0.1232 0.249659 0.0145 0.0132 0.1039 0.0932 −0.000949 0.09667 0.11140
Ĥ = −0.06457 0.01768 0.21383 0.05657 0.0917 0.014557 0.1524 0.0629 0.0823 0.0622 −0.011771 0.17795 0.14401
0.01906 0.08522 0.16469 0.11545 0.2485 0.013209 0.0629 0.2203 −0.0169 0.1314 0.135838 −0.14286 −0.03701
0.10491
0.08337 0.01957 0.08686 −0.0708 0.103970 0.0823 −0.0169 0.1425 0.0345 0.071236 0.21769 0.14069
0.10393
0.07167 0.07887 0.03313 0.1979 0.093260 0.0622 0.1314 0.0345 0.1114 0.059177 −0.01833 0.04060
0.09517
0.20916 0.00285 0.35487 −0.1285 −0.000949 −0.0117 0.1358 0.0712 0.0591 0.397517 −0.09559 −0.08900
0.00359 0.00360 0.10030 0.00817 −0.1601 0.096674 0.1779 −0.1428 0.2176 −0.0183 −0.095592 0.49929 0.30967
0.04583 0.00867 0.10241 −0.03381 0.0312 0.111403 0.1440 −0.0370 0.1406 0.0406 −0.089000 0.30967 0.22535
Para encontrar os valores preditos temos que operar a matriz chapéu H na variável resp-
sota, ou seja:
Ŷ = HY
0.46603 0.15131 −0.27883 −0.05233 0.0898 0.316032 −0.0645 0.0190 0.1049 0.1039 0.095174 0.00359 0.04583
0.15131
0.14323 −0.01623 0.16815 −0.0130 0.087247 0.0176 0.0852 0.0833 0.0716 0.209164 0.00360 0.00860
−0.27883 −0.01623 0.42964 0.13089 0.1817 −0.129805 0.2138 0.1646 0.0195 0.0788 0.002853 0.10030 0.10241
−0.05233 0.16815 0.13089 0.38234 −0.1718 −0.078474 0.0565 0.1154 0.0868 0.0331 0.354873 0.00817 −0.0338
0.08984
−0.01304 0.18177 −0.17184 0.5801 0.123212 0.0917 0.2485 −0.0708 0.1979 −0.128523 −0.16017 0.03122
0.31603
0.08724 −0.12980 −0.07847 0.1232 0.249659 0.0145 0.0132 0.1039 0.0932 −0.000949 0.09667 0.11140
HY = −0.06457 0.01768 0.21383 0.05657 0.0917 0.014557 0.1524 0.0629 0.0823 0.0622 −0.011771 0.17795 0.14401
0.01906 0.08522 0.16469 0.11545 0.2485 0.013209 0.0629 0.2203 −0.0169 0.1314 0.135838 −0.14286 −0.0370
0.10491
0.08337 0.01957 0.08686 −0.0708 0.103970 0.0823 −0.0169 0.1425 0.0345 0.071236 0.21769 0.14069
0.10393
0.07167 0.07887 0.03313 0.1979 0.093260 0.0622 0.1314 0.0345 0.1114 0.059177 −0.01833 0.04060
0.09517
0.20916 0.00285 0.35487 −0.1285 −0.000949 −0.0117 0.1358 0.0712 0.0591 0.397517 −0.09559 −0.0890
0.00359 0.00360 0.10030 0.00817 −0.1601 0.096674 0.1779 −0.1428 0.2176 −0.0183 −0.095592 0.49929 0.30967
0.04583 0.00867 0.10241 −0.03381 0.0312 0.111403 0.1440 −0.0370 0.1406 0.0406 −0.089000 0.30967 0.22535
25, 5 27.35141
31, 2 32.26232
25, 9 27.34955
38, 4
38.30958
18, 4
15.54473
26, 7
26.10807
∗ 26, 4 = 28.25316 = Ŷ
25, 9 26.22185
32, 0
32.08818
25, 2
26.06764
39, 7
37.25236
35, 7 32.48792
26, 5 28.20324
Por fim encontramos os valores preditos.
Usando o Software R podemos encontrar tanto a matriz chapéu como os valores predi-
tos.
Exemplo
Utilizando a regressora encontrada para estes dados
e = Y − Ŷ
e ∼ N (0, σ 2 )
e = Y − Ŷ
e = Y − HY
e = (I − H)Y
e = MY
Em relação a variância dos resíduos σ 2 , temos que estimar por meio da soma dos quadrados
dos resíduos
SQE SQRES
σˆ2 = ou σˆ2 =
n−p n−p
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 107
sendo k variáveis com n observações e a soma dos quadrados dos resíduos dado por:
n
X
SQE = SQres = (Yi − Ŷi )2
i=1
n
′
X
= e2i = e e
i=1
′
= (Y − Xβ̂) (Y − Xβ̂)
′ ′ ′ ′ ′
= Y Y − 2β̂ X Y + β̂ X Xβ̂
como
′ ′ ′ ′ −1 ′
X Xβ̂ = X X(X X) X Y = X Y
′ ′ ′ ′ ′
= Y Y − 2β̂ X Y + β̂ X Y
′ ′ ′
= Y Y − β̂ X Y
Finalmente,
′ ′ ′
SQE Y Y − β̂ X Y
QMres = σˆ2 = =
n−p n−p
O termo n
X
2 (Yi − Ŷ)(Ŷ − Ȳ) = 0
i=1
é nulo.
Dessa forma,
P a soma dos quadrados totias pode ser interpretada como a soma dos qua-
drados de ni (Yi − Ŷ)2 e ni (Ŷ − Ȳ)2 . Chamamos de
P
• SQE = ni (Yi − Ŷ)2 a soma dos quadrados dos erros (ou desvio não explicado)
P
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 108
• SQreg = (Ŷ − Ȳ)2 a soma dos quadrados da regressora (ou o desvio explicado)
Pn
i
i=1
n
Pn
′ ( i=1 Yi )2
= YY−
n
Vamos chamar de coeficiente corretor de
( ni=1 Yi )2
P
C=
n
e, por final encontramos a SQT
′
SQT = Y Y − C
A soma total SQT é igual a soma dos quadrados dos resítuos SQE mais a soma dos
quadrados da REGRESSORA. Para encontrar a última, vamos tirar a diferença,
Exemplo
Solução: Para montar a tabela de analise variacional temos que encontrar todos os qua-
drados
( n 2
P
′
i=1 Yi )
′
• Regressora: SQreg = β̂ X Y − n
′ ′ ′
• Erro: SQE = Y Y − β̂ X Y
( n 2
P
′
i=1 Yi )
• Total:SQT = Y Y − n
( n 2
P
′ ′
i=1 Yi )
sob os cáclulos de β = (X X)−1 X Y e C = n
;
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 111
1 0, 10 1, 69
1 0, 15
5, 65
1 0, 20 5
X= Y=
1 0, 25 8
1 0, 30 9, 25
1 0, 35 11
′ −1 1.323810 −5.142857
C = (X X) =
−0, 0017 0, 0037
Pn
( i=1 Yi ) 2 (1, 69 + 5, 65 + 5 + 8 + 9, 25 + 11)2
C= = = 274, 5914
n 6
1, 69
5, 65
1 1 1 1 1 1 5, 00 40.5900
′
XY= =
0, 1 0, 15 0, 2 0, 25 0, 3 0, 35 8, 00 10.6415
9, 25
11, 00
′ ′ −1 ′ 1.323810 −5.142857 40.5900 −0.9942857
β = CX Y = (X X) X Y = =
−0, 0017 0, 0037 10.6415 34.4857143
0, 1
0, 15
0, 2
′
Y Y = 0, 1 0, 15 0, 2 0, 25 0, 3 0, 35 = 330.3411
0, 25
0, 3
0, 35
( n 2
P
′
i=1 Yi )
′
• Regressora: SQreg = β̂ X Y − n
′ ′ −0.9942857 40.5900
β XY−C = − 274.5914 = 52, 03032
34.4857143 10.6415
′ ′ ′
• Erro: SQE = Y Y − β̂ X Y
′ ′ ′ −0.9942857 40.5900
Y Y − β X Y = 330.3411 − = 3, 719429
34.4857143 10.6415
( n 2
P
′
i=1 Yi )
• Total:SQT = Y Y − n
′
Y Y − C = 330, 3411 − 274, 5914 = 55, 7497
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 112
Vamos verificar a soma dos quadrados. A tabela seguinte mostra-nos os valores da variável
dependente Y , o valor da média Ȳ e os valores preditos pela regressora Ŷ . Em seguida
podemos obsrevar pela definição de desvio que a soma dos desvios deverão ser nulas
d = 0 independente da fonte. Observe que a soma dos quadrados SQ pode ser verificada
P
pela soma SQT = SQreg +SQE. De fato, SQT = SQreg +SQE → 55.74975 = 52.03032+
3.719429
Y Ŷ Ȳ
1.69 2.454286 6.765
5.65 4.178571 6.765
5.00 5.902857 6.765
8.00 7.627143 6.765
9.25 9.351429 6.765
11.00 11.075714 6.765
Exemplo
Solução:
′ ′
SQreg
2 β̂ X Y − C 52, 03032
R = = ′ = = 0, 9332903 ≈ 93, 33%
SQT YY−C 58, 813
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 114
Finalmente:
(N − 1)SQE
Ra2 = 1 −
(N − p)SQT
H0 : βj = 0
H1 : βj ̸= 0
βˆj − βj
tn−p ∼ q
σˆ2 Cjj
q
com erro padrão d.p. dado por: σˆ2 Cjj
Verifique que a variância estimada por
′ ′ ′
SQE SQT − SQreg Y Y − β̂ X Y
M SE = σˆ2 = = =
n−p n−p n−p
′ ′
lembrando que β̂ = (X X)−1 X Y
Antes de tudo, vamos separar todos os elementos de cálculo:
′ −1 1, 323810 −5, 142857 C11 C12
C = (X X) = =
−0, 0017 0, 0037 C21 C22
′ ′ ′
Y Y − β̂ X Y 3, 719429
M SE = σˆ2 = = = 0, 9298572
N −p 4
′ ′ −1 ′ −0.9942857 β1
β = CX Y = (X X) X Y = =
34.4857143 β2
βˆ1 − β1 −0.9942857 − 0
tn−p ∼ q =√ = −0.8961009
ˆ2 0, 9298572 · 1, 323810
σ C11
com erro padrão
q
d.p. = σˆ2 Cjj = 0, 9298572 · 1, 323810 = 1.109485
p
Através do valor P-Value observamos que o coeficiene linear é não significativo aceitando
a hipótese nula em que H0 : β1 = 0, mas o coeficiente angular β1 é bem significativo para
α = 5%, ou seja, além de rejeitar a hipótese de nulidade do valor H0 : β1 = 0, verificamos
que P − V alue < 5%. O modelo porposto será
ŷ = 34, 4857x
8.5.3 Regressoras
Podemos gerar os valores preditos Ŷ pela aplicação da matriz chapéu Ĥ nas variáveis
observáveis.
Ŷ = HY
′ ′
com H = X(X X)−1 X
a matriz chapéu.
8.5. ANÁLISE DE VARIÂNCIA ANOVA (PARA A REGRESSORA) 116
1 0, 10
1 0, 15
1 1 1 1 1 1 1, 323810 −5, 142857 1 0, 20
′ ′
Ĥ = X(X X)−1 X =
0, 1 0, 15 0, 2 0, 25 0, 3 0, 35 −0, 0017 0, 0037 1 0, 25
1 0, 30
1 0, 35
0.52380952 0.38095238 0.2380952 0.0952381 −0.04761905 −0.19047619
0.38095238 0.29523810 0.2095238 0.1238095 0.03809524 −0.04761905
0.23809524 0.20952381 0.1809524 0.1523810 0.12380952 0.09523810
Ĥ =
0.09523810 0.12380952 0.1523810 0.1809524 0.20952381 0.23809524
−0.04761905 0.03809524 0.1238095 0.2095238 0.29523810 0.38095238
−0.19047619 −0.04761905 0.0952381 0.2380952 0.38095238 0.52380952
2, 454286
4, 178571
5, 902857
ĤY = = Ŷ
7, 627143
9, 351429
11, 075714
Uma outra forma mais prática é verificar o gráfico Normal qq-plot que visualiza as
relações entre ons quantis da distribuição normal e dos resíduos.
• Homocedasticidade: É a verificação MAIS IMPORTANTE PARA A VALIDAÇÃO
DA REGRESSORA. O método gráfico é simplesmente verificar a dispersão dos
resíduos tal que nenhuma outra regressora seja ajustável.
• Independência dos resíduos: basicamente temos que garantir que cov(ei , ei ) = 0 na
condução experimental.
Exemplo
Suponha o seguinte conjunto de dados:
1 2.611906
2 8.661405
3 18.707360
4 31.319768
5 49.463700
X=
Y 72.224351
6
7 99.920688
8 127.601447
9 160.889314
10 198.857687
Y = β0 + β1 x
Observe que a dispersão dos resíduos não é aleatória mas segue uma tendência quadrática,
o que leva-nos a propor um modelo linear quadrático da forma:
y = β0 + β1 x + β2 x2
Para tanto: TODOS os passos vistos até aqui deverão ser recalculado para este polinô-
mio.
• ANOVA: verificação da regressora
8.6. VERIFICAÇÃO DOS PRESSUPOSTOS DOS RESÍDUOS 121
Observe que ssignificativo foi somente o termo quadrático β2 . Portanto, vamos verificar
os pressupostos dos resíduos.
Finalmente podemos propor a regressora y = 0, 29224 + 0, 13358x + 1, 97400x2 . Mas ob-
serve um problema: Devemos ou não incluir os coeficientes β0 e β1 não significativos dada
pelo teste t-Student? A resposta seria encontrar um selecionador de modelos. Existem
muitos e aqui vamos usar o critério de Akaike.
8.6. VERIFICAÇÃO DOS PRESSUPOSTOS DOS RESÍDUOS 122
Exemplo
No exemplo anterior ficamos na dúvida se deveríamos incluir no modelo quadrático os
coeficientes não significativos β0 e β1 . Existem três modelos popostos:
8.7. INTERVALOS DE PREDIÇÃO 124
• modelo1: y = β0 + β1 x
• modelo2: y = β0 + β1 x + β2 x2
• modelo3: y = β2 x2
Qual o melhor modelo?
Para tanto vamos selecionar o melhor modelo pelo critério AIC. Usando o Software R,
encontramos:
DF AIC
Modelo 1 3 87.67532
Modelo 2 4 31.62696
Modelo 3 3 29.74505
Exemplo
Para o primeiro exemplo da vazão do fluído em função da variação da pressão, encontre
o melhor modelo de ajuste.
H0 : βj = 0
H1 : βj ̸= 0
βˆj − βj
tn−p ∼ q
σˆ2 Cjj
q
com erro padrão d.p. dado por: σˆ2 Cjj .
Portanto, como o coeficiente pode variar a depender do experimento podemos incluir um
intervalo de confiança I.C.
Exemplo
Com a tabela t-Student forneça os intervalos de confiança para os coeficientes β0 e β1 .
Solução:
• I.C. para β0
q q
βˆ0 − tn−p, α2 σˆ2 C00 < β0 < βˆ0 + tn−p, α2 σˆ2 C00
−0, 9943 − 1, 1095 · (−0, 896) > β0 > −0, 9943 + 1, 1095 · (−0, 896)
I.C.β0 − 1, 988412 < β0 < −0, 000188
• I.C. para β1
q q
β1 − tn−p, 2 σ C11 < β1 < β1 + tn−p, 2 σˆ2 C11
ˆ α ˆ2 ˆ α
34, 4857 − 4, 6102 · 7, 480 < β0 < 34, 4857 + 4, 6102 · 7, 480
Observe que o coeficiente angular β1 varia muito com 34, 4857 − 4, 6102 · 7, 480 < β0 <
34, 4857 + 4, 6102 · 7, 480, isso implica em encontrarmos um intervalo de predição porque
a reta regressora apresenta uma oscilação.
8.7. INTERVALOS DE PREDIÇÃO 126
Para um ponto sob todas as variáveis em específico x0 = (1, x01 , x02 , ...., x0k ), podemos
calcular a oscilação em torno desse ponto.
Seja a regressora
Ŷ = X̂β̂
Precisamos lembrar do valor esperado e a variância da regressora. O valor esperado é a
própria regresosra Ŷ e a variância foi dada por:
′
V AR(Ŷ) = σˆ2 x Cx
′
com (C = x x)−1
O valor intervalar para um ponto em específico x0 = (1, x01 , x02 , ...., x0k ) será
media Ŷ0
′
varaiancia V AR(Ŷ0 ) = σˆ2 x0 Cx0
Para um intervalo de confiança
é o intervalo de predição.
8.7. INTERVALOS DE PREDIÇÃO 127
Resíduo Estilo
Resíduos standardized di = √MeiSE
Resíduos studentized ei
di = √M SE(1−h
ii )
com ei = yi − ŷi
Os resíduos são obtidos por e = MY sabendo que M = I−H e Y = Xβ +ϵ. Então:
e = MY
e = (I − H)Y
e = (I − H)(Xβ + ϵ)
e = IXβ − HXβ + (I − H)ϵ
′ ′
e = Xβ − (X(X X)−1 X )Xβ + (I − H)ϵ
′ ′
e = Xβ − X(X X)−1 (X X)β + (I − H)ϵ
e = Xβ − Xβ + (I − H)ϵ
e = (I − H)ϵ
(8.17)
finalmente
e = (I − H)ϵ
A característica do erro é
ϵ ∼ N (0, σ 2 )
. Qual a média e a variância de e? O valor esperado do erro será
e a variância
e ∼ N (0, (I − H)σ 2 )
Exemplo
Faça a análise dos resíduos para o gráfico abaixo:
β̂j − β̂j(i)
DF Betaj,i = q
2
S(i) Cj+1,j+1
Exemplo
A tabela seguinte da saída de um software mostra-nos diagnósicos de uma regressão.
Interprete-as.
y = β0 + β1 x + β2 x2 + ...βp xp
desde que suponha a normalidade. A diferença aqui é pressupor uma função de ligação
chamada de componente sistemática
′
g(µi ) = xi β
Observe que estamos partindo a resposta não de Yi , mas de uma função f (Yi ) e isto tem
que ficar claro.
8.9. CONCEITOS FUNDAMENTAIS EM ANÁLISE GENERALIZADA 131
Definição
Seja Y1 , Y2 ,...Yn variáveis aleatórias independentes com densidade de probabilidade
dada por
f (y; θi , ϕ) = exp{ϕ[yθi − b(θi )]} + c(y, ϕ)
com
E(Yi ) = µi = d[b(θ
dθ
i )]
Exemplo
Encontre os termos da família exponencial para a distribuição normal de probabilidade.
µ2 y2
2 1 1 2
f (x|µ, σ ) = exp 2 yµ − + − ln(2πσ ) − 2
σ 2 2 2σ
ϕ = σ12
y=y
θ=µ
2
2 d[ µ2 ]
b(θi ) = µ2 → E(Yi ) = d[b(θ i )]
dθ
= dµ
=µ
2
1 y
c(y, ϕ) = − 2 ln(2πσ 2 ) − 2σ2
µ = β0 + β1 x1 + β2 x2 + ...βp xp
Exemplo
Encontre os termos da família exponencial para a distribuição binomial de probabili-
dade.
ϕ=1
y=y
π
θ = ln 1−π
b(θi ) = −N ln(1 − π)
c(y, ϕ) = ln Ny
para
π
θ = ln = g(µi )
1−π
é uma função não-linear conhecida omo modelo logit (ou logístico)
′
µ = xi β
π
logit(π) = ln = β0 + β1 x1 + β2 x2 + ...βp xp
1−π
Capítulo 9
134
9.2. GRÁFICOS DE CONTROLE 135
devido aos pequenos ruídos ou processos naturais e ii) Causas Especiais de Variação,
aqui nos referimos ao processo sistemático, à condução da produção, não sendo de fonte
aleatória, mas sim determinada por algum caso técnico, humano ou experimental ou de
calibração. Se o processo ocorre excusivamente sob causas comuns de variação, dizemos
que a produção ocorre sob condição normal de operação, caso contrário, será dito não
estável e fora de controle, pois altera significativamente a tendência média, ocasionar o
aumento variacaional.
9.1.1 Controle
Uma pergunta pertinente: o que é controle? Quando todas a especificações a priori estão
satisfeitas dentro de um limite de tolerância e de confiança, dizemos que algum processo
está sob controle. Suponha testar a hipótese nula em que o processo está controlado.
Como vimos nos testes de hipóteses dois tipos de erros podemos encontrar: i) erro tipo I:
dado que o processo está sob controle, concluirmos que não está e, ii) erro tipo II: dado
que o processo não está sob controle, concluirmos que o mesmo está controlado.
√
com A = 3/ n.
Em muitas situações reais não conhecemos o valor da variância populacional σ 2 . Existem
duas possibilidades:
i Substituir a variância populacional σ 2 pela variância populacional e um
fator de correção, c2 .
A quantidade c2 é definida por
r
2 Γ( n2 )
c2 =
n Γ( n2 − 21 )
cujo valor para cada tamanho n amostral obtemos:
n 2 3 4 5 6 7 8
c2 0.564 0.723 0.797 0.840 0.868 0.888 0.902
n 9 10 11 12 13 15 20
c2 0.913 0.922 0.929 0.935 0.940 0.949 0.961
1 r e q u i r e ( "rQCC" ) # Pacote
2 n = 25
3 c o n s t a n t e s<−matrix ( r e p (NA, 2 ∗n ) , nc =2)
4 colnames ( c o n s t a n t e s )<−c ( "n" , " c2 " )
5 for ( i in 2: n){
6 constantes [ i ,1]= i
7 c o n s t a n t e s [ i , 2 ] = f a c t o r s . c c ( n=i , f a c t o r=" c2 " )
8 }
9 c o n s t a n t e s<−data . frame ( na . omit ( c o n s t a n t e s ) )
10 constantes
n 2 3 4 5 6 7 8 9 10 11 12
A1 3.759 2.393 1.879 1.595 1.409 1.276 1.174 1.094 1.028 0.972 0.925
1 r e q u i r e ( "rQCC" ) # Pacote
2 n = 25
3 c o n s t a n t e s<−matrix ( r e p (NA, 2 ∗n ) , nc =2)
4 colnames ( c o n s t a n t e s )<−c ( "n" , "A2" )
5 for ( i in 2: n){
6 constantes [ i ,1]= i
7 c o n s t a n t e s [ i , 2 ] = f a c t o r s . c c ( n=i , f a c t o r="A2" )
8 }
9 c o n s t a n t e s<−data . frame ( na . omit ( c o n s t a n t e s ) )
10 constantes
R̄ ∼ σ̂
De fato,
R̄ = d2 σ̂
Ou seja,
R̄
σ̂ =
d2
Substituindo nos limites temos
¯ − 3√
LCI = X̄
R̄
d2 n
¯ + 3√
LCS = X̄
R̄
d2 n
A quantidade d2 pode ser calculada com base no tamanho da amostra, o seu valor
é calculado através da seguinte integral
ˆ ∞
d2 = 2 [(1 − Φ(x)n ) − (1 − Φ(x))n ]dx
0
n 2 3 4 5 6 7 8 9 10 11 12
d2 1.128 1.692 2.058 2.325 2.534 2.704 2.847 2.970 3.077 3.172 3.258
9.2. GRÁFICOS DE CONTROLE 138
3
A2 = √
d2 n
resultando na seguinte tabela:
n 2 3 4 5 6 7 8 9 10 11 12
A2 1.880 1.023 0.729 0.577 0.483 0.419 0.373 0.337 0.308 0.285 0.266
¯ − A · R̄
LCI = X̄ 2
¯
LCS = X̄ + A2 · R̄
9.2. GRÁFICOS DE CONTROLE 139
Exemplo
Suponha dados referentes a 40 amostras de tamanho n = 5 referentes aos diâmetros
internos dos anéis de pistão automotivo, todos manufaturado em uma linha de pro-
dução. Do total de 200 observações, são considerados as primeiras 25 amostras "em
controle"para a fase I (TRUE) e as demais amostras na fase II (FALSE). Encontre os
limites inferior LCL (LCI) e superior UCL (LCS). Faça o graáfico de controle para a
média.
Capítulo 10
Introdução à amostragem
140
10.2. TIPOS DE AMOSTRAGEM 141
√ X̄ − E(X̄))
n· p → N (0, 1)
V ar(X̄)
X̄ − E(X̄)
Z= √
σ/ X̄
Ou seja,
I.C. = x̄ − E < µ < x̄ + E
com Erro definido por √
E = zα/2 σ/ n
E2
D= 2
zα/2
Exemplo
Qual o tamanho amostral necessário para estimar a contagem média de células
brancas no sangue (em células por microlitro) para a população de adultos?
Suponha que desejemos 99% de confiança em que a média amostral esteja a até
0.2 da média populacional. O desvio-padrão populacional é de 2.5 unidades.
10.2. TIPOS DE AMOSTRAGEM 143
(zα/2 ≈ 2.575a )
z
α/2 σ
2
n=
E
2
2.575 · 2.5
n= ≈ 1036 unidades amostrais
0.2
a
> qnorm(0.005)
N σ 2 (zα/2 )2
n=
(N − 1)E 2 + σ 2 (zzα/2 )2
Observe a exigência do conhecimento do tamanho populacional N.
• Amostragem para a média com variância desconhecida
Quando não conhecemos ou não temos acesso ao desvio padrão populacional recor-
remos a quantidade pivotal da distribuição t-Student:
X̄ − E(X̄)
T = p
S/ var(X̄)
Ou seja,
I.C. = x̄ − E < µ < x̄ + E
com Erro definido √
E = tα,ν S/ n
Exemplo
A internet está nos afetando a todos de maneiras diferentes, de modo que há
razões para estimar a proporção de joves e adultos que a usam. Dados da Pnad
(Pesquisa Nacional por Amostra de Domicílios), divulgados pelo IBGE (Instituto
Brasileiro de Geografia e Estatística) divulgou que a região Norte do Brasil, no
ano de 2013, apresentou o maior porcentual de domicílios que usaram o celular
para acessar a internet (75, 4%). Visando verificar a dependência digital pelo
celular, um grupo de psicólogos deseja calcular o tamanho da amostra com nível
de significância α = 5% com erro E não superior a três pontos pecentuais.
Calcule o tamanho amostral supondo: a) conhecido os resultados do Pnad e b)
que não temos nenhuma informação prévia sobre a proporção populacional.
Sol.
com variância
nN −K N −n
V ar(x) =
k N N −1
Na amostragem sem reposição a variância para a média dependerá da fração amostral
f = Nn ,
S2 S2 S2
V ar(x̄) = (1 − f ) = n =
n (1−f )
nf
Definimos a quantidade de razão fixa pela quantidade
n S2 S2
D = 1− = (1 − f )
N n n
′ S2
Definindo n = D
encontraremos o tamanho da amostra por fator de correção
′ z
n ′ α/2·S
2
n= ′ , com n =
1+ n E
N
Exemplo
Considere uma população de material hospitalar fora de padrão oriundas de um for-
necedor. Uma pesquisa amostral foi conduzida para verificar o índice de incidência
de material fora do padrão. A unidade pode conter até 8 tipos de defeitos diferentes.
Uma amostra AAS sem reposição foi solicitada de 1423 unidades de um total de 36 mil
unidades em um período de três meses. Calcule o tamanho amostral mais adequado
sem reposição com erro admissível máximo de 5%. Faça o que se pede.
′
3) Calcule o tamanho amostral versão com reposição n
√ !2
zα/2 S 2
′ 1.96 · 2.049074
n = = = 3.148, 69unidades
E 0.05
• Total populacional TP = H ¯
P
i=1 Nh YH
• Média populacional H ¯
P
i=1 Wh YH
• Total do estrato Tn = H
P
i=1 Yhi
PH
Yhi
• Média do estrato Y¯h = i=1
Nh
PH ¯
i=1 (Yhi −Yhi )
• Variância do estrato Shi = Nh −1
H
X
C = c0 + ch nh
h=1
• Variância fixa !
H H
1 X √ X Wh σh
n= Wh σh ch √
Vest i=1 i=1
ch
Exemplo
Calcule o tamanho amostral n e nos estratos nh para custo fixo com aporte inicial de
c0 = R$3.200, 00. Abaixo segue a tabela dos estratos com as suas respecetivas médias,
desvios e custos.
Sol.
Primeiramente vamos calcular o tamanho geral da amostra n
PH √
i=1 Nh σh / ch 105.3662
n = (C − c0 ) PH √ = (13400 − 3200) 281.3836 = 3819.465 ≈ 3819amostras
i=1 Nh σh ch
O tamanho amostral é 3819 amostras que deverá ser subdividida nos estratos
√ √ √
W h s h / ch
h Nh xvar Sh ch ch Wh W h s h / ch p̂ = PH √ nn = n · p̂
i=1 Wh sh / ch
1 28 7,2 1,18 2,2 13483240 0,224 22,27556 0,21141099 807, 47 ≈ 807
2 30 6,9 2,01 2,8 1,673320 0,240 36,03614 0,34200870 1306, 29 ≈ 1306
3 20 7,0 1,19 2,5 1,581139 0.160 15,052244 0,14285841 545, 64 ≈ 546
4 15 7,2 1,20 3,0 1,732051 0,120 10,39230 0,09863039 376, 75 ≈ 377
5 32 7,7 1,15 2,9 1,702939 0,256 21,60970 0,205809151 783 ≈ 783
10.3. AMOSTRAGEM ESTRATIFICADA 148
√
Wh σh / ch
n h = PH √
i=1 Wh σh / ch
Capítulo 11
Números Índices
149
11.1. NÚMEROS ÍNDICES SIMPLES 150
Exemplo
São produzidos borrachas para vedação em painéis solares. O preço sugerido no ano
base de 2010 foi de R$485, 80 por metro. Atualmente, no ano de 2022, devido à inflação
e ao aumento do barril de petróleo, o preço sugerido foi de R$602, 00. Encontre o índice
simples de preço com ano-base 2010.
Sol.
O índice de preço simples Ip = 123, 91% indica que houve crescimento no preço do produto
em 23, 91% do valor.
11.1.1 Propriedades
Os números índices apresentam algumas propriedades matemáticas que podem auxiliar
nos cálculos dos mesmos.
• Identidade
pn/n = 1
• Reversibilidade temporal
pa/b = 1/pb/a
• Propriedade cíclica
pa/b pb/c pc/d pd/e · · · py/z = 1
Exemplo
Prove a propriedade reversibilidade temporal
Sol.
̸ pa ̸ pb
pa/b · pb/a → · =1 (11.2)
̸ pb ̸ pa
11.2. ÍNDICES PODERADOS 151
• Índice ideal de Fisher: refere-se à média geométrica dos números índices de Las-
peyers e Paashe sP P
F isher pn q0 p n qn
Ip = P P
p0 q0 p 0 qn
• Índice de Marshall-Edgeworth
P
pn (q0 + qn )
IpM arshall−Edgeworth = P
p0 (q0 + qn )
11.2. ÍNDICES PODERADOS 152
Exemplo
Suponha os seguintes dados abaixo sobre o consumo e o preço de alguns pordutos da
cesta básica no Brasil.
Sol.
3 Índice de Marshall-Edgeworth
P
pn (q0 + qn )
IpM arshall−Edgeworth = P
p (q + qn )
P 0 0
p2022 (q2019 + q2022 )
= P
p2019 (q2019 + q2022 )
[30, 74 · (17 + 14, 3)] + [11, 07 · (34 + 32)] + [8, 82 · (25 + 20)]
= 115, 08%
[34, 02 · (17 + 14, 3)] + [8, 76 · (34 + 32)] + [3, 84 · (25 + 20)]