Escolar Documentos
Profissional Documentos
Cultura Documentos
Introdução
Este modelo pode ser utilizado para "escrever" valor esperado de uma variável
(resposta) como uma função dos valores das outras variáveis (explicativas).
Esta regressão é chamada linear simples pelo fato da relação entre a variável
resposta e às variáveis explicativas ser uma função linear dos parâmetros (veja
Figura 1).
Baseado nos pressupostos que:
𝐸 (𝜖 ) = 0;
𝑉𝑎𝑟 (𝜖 ) = 𝜎 2 ;
tem-se que:
𝐸 (𝑌 |𝑋 ) = 𝛽0 + 𝛽1 𝑋;
𝑉𝑎𝑟(𝑌 |𝑋) = 𝜎 2 .
E(Y/X) = X
X1
X2
X3
X
𝑌𝑖 |𝑋𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝜖𝑖 , 𝑖 = 1, ⋯ , 𝑛.
𝜖𝑖 = 𝑌𝑖 − (𝛽0 + 𝛽1 𝑋𝑖 );
𝑆𝑄𝐸 = ∑ 𝜖𝑖 2 = ∑[𝑌𝑖 − 𝛽0 − 𝛽1 𝑋𝑖 ]2 .
𝑖=1 𝑖=1
𝑛
𝜕𝑆𝑄𝐸
= −2 ∑[𝑌𝑖 − 𝛽0 − 𝛽1 𝑋𝑖 ]𝑋𝑖 .
𝜕𝛽1
𝑖=1
̂0 e 𝛽
Logo, 𝛽 ̂1 são tais que:
𝑛
̂0 − 𝛽
∑[𝑌𝑖 − 𝛽 ̂1 𝑋𝑖 ] = 0
𝑖=1
𝑛
̂0 − 𝛽
∑[𝑌𝑖 − 𝛽 ̂1 𝑋𝑖 ]𝑋𝑖 = 0.
𝑖=1
Por consequência:
𝑛
̂0 − 𝛽
∑[𝑌𝑖 − 𝛽 ̂1 𝑋𝑖 ] = 0
𝑖=1
𝑛 𝑛 𝑛
̂0 − ∑ 𝛽
⟹ ∑ 𝑌𝑖 − ∑ 𝛽 ̂1 𝑋𝑖 = 0
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
̂0 − 𝛽
⟹ ∑ 𝑌𝑖 − 𝑛𝛽 ̂1 ∑ 𝑋𝑖 = 0
𝑖=1 𝑖=1
𝑛 𝑛
̂0 = − ∑ 𝑌𝑖 + 𝛽
⟹ −𝑛𝛽 ̂1 ∑ 𝑋𝑖
𝑖=1 𝑖=1
̂0 = 𝑌̅ − 𝛽
⟹𝛽 ̂1 𝑋̅ ;
∑𝑛
𝑖=1 𝑌𝑖 ∑ 𝑛
𝑋𝑖
onde 𝑌̅ = e 𝑋̅ = 𝑖=1 ,e
𝑛 𝑛
𝑛
̂0 − 𝛽
∑[𝑌𝑖 − 𝛽 ̂1 𝑋𝑖 ]𝑋𝑖 = 0
𝑖=1
𝑛 𝑛 𝑛
̂0 𝑋𝑖 − ∑ 𝛽
⟹ ∑ 𝑌𝑖 𝑋𝑖 − ∑ 𝛽 ̂1 𝑋𝑖2 = 0
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
̂0 ∑ 𝑋𝑖 − 𝛽
⟹ ∑ 𝑌𝑖 𝑋𝑖 − 𝛽 ̂1 ∑ 𝑋𝑖2 = 0
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
̂1 𝑋̅ ) ∑ 𝑋𝑖 − 𝛽
⟹ ∑ 𝑌𝑖 𝑋𝑖 − (𝑌̅ − 𝛽 ̂1 ∑ 𝑋𝑖2 = 0
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
̂1 𝑋̅)𝑛𝑋̅ − 𝛽
⟹ ∑ 𝑌𝑖 𝑋𝑖 − (𝑌̅ − 𝛽 ̂1 ∑ 𝑋𝑖2 = 0
𝑖=1 𝑖=1
𝑛 𝑛
̂1 𝑋̅ − 𝛽
⟹ ∑ 𝑌𝑖 𝑋𝑖 − 𝑛𝑋̅𝑌̅ + 𝑛𝑋̅ 𝛽 ̂1 ∑ 𝑋𝑖2 = 0
𝑖=1 𝑖=1
𝑛 𝑛
̂1 𝑋 +
⟹ −𝑛𝛽 ̅2 ̂1 ∑ 𝑋𝑖2
𝛽 = − ∑ 𝑌𝑖 𝑋𝑖 + 𝑛𝑋̅ 𝑌̅
𝑖=1 𝑖=1
𝑛 𝑛
⟹ ̂1 (∑ 𝑋𝑖2
−𝛽 − 𝑛𝑋̅ 2 ) = − ∑ 𝑌𝑖 𝑋𝑖 + 𝑛𝑋̅ 𝑌̅
𝑖=1 𝑖=1
𝑛 𝑛
̂1 (∑ 𝑋𝑖2 − 𝑛𝑋̅ 2 ) = ∑ 𝑌𝑖 𝑋𝑖 − 𝑛𝑋̅𝑌̅
⟹𝛽
𝑖=1 𝑖=1
∑𝑛𝑖=1 𝑌𝑖 𝑋𝑖 − 𝑛𝑋̅𝑌̅
̂1 =
⟹𝛽 ;
∑𝑛𝑖=1 𝑋𝑖2 − 𝑛𝑋̅ 2
∑𝑛𝑖=1 𝑌𝑖 (𝑋𝑖 − 𝑋̅ )
̂1 =
𝑜𝑢 𝛽 .
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )2
̂0 = 𝑌̅ − 𝛽
𝛽 ̂1 𝑋̅;
∑𝑛𝑖=1 𝑌𝑖 𝑋𝑖 − 𝑛𝑋̅ 𝑌̅
̂1 =
𝛽 .
∑𝑛𝑖=1 𝑋𝑖2 − 𝑛𝑋̅ 2
𝑌𝑖 |𝑋𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝜖𝑖 , 𝑖 = 1, ⋯ , 𝑛.
𝜖𝑖 ~𝑁(0, 𝜎 2 ).
𝑌𝑖 |𝑋𝑖 ~𝑁(𝛽0 + 𝛽1 𝑋𝑖 , 𝜎 2 ).
onde Θ = {−∞ < 𝛽0 < +∞; −∞ < 𝛽1 < +∞; 𝜎 2 > 0}.
Logo:
𝑛
𝑛 1 2
𝑙(𝜽; 𝒀) = 𝑙𝑛𝐿(𝜽; 𝒀) = −𝑛𝑙𝑛√2𝜋 − 𝑙𝑛𝜎 2 − 2 ∑(𝑌𝑖 − (𝛽0 + 𝛽1 𝑋𝑖 )) .
2 2𝜎
𝑖=1
𝑛
𝜕𝑙(𝜽; 𝒀) 2
= 2 ∑[𝑌𝑖 − 𝛽0 − 𝛽1 𝑋𝑖 ]𝑋𝑖 .
𝜕𝛽1 2𝜎
𝑖=1
̂0 = 𝑌̅ − 𝛽
𝛽 ̂1 𝑋̅;
∑𝑛𝑖=1 𝑌𝑖 𝑋𝑖 − 𝑛𝑋̅ 𝑌̅
̂1 =
𝛽 .
∑𝑛𝑖=1 𝑋𝑖2 − 𝑛𝑋̅ 2
Logo:
𝑛
̂2 = 1 ∑ (𝑌𝑖 − (𝛽
2
𝜎 ̂0 + 𝛽
̂1 𝑋𝑖 )) (𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑣𝑖𝑐𝑖𝑎𝑑𝑜 𝑝𝑎𝑟𝑎 𝜎 2 ).
𝑛
𝑖=1
𝐸̂ ̂0 + 𝛽
(𝑌 |𝑋 ) = 𝛽 ̂1 𝑋
ou
̂0 + 𝛽
̂𝑖 = 𝛽
𝑌 ̂1 𝑋𝑖
̂0 + 𝛽
̂𝑖 = 𝑌𝑖 − (𝛽
𝑒𝑖 = 𝜖̂𝑖 = 𝑌𝑖 − 𝑌 ̂1 𝑋𝑖 ), 𝑖 = 1, ⋯ , 𝑛.
(𝑋𝑖 − 𝑋̅)
𝐶𝑖 =
𝑆𝑋𝑋
𝑛 𝑛
𝑆𝑋𝑌
⇒ 𝛽̂1 =
𝑆𝑋𝑋
𝑛
⇒ 𝛽̂1 = ∑ 𝐶𝑖 𝑌𝑖
𝑖=1
̂1 é:
O valor esperado para o estimador 𝛽
𝑛 𝑛 𝑛
𝑆
̂1 ] = 𝐸 [ 𝑋𝑌 ] = 𝐸 [∑ 𝐶𝑖 𝑌𝑖 ] = ∑ 𝐶𝑖 𝐸 [𝑌𝑖 ] = ∑ 𝐶𝑖 (𝛽0 + 𝛽1 𝑋𝑖 )
𝐸[𝛽
𝑆𝑋𝑋
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
̂1 ] = 𝛽0 ∑ 𝐶𝑖 + 𝛽1 ∑ 𝐶𝑖 𝑋𝑖 ;
⟹ 𝐸[𝛽
𝑖=1 𝑖=1
e
𝑛 𝑛 𝑛
(𝑋𝑖 − 𝑋̅ )𝑋𝑖 1 𝑆𝑋𝑋
∑ 𝐶𝑖 𝑋𝑖 = ∑ = (∑ 𝑋𝑖 2 − 𝑛𝑋̅ 2 ) = =1
𝑆𝑋𝑋 𝑆𝑋𝑋 𝑆𝑋𝑋
𝑖=1 𝑖=1 𝑖=1
portanto:
𝑛 𝑛
̂1 ] = 𝛽0 ∑ 𝐶𝑖 + 𝛽1 ∑ 𝐶𝑖 𝑋𝑖 = 𝛽0 × 0 + 𝛽1 × 1
𝐸[𝛽
𝑖=1 𝑖=1
̂0 é:
O valor esperado para o estimador 𝛽
𝑛
1
̂0 ] = 𝐸[𝑌̅ − 𝛽
𝐸[𝛽 ̂1 𝑋̅ ] = 𝐸 [𝑌̅] − 𝐸[𝛽
̂1 ]𝑋̅ = 𝐸 [𝑌̅] − 𝛽1 𝑋̅ = 𝐸 [∑ 𝑌𝑖 ] − 𝛽1 𝑋̅
𝑛
𝑖=1
𝑛 𝑛
1 1
= ∑ 𝐸 [𝑌𝑖 ] − 𝛽1 𝑋̅ = ∑(𝛽0 + 𝛽1 𝑋𝑖 ) − 𝛽1 𝑋̅
𝑛 𝑛
𝑖=1 𝑖=1
𝑛 𝑛 𝑛
1 𝑛 1
= (∑ 𝛽0 + ∑ 𝛽1 𝑋𝑖 ) − 𝛽1 𝑋̅ = 𝛽0 + 𝛽1 ∑ 𝑋𝑖 − 𝛽1 𝑋̅
𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1
= 𝛽0 + 𝛽1 𝑋̅ − 𝛽1 𝑋̅
̂1 é:
A variância para o estimador 𝛽
𝑛 𝑛
𝑆
̂1 ] = 𝑉𝑎𝑟 [ 𝑋𝑌 ] = 𝑉𝑎𝑟 [∑ 𝐶𝑖 𝑌𝑖 ] = ∑ 𝐶𝑖2 𝑉𝑎𝑟[𝑌𝑖 ]
𝑉𝑎𝑟[𝛽
𝑆𝑋𝑋
𝑖=1 𝑖=1
𝑛 𝑛
(𝑋𝑖 − 𝑋̅ )2 2 𝜎2 𝜎 2 𝑆𝑋𝑋
̂
⟹ 𝑉𝑎𝑟[𝛽1 ] = ∑ ̅ 2
𝜎 = 2 ∑(𝑋𝑖 − 𝑋) = 2
2
𝑆𝑋𝑋 𝑆𝑋𝑋 𝑆𝑋𝑋
𝑖=1 𝑖=1
𝜎2
̂1 ] =
⟹ 𝑉𝑎𝑟[𝛽 .
𝑆𝑋𝑋
̂0 é:
A variância para o estimador 𝛽
𝜎2 𝜎2
̂0 ] = 𝑉𝑎𝑟[𝑌̅ − 𝛽
𝑉𝑎𝑟[𝛽 ̂1 𝑋̅ ] = 𝑉𝑎𝑟[𝑌̅] + 𝑋̅ 2 𝑉𝑎𝑟[𝛽
̂1 ] − 2𝑋 ̂1 ) =
⏟̅𝐶𝑜𝑣(𝑌̅ ; 𝛽 + 𝑋̅ 2
𝑛 𝑆𝑋𝑋
=0
1 𝑋̅ 2
̂0 ] = 𝜎 2 ( +
⟹ 𝑉𝑎𝑟[𝛽 ).
𝑛 𝑆𝑋𝑋
̂1 é
Tem-se que a Esperança de 𝛽
̂1 ] = 𝛽1 ;
𝐸[𝛽
̂1 é
e a Variância de 𝛽
𝜎2
̂1 ] =
𝑉𝑎𝑟[𝛽 ;
𝑆𝑋𝑋
̂1 é
por consequência, o Desvio Padrão de 𝛽
1⁄2
𝜎2
̂1 ) = [
𝐷𝑃(𝛽 ] .
𝑆𝑋𝑋
𝐻 : 𝛽 = 𝑏1
{ 0 1
𝐻1 : 𝛽1 ≠ 𝑏1
e a Estatística de Teste é
𝛽̂1 − 𝑏1
𝑡𝑜𝑏𝑠 = ~ 𝑡𝑛−2 sob 𝐻0 .
𝐷𝑃𝐸 (𝛽̂1 )
̂0 é
Tem-se que a Esperança de 𝛽
̂0 ] = 𝛽0 ;
𝐸[𝛽
̂0 é
e a Variância de 𝛽
1 𝑋̅ 2
̂ ] 2
𝑉𝑎𝑟[𝛽0 = 𝜎 ( + );
𝑛 𝑆𝑋𝑋
̂0 é
por consequência, o Desvio Padrão de 𝛽
1⁄2
1 𝑋̅ 2
̂ 2
𝐷𝑃(𝛽0 ) = [𝜎 ( + )] .
𝑛 𝑆𝑋𝑋
onde
𝑛
1 2
𝑆2 = ̂0 + 𝛽
∑ (𝑌𝑖 − (𝛽 ̂1 𝑋𝑖 )) .
𝑛−2
𝑖=1
Assim, pode-se obter o Intervalo de Confiança, dado por
𝐻0 : 𝛽0 = 𝑏0
{
𝐻1 : 𝛽0 ≠ 𝑏0
e a Estatística de Teste é
̂0 − 𝑏0
𝛽
𝑡𝑜𝑏𝑠 = ~ 𝑡𝑛−2 sob 𝐻0 .
𝐸𝑃(𝛽̂0 )
Não será demonstrados estes resultados, mas são fundamentais para uma
melhor compreensão dos “algebrismos” utilizados ao longo dos estudos de
Análise de Regressão:
a. ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ ) = 0;
b. ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)(𝑋𝑖 − 𝑋̅) = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)𝑋𝑖 ;
c. ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )(𝑌𝑖 − 𝑌̅) = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ )𝑌𝑖 ;
d. ∑𝑛𝑖=1 𝑒𝑖 = 0;
e. ∑𝑛𝑖=1 𝑋𝑖 𝑒𝑖 = 0;
f. ∑𝑛𝑖=1 𝑌̂𝑖 𝑒𝑖 = 0;
𝑌̂
g. Seja 𝑌̅̂𝑖 = ∑𝑛𝑖=1 𝑛𝑖 , então , 𝑌̅̂ = 𝑌̅;
2
(𝑌𝑖 − 𝑌̅ )2 = [(𝑌̂𝑖 − 𝑌̅) + (𝑌𝑖 − 𝑌̂𝑖 )]
2 2
(𝑌𝑖 − 𝑌̅)2 = (𝑌̂𝑖 − 𝑌̅ ) + (𝑌𝑖 − 𝑌̂𝑖 ) + 2(𝑌̂𝑖 − 𝑌̅ )(𝑌𝑖 − 𝑌̂𝑖 )
𝑛 𝑛 𝑛 𝑛
2 2
∑(𝑌𝑖 − 𝑌 ̅ )2 = ∑(𝑌̂𝑖 − 𝑌̅) + ∑(𝑌𝑖 − 𝑌̂𝑖 ) + 2 ∑(𝑌̂𝑖 − 𝑌̅)(𝑌𝑖 − 𝑌̂𝑖 ).
𝑖=1 𝑖=1 𝑖=1 ⏟
𝑖=1
=0
Veja que
𝑛 𝑛 𝑛 𝑛 𝑛
Então
𝑛 𝑛 𝑛
2 2
∑(𝑌𝑖 − 𝑌̅)2 = ∑(𝑌̂𝑖 − 𝑌̅) + ∑(𝑌𝑖 − 𝑌̂𝑖 ) ;
𝑖=1 𝑖=1 𝑖=1
onde
𝑆𝑜𝑚𝑎 𝑑𝑒 𝑄𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠
𝑄𝑢𝑎𝑑𝑟𝑎𝑑𝑜 𝑀é𝑑𝑖𝑜 = .
𝐺𝐿
𝑄𝑀𝑅
~𝜒12 ;
𝜎2
(𝑛 − 2)𝑄𝑀𝑅𝐸𝑆 (𝑛 − 2)𝑠 2 2
= ~𝜒𝑛−2 ;
𝜎2 𝜎2
e sob a suposição que são independentes tem-se que a razão tem distribuição
𝐹 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟 com 1 e 𝑛 − 2 graus de liberdade, ou seja:
𝑄𝑀𝑅
𝐹𝑜𝑏𝑠 = ~ 𝐹1; 𝑛−2 sob 𝐻0 .
𝑄𝑀𝑅𝐸𝑆
Tem-se que
𝑆𝑄𝑅 𝑆𝑄𝑅𝐸𝑆
𝑅2 = =1−
𝑆𝑄𝑇 𝑆𝑄𝑇
𝑋𝑖 𝑌𝑖 𝑌̂𝑖 𝑌𝑖 − 𝑌̂𝑖
𝑌̂ = 13,623005 − 0,079829𝑋
Figura 3: Gráfico de Dispersão das Variáveis X e Y e a reta estimada
Tabela ANOVA
FV GL SQ QM
Total 24 63,8158
Estatística R
45,5924
𝑅2 = = 0,7144
63,8158
Teste F
45,5924
𝐹= = 57,54 > 𝐹(0,95;1,23) = 4,28 → rejeita − se 𝐻0 : 𝛽1 = 0
0,7923
Inferência sobre 𝛽1
𝐼𝐶𝛽95%
1
= [−0,0798 ± 2,069 × 0,0105] = [−0,1015; −0,0581]
Não normalidade;
Efeitos do tempo ou da ordem de coleta dos dados;
Variância não-constante e possível necessidade de transformar Y;
Curvatura de ordem maior do que a escolhida para X.
Modelo da amostra
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝜖𝑖 , 𝑖 = 1, … , 𝑛
𝑌1 = 𝛽0 + 𝛽1 𝑋1 + 𝜖1
𝑌2 = 𝛽0 + 𝛽1 𝑋2 + 𝜖2
𝑌𝑛 = 𝛽0 + 𝛽1 𝑋𝑛 + 𝜖𝑛
𝑌1 𝛽0 𝛽1 𝑋1 𝜖1
𝑌 𝛽 𝛽𝑋 𝜖2
( 2 ) = ( 0) + ( 1 2 ) + ( ⋮ )
⋮ ⋮ ⋮
𝑌𝑛 𝛽0 𝛽1 𝑋𝑛 𝜖𝑛
𝑌1 1 𝑋1 𝜖1
𝑌 𝑋 𝜖2
( 2 ) = (1) 𝛽0 + ( 2 ) 𝛽1 + ( ⋮ )
⋮ ⋮ ⋮
𝑌𝑛 1 𝑋𝑛 𝜖𝑛
𝑌1 1 𝑋1 𝜖1
𝑌 𝑋2 𝛽 𝜖2
( 2 ) = (1 ) × ( 0) + ( ⋮ )
⋮ ⋮ ⋮ 𝛽1
𝑌𝑛 1 𝑋𝑛 𝜖𝑛
𝐘 = 𝐗𝛃 + 𝛜
𝛜 = 𝐘 − 𝐗𝛃
= 𝐘 ′ 𝐘 − 2𝛃′ 𝐗 ′ 𝐘 + 𝛃′𝐗′𝐗𝛃
𝛿𝑆 𝛿𝑆
= −2𝐗 ′ 𝐘 + 2𝐗 ′ 𝐗𝛃 → =0 ⇒ ̂ = 𝐗′𝐘
𝐗 ′ 𝐗𝛃
𝛿𝛃 𝛿𝛃
Equações Normais
̂ = ( 𝐗 ′ 𝐘)
(𝐗′𝐗)𝛃
̂ = (𝐗′𝐗)−𝟏 (𝐗 ′ 𝐘)
(𝐗′𝐗)−𝟏 (𝐗′𝐗)𝛃
̂ = (𝐗′𝐗)−𝟏 (𝐗 ′ 𝐘)
𝛃
𝑎 𝑏 ]−1 1 [ 𝑑 −𝑏]
𝑀−1 = [ = , onde 𝐷 = 𝑑𝑒𝑡(𝑀)
𝑐 𝑑 𝐷 −𝑐 𝑎
Assim:
1 𝑋1
1 1 𝑛 ∑ 𝑋𝑖
⋯ 1 1 𝑋2
𝐗′𝐗 = [ ⋯ 𝑋𝑛 ] [ ⋮ ]=[ ],
𝑋1 𝑋2 ⋮ 2
∑ 𝑋𝑖 ∑ 𝑋𝑖
1 𝑋𝑛
2
𝑑𝑒𝑡(𝐗 ′ 𝐗) = 𝑛 ∑ 𝑋𝑖 2 − (∑ 𝑋𝑖 ) = 𝑛 ∑(𝑋𝑖 − 𝑋̅ )2
1 ∑ 𝑋𝑖 2 − ∑ 𝑋𝑖
(𝐗 ′ 𝐗)−1 = [ ]
𝑛 ∑(𝑋𝑖 − 𝑋̅)2 − ∑ 𝑋 𝑛
𝑖
E, ainda,
𝑌1
1 1 ∑ 𝑌𝑖
⋯ 1 𝑌2
𝐗′𝐘 = [ ⋯ 𝑋𝑛 ] [ ⋮ ] = [ ]
𝑋1 𝑋2
∑ 𝑋𝑖 𝑌𝑖
𝑌𝑛
Portanto:
1 ∑ 𝑋𝑖 2 − ∑ 𝑋𝑖 ∑ 𝑌𝑖
̂ = (𝐗 ′ 𝐗)−1 𝐗 ′ 𝐘 =
𝛃 [ ][ ]
𝑛 ∑(𝑋𝑖 − 𝑋̅ )2 − ∑ 𝑋 𝑛 ∑ 𝑋𝑖 𝑌𝑖
𝑖
𝑛
2
̂ ′ 𝐗 ′ 𝐘 − 𝑛𝑌̅ 2
𝑆𝑄𝑅 = ∑(𝑌̂𝑖 − 𝑌̅) = 𝛃
𝑖=1
𝑛
2
̂ ′𝐗 ′ 𝐘
𝑆𝑄𝐸 = ∑(𝑌𝑖 − 𝑌̂𝑖 ) = 𝑆𝑄𝑇 − 𝑆𝑄𝑅 = 𝐘 ′ 𝐘 − 𝛃
𝑖=1
Regressão 1 ̂ ′ 𝐗 ′ 𝐘 − 𝑛𝑌̅ 2
𝛃
Residual 𝑛−2 ̂ ′𝐗 ′ 𝐘
𝐘 ′𝐘 − 𝛃
2.10.3. ̂
Variância e Covariância de 𝛃
𝜎 2 ∑ 𝑋𝑖2
𝑉𝑎𝑟[𝛽̂0 ] =
𝑛 ∑(𝑋𝑖 − 𝑋̅ )2
𝜎2
𝑉𝑎𝑟[𝛽̂1 ] =
∑(𝑋𝑖 − 𝑋̅)2
𝜎 2 𝑋̅
𝐶𝑜𝑣[𝛽̂0 , 𝛽̂1 ] = −
∑(𝑋𝑖 − 𝑋̅ )2
= 𝜎 2 (𝐗′𝐗)−𝟏 𝐈 = 𝜎 2 (𝐗′𝐗)−𝟏
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑞 𝑋𝑞 + 𝜖
ou seja,
𝛽0
𝑌1 1 𝑋11 𝑋12 ⋯ 𝑋1𝑞 𝜖1
𝛽1
𝑌 𝑋22 ⋯ 𝑋2𝑞 𝜖2
( 2 ) = (1 𝑋21 ) 𝛽2 + ( ⋮ )
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ 𝜖𝑛
𝑌𝑛 1 𝑋𝑛1 𝑋𝑛2 ⋯ 𝑋𝑛𝑞
𝛽
( 𝑞)
𝐘 = 𝐗𝛃 + 𝛜
𝛜~𝑁(𝟎, 𝜎 2 𝐈)
𝜖1 0 1 0 ⋯ 0
𝜖2
𝛜 = ( ⋮ ), 𝟎 = (0), 𝜎 𝐈 = 𝜎 (0
2 2 1 ⋯ 0)
⋮ ⋮ ⋮ ⋱ ⋮
𝜖𝑛 0 0 0 ⋯ 1
𝛽0
𝑌1 1 𝑋11 𝑋12 ⋯ 𝑋1𝑞
𝛽1
𝑌 𝑋22 ⋯ 𝑋2𝑞
𝐘 = ( 2) e 𝐗𝛃 = (1 𝑋21 ) 𝛽2
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
𝑌𝑛 1 𝑋𝑛1 𝑋𝑛2 ⋯ 𝑋𝑛𝑞
𝛽
( 𝑞)
Esta estimação, como no modelo para uma variável explicativa, visa encontrar
valores de 𝛃 que minimizem a soma dos quadrados dos erros, ou seja, valores
que minimizem:
𝑛
𝜖1
𝜖
𝑆 = ∑ 𝜖𝑖 2 = (𝜖1 𝜖2 ⋯ 𝜖𝑛 ) ( 2 ) = 𝛜′𝛜
⋮
𝑖=1 𝜖𝑛
𝛜 = 𝐘 − 𝐗𝛃
= 𝐘 ′ 𝐘 − 2𝛃′ 𝐗 ′ 𝐘 + 𝛃′𝐗′𝐗𝛃
𝛿𝑆 𝛿𝑆
= −2𝐗 ′ 𝐘 + 2𝐗 ′ 𝐗𝛃 → =0 ⇒ ̂ = 𝐗′𝐘
𝐗 ′ 𝐗𝛃
𝛿𝛃 𝛿𝛃
̂ = ( 𝐗 ′ 𝐘)
(𝐗′𝐗)𝛃
̂ = (𝐗′𝐗)−𝟏 (𝐗 ′ 𝐘)
(𝐗′𝐗)−𝟏 (𝐗′𝐗)𝛃
̂ = (𝐗′𝐗)−𝟏 (𝐗 ′ 𝐘)
𝛃
̂:
3.3.1. O vetor de valores esperados de 𝛃
= (𝐗′𝐗)−𝟏 (𝐗 ′ 𝐗)𝛃 = 𝐈𝛃 = 𝛃
̂:
3.3.2. Matriz de Variâncias e Covariâncias de 𝛃
= 𝜎 2 (𝐗′𝐗)−𝟏 𝐈 = 𝜎 2 (𝐗′𝐗)−𝟏
Valor ajustado: 𝑌̂𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖1 + 𝛽̂2 𝑋𝑖2 + ⋯ + 𝛽̂𝑞 𝑋𝑖𝑞 , 𝑖 = 1, … , 𝑛
Resíduo: 𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖
𝑛
𝑛
2
̂ ′ 𝐗 ′ 𝐘 − 𝑛𝑌̅ 2
𝑆𝑄𝑅 = ∑(𝑌̂𝑖 − 𝑌̅) = 𝛃
𝑖=1
𝑛
2
̂ ′𝐗 ′ 𝐘
𝑆𝑄𝐸 = ∑(𝑌𝑖 − 𝑌̂𝑖 ) = 𝑆𝑄𝑇 − 𝑆𝑄𝑅 = 𝐘 ′ 𝐘 − 𝛃
𝑖=1
𝑆𝑄𝑅
Regressão 𝑞 ̂ ′ 𝐗 ′ 𝐘 − 𝑛𝑌̅ 2
𝛃 𝑄𝑀𝑅 =
𝑞
𝑆𝑄𝐸
Residual 𝑛−𝑞−1 ̂ ′𝐗 ′ 𝐘
𝐘 ′𝐘 − 𝛃 𝑄𝑀𝐸 =
𝑛−𝑞−1
2
𝑆𝑄𝑅 ⁄(𝑛 − 𝑞 − 1) 𝑛−1
𝑅𝑎𝑗𝑑 =1− = 1 − (1 − 𝑅 2 ) ( )
𝑆𝑄𝑇⁄(𝑛 − 1) 𝑛−𝑞−1
𝐻0 : 𝛽1 = 0 𝑒 𝛽2 = 0 𝑒 … 𝑒 𝛽𝑞 = 0
𝐻1 : 𝛽1 ≠ 0 𝑒/𝑜𝑢 𝛽2 ≠ 0 𝑒/𝑜𝑢 … 𝑒 𝛽𝑞 ≠ 0
𝑄𝑀𝑅
𝐹𝑜𝑏𝑠 = ~ 𝐹(𝑞,𝑛−𝑞−1) sob 𝐻0
𝑄𝑀𝐸
𝐻0 : 𝛽𝑗 = 0
𝐻1 : 𝛽𝑗 ≠ 0
𝛽̂𝑗
𝑡𝑗 = ~ 𝑡𝑛−𝑞−1 sob 𝐻0
𝐸𝑃(𝛽̂𝑗 )
̂ ) = 𝑠 2 (𝐗′𝐗)−𝟏
𝑉𝑎𝑟(𝛃