Escolar Documentos
Profissional Documentos
Cultura Documentos
2.1. Introdução
y = f(x).
y = f (x1 , x2 ,..., xk ) .
Muitas leis da Física podem servir como ilustração deste tipo de relações: por
exemplo, a lei de Newton que relaciona a força de um corpo em movimento
com a sua massa e aceleração (F = ma).
Y = f(x) + e,
em que e é também uma variável aleatória com valor médio nulo e uma certa
variância. O modelo determinístico só é verificado em termos de valores
médios:
E[Y|x] = f(x).
NOTA
• Por vezes, não é óbvio qual a quantidade que deve ser escolhida para
variável independente. Em geral, pode-se dizer que a variável
independente deverá ser aquela sobre a qual temos maior controlo ou
maior facilidade de medição.
(x , y )
i i
i=1,2,...,n.
NOTA
• Repare-se que x pode ser uma variável determinística cujos valores são
perfeitamente controlados pelo experimentador mas pode ser também uma
( )
variável aleatória e os valores x1 , x2 ,..., xn correspondem, nesse caso, a
valores observados dessa variável aleatória. Contudo, os valores de xi
serão, em ambos os casos, tratados como constantes.
Neste capítulo vamos apenas considerar o caso mais simples em que a função
é uma recta. Estamos, assim, perante um modelo de regressão linear em
que as variáveis Yi's são tais que
Yi = a + bxi + ε i ,
(i) E(ε i ) = 0 ;
(iii) E(ε i ε j ) = 0, se i ≠ j .
bom ponto de partida para outros modelos mais complexos. Por outro lado,
pode ser adaptado à resolução de certos casos em que a função que
relaciona as duas variáveis não é linear. Por exemplo, se a função que
relaciona as observações de Y e de x for do tipo:
bx
Yi = ae i ε i ,
Yi = a + bxi2 + ε i ,
Y = b0 + b1 x1 + ... + bk xk + ε
Yi = a + bxi + ε i ,
dj
di
∑ (y ).
n 2
SQ = SQ(a,b) = i
− a − bxi
i=1
⎧ ∂ SQ n
⎪ = −2∑ (yi − a − bxi ) = 0
⎪ ∂a i=1
⎨
⎪ ∂ SQ n
= −2∑ (yi − a − bxi )xi = 0
⎪ ∂b
⎩ i=1
1 n 1 n
Escrevendo x = ∑ x
n i=1 i
e y = ∑ y , este sistema é equivalente a:
n i=1 i
⎧ ny − na − bx = 0
⎪ n
⎨ n
⎪∑ i iy x − nax − b ∑ xi2 = 0
⎩ i=1 i=1
A solução é, pois,
⎧ â = y − b̂x
⎪
⎪ n
⎪
⎨
∑ yi (xi − x)
⎪ b̂ = n
i=1
⎪
⎪⎩
∑ (xi − x)2
i=1
Pela análise da matriz das segundas derivadas podemos ver que se trata
mesmo de um mínimo já que a matriz Hessiana de SQ é dada por
⎡ 2n 2nx ⎤
⎢ ⎥
J= ⎢ n ⎥,
⎢ 2nx 2∑ xi2 ⎥
⎢⎣ i=1 ⎥⎦
⎛ n ⎞
( )
n 2
det(J) = 4n ⎜ ∑ xi2 − nx 2 ⎟ = 4n∑ xi − x > 0.
⎝ i=1 ⎠ i=1
∑ (y )( )
n
i
− y xi − x Sxy
b̂ = i=1
= ,
∑ (x )
n 2 Sx2
i
−x
i=1
em que
Sxy =
1 n
(
∑ x − x yi − y
n i=1 i
)( )
e
1 n
( )
2
Sx2 = ∑
n i=1
xi − x .
NOTAS
Sxy Sy
b̂ = = ρ̂ xy .
Sx2 Sx
ei = yi − ŷi = yi − â − b̂xi ,
Regressão Linear Simples 7
_
1 N 2
σ̂ 2 = ∑e
n i=1 i
Acontece, porém, que este estimador não é centrado, ou seja, E[σ̂ 2 ] ≠ σ 2 . Por
isso, o estimador mais utilizado para σ2 é
1 N 2
S2 = ∑e .
n − 2 i=1 i
A prova deste facto será feita mais adiante, no contexto da regressão múltipla.
Mas, para já, podemos avançar que a razão de dividir a soma dos quadrados
dos resíduos por n-2 em vez de n tem a ver com o facto de se terem
estimado dois parâmetros para obter as estimativas dos erros.
n
SQe = ∑e 2
i
.
i=1
Var(Yi ) = σ 2 ,
Regressão Linear Simples 8
_
()
N
1
E b̂ = N ∑ E(Y )(x i i
− x) =
∑ (x i
− x) 2 i=1
i=1
N N
a b
= N ∑ (x i
− x) + N ∑ x (x
i i
− x) ,
∑ (x i
− x) 2 i=1
∑ (x i
− x) 2 i=1
i=1 i=1
=b
bem como
()
n
1
Var b̂ = 2 ∑ Var(Y )(x i i
− x)2
⎡ n ⎤ i=1
⎢ ∑ (xi − x) ⎥
2
⎣ i=1 ⎦
σ2
= n .
∑ (xi − x) 2
i=1
( )
n n
1
Cov Y , b̂ = N ∑ ∑ Cov(Y ,Y (x j i i
− x))
n∑ (xi − x) 2 j =1 i=1
i=1
n
1
= n ∑ (x i
− x)Var(Yi ) = 0 ,
n∑ (xi − x) 2 i=1
i=1
()
Var â = Var(Y ) + x 2Var b̂ − 2Cov Y , xb̂ () ( )
⎛ ⎞
⎜1 x 2 ⎟
= σ2 ⎜ + ⎟
⎜n n
2⎟
⎜⎝ ∑ (xi − x) ⎟⎠
i=1
e
( ) (
Cov â, b̂ = Cov Y − b̂x, b̂ = −xVar b̂ ) ()
σ x 2
=− n
.
∑ (x i
− x) 2
i=1
Regressão Linear Simples 9
_
⎡1 x2 x ⎤
⎢ + n − n ⎥
⎢ n ∑ (x − x)2 ∑ (xi − x)2 ⎥
2 ⎢ ⎥
i
σ ⎢ i=1 i=1
⎥.
x 1
⎢ − n n ⎥
⎢ ⎥
⎢⎣ ∑ (xi − x)2 ∑ (xi − x)2 ⎥⎦
i=1 i=1
NOTA
O teorema que se segue constitui a base a partir da qual será feita toda a
inferência estatística no modelo de regressão linear simples.
Teorema 2.1. Sejam Y1, Y2, ..., Yn variáveis aleatórias que seguem um
modelo linear, isto é,
Yi = a + bxi + ε i , i = 1,2,...,n
b) A variável
Regressão Linear Simples 10
_
(n − 2)S 2 SQe
=
σ 2
σ2
â − a
∩ N(0,1)
()
σ â
em que
1/2
⎛ ⎞
()
n
σ â = σ ⎜1 n + x 2
⎝
∑ (xi − x) ⎟⎠ 2
i=1
â − a
()
σ â
=
â − â
(n − 2)S 2 1 x2
S +
σ 2 (n − 2) n n
∑ (x i
− x)2
i=1
O mesmo tipo de raciocínio pode também ser utilizado para determinar testes
de hipóteses no parâmetro a. Por exemplo, se pretendermos um teste:
H0 : a = 0 vs. H1 : a ≠ 0 ,
â 1−α /2
> t(n−2)
()
σ̂ â
Regressão Linear Simples 11
_
Inferência no declive
n
b̂ − b
∑ (x i
− x)2
S
∩ t(n−2) ,
i=1
Esta variável aleatória pode também ser utilizada para testar a hipótese
H0 : b = 0 vs. H1 : b ≠ 0 ,
n b̂
∑ (x i
− x)2
S
1− α /2
> t n−2
i =1
H 0: b = 0
Y i = a + ε i, i=1,2,...,n.
Y* = a + bx* + e*?
ˆ = â + b̂x *.
Y*
Regressão Linear Simples 12
_
( )
E Yˆ * = a + bx *
e, para a variância,
( ) ()
Var Yˆ * = Var â + Var b̂ + 2 cov â, b̂ () ( )
σ 2
σ x
2 2
σ x *2
2
2x * xσ 2
= + + −
n n n n
∑ (x i
− x)2 ∑ (x i
− x)2 ∑ (x i
− x)2
i =1 i =1 i =1
⎡ ⎤
⎢ 2 ⎥
1 (x * −x) ⎥
= σ2 ⎢ + n .
⎢n ⎥
⎢ ∑ (xi − x) ⎥
2
⎣ i =1 ⎦
Yˆ * −E Yˆ * ( )
1 (x * −x)2
S +
n n
∑ (x i
− x)2
i =1
tem distribuição t com n-2 graus de liberdade e pode ser utilizada para
construir um intervalo de confiança ao nível 1-α para E(Y*) cuja forma será
⎛ ⎞
⎜ 2 2 ⎟
⎜ Yˆ * −t 1− α /2 S 1 + (x * −x) ; Yˆ * +t 1− α /2 S 1 + (x * −x) ⎟ .
⎜ n−2
n n n−2
n n ⎟
⎜
⎝
∑ (xi − x)2 ∑ (xi − x)2 ⎟
⎠
i =1 i =1
Y* = a + bx * +ε *
Regressão Linear Simples 13
_
( ) (
ˆ = a − â + b − b̂ x * +ε * .
Y * −Y* )
O seu valor médio é nulo, isto é,
( )
E Y * −Yˆ * = 0,
como seria de esperar em qualquer boa predição. Quanto à sua variância, que
é também o seu erro quadrático médio, é dada por
( ⎡
) ( )
2⎤
Var Y * −Yˆ * = E ⎢ Y * −Yˆ * ⎥
⎣ ⎦
() () ( )
= Var â + Var b̂ x *2 +2x * Cov â, b̂ + var ε * ( )
⎛ ⎞
⎜ 1 2 ⎟
(x * −x) ⎟
= σ 2 ⎜1 + + n .
⎜ n 2⎟
⎜
⎝
∑ (xi − x) ⎟⎠
i =1
Y * −Yˆ *
,
1 (x * −x)2
S 1+ + n
n
∑ (xi − x)2
i =1
⎛ ⎞
⎜ 2 2 ⎟
⎜ Yˆ * −t 1− α /2 S 1 + 1 + (x * −x) ; Yˆ * +t 1− α /2 S 1 + 1 + (x * −x) ⎟ .
⎜ n−2
n n n−2
n n ⎟
⎜
⎝
∑ (xi − x)2 ∑ (xi − x)2 ⎟
⎠
i =1 i =1
ei = yi − ŷi
= yi − â − b̂xi
Regressão Linear Simples 14
_
1 n 2 SQe
S2 = ∑
n − 2 i =1
ei =
n−2
.
Mas, a partir dos resíduos é possível retirar ainda muito mais informação
sobre o modelo de onde provêm as observações. Através da análise dos
resíduos,
i) ii) iii)
Figura 2.3. Resíduos de: i) Relação quadrática; ii) Variância não constante; iii) Modelo linear.
n
SQTot = ∑ (y i
− y)2 ,
i=1
n n
∑ (y i
− y)2 = ∑ [(y i
− ŷi ) − (ŷi − y)]2
i=1 i=1
n n n
= ∑ (y i
− ŷi )2 + ∑ (ŷi − y)2 + 2∑ (yi − ŷi )(ŷi − y).
i=1 i=1 i=1
n
→ ∑ ei = 0;
i =1
n
→ ∑ ei xi = 0,
i=1
n n n
∑ (y i
− ŷi )(ŷi − y) = ∑ (y i
− ŷi )(â + b̂xi ) − y ∑ (yi − ŷi )
i=1 i=1
n n n
i=1 .
= â∑ ei − b̂∑ ei xi − y ∑ ei xi = 0
i=1 i=1 i=1
Então a soma dos quadrados dos desvios à média dos y's simplifica-se em
n n n
∑ (y i
− y)2 = ∑ (y i
− ŷi )2 + ∑ (ŷi − y)2 ,
i=1 i=1 i=1
ou, abreviadamente,
Assim, se o modelo for bom, SQe deverá ser pequeno em comparação com
SQTot, isto é, a variabilidade da amostra deverá ser consequência do modelo
de regressão e não dos erros aleatórios. Portanto, um bom indicador do
ajustamento do modelo é o coeficiente de determinação múltipla que se define
como
Regressão Linear Simples 16
_
SQRe g SQe
R2 = = 1− .
SQTot SQTot
NOTAS
n n
∑ y = ∑ ŷ
i i
⇒ y = ŷ .
i=1 i=1
Assim, a soma de quadrados devida à regressão, SQReg, pode ser escrita como
∑( )
n 2 n
SQRe g = ŷi − ŷ = b̂2 ∑ (xi − x)2 ,
i=1 i=1
∑ (Y )
n 2 n n
i
−Y ∑e 2
i
b̂2 ∑ (xi − x)2
i=1
= i=1
+ i=1
.
σ2 σ2 σ2
⎛ n ⎞
b̂ ∩ N ⎜ 0,σ
⎜⎝ ∑ i (x − x)2
⎟
⎟⎠
i=1
χ (n−1)
2
= χ (n−2)
2
+ χ (1)
2
.
n
b̂2 ∑ (xi − x)2
F= n
i=1
∩ F1;n−2
∑e 2
i
(n − 2)
i=1
{F > F } ,
1−α
1,n−2
1−α
em que F1,n−2 é o quantil de ordem 1-α da distribuição F com 1 e n-2 graus de
liberdade.
NOTAS
d
2
t(m) = F1,m
e são independentes).
∑ (Y )
n 2
Total SQTot = i
−Y n-1 F: (n-2) SQReg / SQe
i=1