Você está na página 1de 48

Regressão Múltipla – 1ª Parte

Na regressão múltipla Y depende de uma série


de variáveis, ou seja, Y  f  X 2, X 3, , X K 
 

 

ou Yi  1  2 X 2i  3 X 3i   k X ki  ui
Vamos supor uma amostra com n elementos,
sendo que cada Y foi gerado por essa última
i
equação, tal que podemos representa-la como:

Y1  1  2 X 21  3 X31   k1 X k1  u1
Y2  1  2 X 22  3 X 32   k 2 X k 2  u2

Yn  1  2 X 2n  3 X 3n   kn X kn un
Temos um sistema de n equações que podem
ser compactadas numa notação matricial da
forma:



Y1 
 
 Y2 
Y  matriz:   ; Y 




;   vetor :
 
 
 
 
 Yn 



1  

u1 
 
 

2  
 u 

  ;  




; u  vetor : u  


2


;
   
   
 
k
 
 






u 
n

1 X 21


X 31 X 41 X k1 
 
1 X 22

X 32 X 42 X k 2 
X 




.
 
 
 
 
1 X 2n


X 3n X 4n X kn 

Observação: X ij , i = coluna e j = linha.


O modelo na representação matricial é:

YnX1  X nXk kX1  unX1 .


  



1 


 



  

  2
 
 
Agora é necessário determinar   e,
 
 
 
 
 

 

k
 
 
 
consequentemente, poderei escrever

   
Y  X  ou Y  X   u .
Devo, então, procurar um estimador que seja
de mínimos quadrados. Assim, tenho que:
 
u  
1 
 
n 2  
   u 
 
 u  mínimo  u 'u  mínimo   u u .
un 2 
 1 2  
i1 i  
 
 
  


un 

Depois de operar adequadamente, obteremos


o estimador de mínimos quadrados:

 1
  X 'X








X 'Y .
Por enquanto, vamos trabalhar com variáveis
centradas em torno de sua média, isto é:

_
Y  y  Y  Y 



 
 
_
X 2  x2  X 2  X 2 



 
 

 
X k  xk  X k  X k




 
 

Então, até que indicarmos mudança ao


contrário, será feito um tratamento de acordo
com essa notação.

Teremos, então:


y1 
 
 
 y 
Y 


2


e

 
 
 


y nX 1
n  




 
 

x x31 x41 xk1 


 21
 
 
 x22 x32 x42 x 
X 


k2 


, e
 
 
 


x2n x3n x4n x nX k 1

kn 








 
 

  
 

 


2 
 

  

  

o vetor  começará por 2 (?):  





3 

.
 
 
 
 
 

 

k
 
 
 

A matriz de dados transposta será:




x21 x22 x23 x2n 
 
 
 x31 x32 x33 x3n 
X ' 





eo

 
 
 


xk1 xk 2 xk3 xkn k 1 Xn
 
 




 
 
 

X ' X será:
E o produto

  x2  x2 x3  x2 xk 
 2

 

 x x  x 2 
X ' X   2 3 3 


 
 
 

  x2 xk  xk2 nXn



Ao multiplicar matriz X 'X por 1n , obterei na


diagonal principal a variância e, nas demais, a
co-variância.

Quem é X 'Y ?
 yi x2i 


 x21 x22 x23 x2n   y  i
 
  1  

 x31 x32 x33 x 
3n   y2   i 3i 


y x
X 'Y      i
 
    
    
    
 xk1 xk 2 xk 3 xkn   y k 1 X1

n  

 

 yi xki






 
 i 
.
Exercício

Sejam os dados:
Y X2 X3

Y 800  X 2  60  X 3  8000
 y2  3450  x22  30  x32 1580000
 yx2 300  yx3  65000

 x2 x3 5900. n10 .
Resolução

O modelo é
Yn  1  2 X 2n  3 X 3n   kn X kn un ,
então:
  


 2  1
1º)  
   X 'X






X 'Y .

  

 



 
3 
 x22 
 x2 x3   30 5900 
X 'X  


  
 x3 x2 
  x3   5900 1580000 
2  

 
Det  X ' X 

 
 X ' X  30*158000   5900*5900  30070000 .
Matriz de Cofatores da matriz de dados
 
 X 'X :
 
 
 11 12 
  1 158000  1  5900  158000 5900 
Cof  X ' X   


  
 
21 22


  1  5900  1 30 


 5900 30 

.

A inversa de 

X ' X  será:
 
1580000 5900 
 
1 Cof  X ' X   5900 30   0,0052544 0,0001962 
 X ' X   X 'X   
30070000  0,0001962 9,97672 E  6 
.

300 
X 'Y 

Como  , então,
 

 65000 

  


 2  1
 
   X 'X






X 'Y será:

  

 



 
3 
  



  
2 

11,17725 
 
 
  


 
0,005986
 
   



 
3 
 

Podemos, agora, calcular


 _  _  _
1  Y   2 X 2   3 X 3  80   11,17725 *6   0,005986  *800 151,85


Logo: Y 151,85 11,1898 X 2  0,005986 X 3 .

Se olhássemos a regressão simples, digamos,

Y  f  X 2  , teríamos:


 
  x y 300
  x22  10.
 2 30
Pode-se observar que as respostas são
diferentes! A mesma coisa se observa se a
regressão simples fosse Y  f  X 3  , o
 

 
parâmetro
  x y 65000
seria:   3   0,411392 .
 x3 158000
2

A maior novidade é que na regressão múltipla


existe relação entre as variáveis x2 e x3 , além
de que a regressão múltipla não é um
somatório de regressões simples. Vejamos
isso!

Exemplo 1:

Considere os seguintes dados:

Yi  57  X 2  9  X 3 18
n  6  y2 128,5  x22  5,5  x32  22
 x2 x3  9  yx2  25,5  yx3  49
1) Estimativa de Y    X 3  u
  yx 49
  x23   2,227272... 2,23
 3 22
 _ _
 Y   X3  9,5 2,23*3 2,81

Y  2,81 2,23X 3
2) Estimativa de Y  1  2 X 2  3 X 3  u
  

 1

  
2 
   X ' X  X 'Y 
 
 

  




 
3 
 x22

 x2 x3   5,5 9 
X 'X  


  
 x3 x2

  x3   9 22 
2  

1

0,55 0,225 
  X ' X  
 

 
 
0,225 0,1375





  yx2 
   
 25,5 
X 'Y   
 


 
 yx3   49 
  

  3 

Então    


e
1 0.9999..
 

 _  _  _
 1 Y   2 X 2   3 X 3  2

Y  23X 1X
2 3
Resultados:

Regressão múltipla: Y  23X  X
2 3

Regressão simples: Y  2,81 2,23X 3
Observe que a influência de X na regressão
3
simples é dY , mas na regressão múltipla seu
dX 3
efeito pode ser decomposto em dois, a saber:
Y e
X 2
X 3 X 3
Ou seja, um efeito direto e um indireto,
mediante efeito sobre X 2 .
Neste caso, estaremos diferenciando Y em
relação à X 2 , ai teremos uma função

Y  f ( X 2, X 3) e onde X 2  g  X 3  .

Uma coisa é clara, Y não corresponde, pois


X 2
o conceito de derivada parcial requer que X3
permaneça constante quando X 2 varia.
Necessitamos, então, de uma derivada total
que admita uma relação funcional entre X 2 e
X3 . Assim, teremos: (Chiang e Wainwright,
2006, p. 176 e/ou Guidorizzi, 2001, p. 192)

dY  f 2dX 2  f 3dX 3 .
Dividindo-se os dois lados por dX 3 , temos:
dY  f 2 dX 2  f 3 dX 3 , portanto:
dX 3 dX 3 dX 3

dY  Y dX 2  Y dX 3 ou
dX 3 X 2 dX 3 X 3 dX 3

dY  Y dX 2  Y .
dX 3 X 2 dX 3 X 3
Necessitamos, então, estimar X 2    X 3 .
 x x 9
  x2 2 3   0,4090909... 0,41
 3 22
 _ _
  X 2   X 3 1,50,41*3 0,27

X 2  0,27  0,41X 3
Temos, então:

dY  2,23  b  regressão simples


13
dX 3
Y  3  b  regressão múltipla
X 2 12.3
dX 2  0,41  b  regressão simples
23
dX 3
Y 1  b  regressão múltipla
X 3 13.2

Temos:

b13 b13.2  b12.3 *b23


Conclusão: o coeficiente de regressão simples
é igual ao da regressão múltipla somada a
b12.3 *b23 .
Y
b12.3 b13.2
b13

X3 X2
b23

O coeficiente de regressão simples mede a


influência total (efeitos diretos e indiretos) de
uma variável na outra, enquanto que o
coeficiente de regressão múltipla mede apenas
a influência direta (no diferencial uma variável
será mantida constante) de uma variável sobre
a outra.
Se
b13  0  não existe correlação entre X 2 e X 3

Então b13  b13.2 .


Assim, podemos finalizar, concluindo que:

b13 b13.2  b12.3 *b23  2,23 1 3*0,41


Y

Y  2,81  2,23 X 3 *
* *
* *

* * X3

 

u13 X 2  0, 27  0, 41X 3

* *
* * X3

Os pontos em torno da reta



Y  2,81 2,23X 3 representam o que não é

explicado por X 3 , enquanto que u 13 é a
quantidade de Y que X 3 não explica, isto é,
X3 pode variar, mas não vai variar o termo

u 13 .Posso considerar X3 como constante
para esses resíduos.

X2

X 2  0, 27  0, 41X 3 *
* *
* *
X3


u 23

* * *
* * * X3

De forma semelhante, os pontos em torno da



reta X 2  0,27  0,41X representam o
3

quantum de variação de X 2 não explicados

por X 3 . Enquanto que u 23 não sofre influência
de X 3 , ou seja, não é explicado pela referida
variável.
 
Qual a relação de u 13 com u 23 ?
 
u13  b12.3 u 23
Essa reta representa a parte estimada na
relação do resíduo de X 2 e X 3 , o que significa
dizer, é a influência direta de X 2 em Y . O
coeficiente b12.3 é o coeficiente b12.3  3 de
regressão estimada (múltipla). Ou seja,
descontada a influência de X 3 sobre Y , o que
sobra é a influência de X 2 sobre Y .
Nota: a regressão múltipla dá coeficientes já
descontadas as influências indiretas das
variáveis que estão no modelo.

- Coeficiente de determinação
2
2 
Notação: R123
y ,
 y2
Onde

2   
 y   2  yx2   2  yx3    n  yxn

Os  i's são os parâmetros da regressão
múltipla.

2  3*25,5 1,49  0,976  0,98,


R123
128,5
Ou seja, aproximadamente 98% das variações
de Y em torno de sua média são explicados
por X 2 e X 3 .
2 
 y
R12  2 
2
  yx2  4,63*25,5 
y  y2 128,5 , isto é,
118,22  0,9187  0,92
128,5
Ou seja, aproximadamente 92% das variações
de Y em torno de sua média são explicadas
por X 2 .
2  
R132   y2   2 3  2,23*49 109,27  0,8503
yx
y y 128,5 128,5
Ou seja, 85% das variações de Y em torno de
sua média são explicadas por X .
3
2 
 xx
R232   y2   22 3  0,41*9  3,69  0,6709
y  x2 5,5 5,5

Observações:

i) O R123
2 é maior ou igual ao maior R2 das
regressões simples.
ii) Qual a influência de X3 (contribuição) no
sentido de explicar as variações de Y em torno
de sua média?

Devemos recorrer ao coeficiente de


determinação parcial!

2  R2
12  0,98  0,92  0,7 .
R
2  123
R13.2
1 R122 1 0,92
Quer dizer que X3 explica 70% das variações
de Y em torno de sua média, não explicado
por X 2 .

iii) Existem três coeficientes de determinação:

2  0,976 , R2  0,92 e R2  0,849 .


R123 12 13

iv) Se Y  f  x2   R2  0,92 e


Y  f  x2, x3   R2  0,976,
Pergunta-se:

Quanto x3 aumenta a explicação de Y?


0,976-0,92= 0,056 !
Essa é a contribuição em termos absolutos que
x3 trouxe a mais na explicação de Y .
1 - 0,08
Y

X2 0,92

0,843 0,056
X3

X2X3 0,976

Quando se coloca X3 é para explicar 0,08, que


é 1 0,092 . Para se medir a contribuição
efetiva de X 3 deve-se fazer: 0,056  0,7 ,
0,08
Ou seja, explica 70% na parte de Y em torno
de sua média que X não explica.
2
Essa medida é importantíssima, pois vai ser
determinante da decisão de incluí-la ou não na
especificação.

v) Coeficientes de determinações parciais:

R 2  R2 R 2  R2
R  2
123 12 ; R12.3 
2 123 13 .
1 R122
13.2
1 R132
R 2  R2
Generalizando: R14.23
2  1234 2 123
1 R123
Resumo dos Cálculos: (já realizados!)

I) Y 
f  X 3   regressão simples
 
  yx 49
  x23   2,23 e
 3 22
 _ _
 Y   X 9,5 2,23*3 2,81

 Y  2,81 2,23X .
3
II) Y   regressão simples
 
f X




2 
  yx 25,5
  x22   4,64 e
 2 5,5
 _ _
 Y   X 9,5 4,64*1,5 2,54

 Y  2,54 4,64 X
2
III) X  f  X   regressão simples
 

2  3
 x x 9
  x2 2 3   0,41 e
 3 22
 _  _
  X   X 1,50,41*3 0,27
2 3

 X  0,27  0,41X
2 3
O modelo em questão é
Y  1  2 X 2  2 X 3   k X k  u
ou

Y  X  u.
Cabe repetir os mesmos passos dados na
regressão simples. Na amostra obtenho o vetor

 , e deveremos discutir estatisticamente esse
parâmetro, o que se quer dizer com isso?

Ver se é ou não tendencioso, consistente, etc..

Para isso começaremos por estabelecer as


hipóteses básicas.
Hipóteses básicas:

1 – Linearidade: que entre os Y 's


e os X 's
exista a relação
Y  1  2 X 2  3 X 3   k X k  u .

2- E u  0 , i .
   
 u 
 


E u  
  
 1  

 1  

 
0
 
     
 u     
 
0
     
 2   E u 
E      2     
 
   
     
     
     
   

 u 
    0 
 1n  


E un






3 - E  uu '   u2 (matriz de variância e


 
covariância)
u 



1
  u12 u1u2 u1un 
   
u  
  
  u2u1 u22 uu
2 
uu '  2   u u un 
 n
  
 
  1 2 
 
 
   
   2 

un  

unu1 un 
 
Se aplicarmos o operador de esperança na
matriz, obtemos:
 


E  u12  E  uiu j  

 
 E  u22  

E  uu '   


 
 
 
  

E  uiu j  

 
 


E  un2 




 u21 cov  uiu j  

 u22
 
 
 
 
 


cov  uiu j  

 



 u2n 

 u2 é um escalar, então:

1 0 0   u2 0 0 

   

 0 1 0



 0  u2 0


  2
u




 


.
   
   
   

 0 0 1 


 0 0  2
u 

A conseqüência dessa hipótese é a


homoscedasticidade, isto é, variância constante
e não correlacionada.
4- u ~ N  0, 2 
i  

5 -X nXk , conhecido e fixo, com


Rank  X   k ou 


X ' X   0 . Uma
   

implicação disso é que a Cov  X , u   0 .


 

Propriedades:

i) De amostra para amostra, o único que varia é


o Y , já que X é uma constante amostral,

então,  é função linear de Y , conforme fora
na regressão simples.

     

ii) E     , ou seja, E  j   j









(da mesma
   
   
maneira que na regressão simples).

 2  u
iii)   j  a jj , onde a são os elementos
jj
 
1
da diagonal principal da matriz 

X 'X 

.
 

iv) O estimador  é BLUE, isto é, o melhor
estimador linear não tendencioso e de variância
mínima.

2u
Então, o nosso problema passa ser achar 

ao estimarmos o  j , pois:
 
 E( j )    desconhecido

j 2


   2

 j  u  a jj  conhecido





Partição da variação total:


_
i) Variação total de Y em torno de Y  y , na
soma quadrática   y2 .

ii) Variação explicada por X 2, X3, , X k , isto


é,
2   
 y   2  yx2   3  yx3    k  yxk .
iii) Variação dos resíduos quadráticos
2  2
 u   y2   y .
Análise de variância (ANOVA)
Fonte de Soma de Quadrados Graus de Quadrados F
Variação liberdade Médios

Explicada n 2  n k-1=2 n 2 n 2
 yi    xi yi  125,5  yi  yi
i1 i1 i1 i1
k 1 F  k 1
n  k  3 n 2 1, n2  n 2

Residual n 2 n 2 n 2  

 u i   y   iy  3,0  ui
 
 ui
i1 i1 i1 i1 i1
nk nk
Total n 2 n-1=5 = F 2, 3  62,75
 yi  128,5
i1

Y  f  X ,X   Y  2  3X 2 1X 3
 2 3
Teste “F”

H0 :  j  0
H1:  j  0,  j  2.

RA RR
Ho Ho

9,55

Como o FCal  FCrit , então, para um nível de


significância de 5% e 3 graus de liberdade,
rejeita-se a hipótese nula e, portanto, conclui-
se que, pelo menos uma das variáveis X 2 e ou
X3 exercem influência significativa sobre a
variável dependente Y .

Pergunta-se, agora, o que acontece? O que


sabemos é que se rejeitamos H 0 , aceitamos
H1, mas não sabemos nem quantos dos
estimadores e nem quais deles são
significativos, pois o teste F é em bloco. Assim,
devemos partir para um teste individual para ter
resposta e saber sobre cada variável.

   

E  j j
  


 
  

j 
  
  
Sabemos que  .
2  2

 j  u  a jj





Então, o teste t:

Como  j~N, então cada
   

 jE  j 





 

 
  ~ N  0,1 . Logo,
 j
 

   

 jE  j 




t  



 ; note que devemos obter
 j

2 2u
 j  a jj .
n 2

u i1
2
ui
Como a    1 no exemplo, temos
nk
u 2u
    1.
E mais:
2 2u
 j  a jj 1* (?)
 2  a22  1 * 0,55  0,55   2  0,74
2 2u
2 2u
   a33  1 * 0,1375  0,1375   2  0,37

3

2  E  2 
t  t  3 0  4,05
Calc   2 Calc 0,74

Conclusão:

Como o tCalc  tCrit , com base nesta amostra,


a 5% de nível de significância e 3 graus de
liberdade, existem sobradas razões para
acreditarmos que X 2 explica Y , mantendo X 3
constante.

2º) Teste o 3 :
H0 : 3  0
H1: 3  0
Considere tCrit   3,18 correspondente a 3 GL
e um nível de significância de 5%.

3  E  3 
tCalc    t  1 0  2,70
 3
Calc 0,37
Conclusão:

Como o tCalc  tCrit , com base nesta amostra,


a 5% de nível de significância e 3 graus de
liberdade, existem sobradas razões para
acreditarmos que X 3 não influencia ou explica
Y , mantendo X 2 constante.
Exemplo 2:

Estimar por mínimos quadrados a equação


Y  1  2 X  3 X 2  u .
Observação: considere X  X 2 e X 2  X3 .
Dados:
Y 113  X 2 15  X 3  55
_ _ _
n  5 Y  22,6 X 2  3 X 3 11
 X 2Y  387  X 3Y 1513  X 2 X 3  225
 y2 255,20  x22 10  x32  374
 x2 x3  60  yx2  48  yx3  270
I) Estimações das regressões simples
1º) Y  f  X 3 
 

 
  yx 270
  x23   0,721921
 3 374
 _  _3
  Y   X  22,6  0,721921*1114,658869

Y 14,658869  0,721921X
3

2º) Y f  X 2 


 
  yx 48
  x22   4,8
 2 10
 _  _2
 Y   X  22,6  4,8*3  8,2

Y  8,2  4,8X 2

3º) X 2  f  X 3 


 
  x x 60
X 2    X 3    2 2 3   0,1604278
 3 374
x
 _2  _3
  X   X  3 0,1604278*111,235942

X 2 1,235942  0,1604278 X 3
II) Estimação dos parâmetros da regressão
múltipla Y  1  2 X 2  3 X 3  u .
  

 1

  
2 
  X 'X






X 'Y  
 
  
  




 
3 

 x 2 
  x2 x3  10 60 
 X 'X   
  2

  
 
 x3 x2
  3   60 374 
x 2  

O determinante da matriz será:





X ' X   374*10602 140
 

A inversa será:

 374 60 
1

140 140  
2,2614285 0,4285714 

 X ' X  
 
   
 
 
 60 10



 0,4285714 0,0714285 

 
 140 140 

E
 yx2   48 

X 'Y  


  
 3   270 
y 

 
Logo,
  
 1

  2

  X 'X



 X 'Y    
  
  


  
3 

2,6714285 0,4285714  
48 

   


 

0,4285714 0,0714285 2 X 2 270 2 X 1





 
 12,51429 
 

1,2857322 2 X 1



 _  _  _
1 Y   2 X 2  3 X 3 
22,6 12,51429*31,2857322*110,7998158
Então:

Y 0,799815812,51429 X 1,285722 X
2 3

Lembre o seguinte: Y  f  X 2, X 3  e


 

X 2  g ( X 3) .
Como dY  f 2dX 2  f 3dX 3,
Então:
dY  f dX 2  f dX 3 
dX 3 2 dX 3
dX 3
3

dY  Y dX 2  Y
dX 3 X 2 dX 3 X 3
b13  b12.3 * b23  b13.2
0,7219251  12,51429*0,1604278 + (-1,2857322)  0,7219078

III) Cálculos de R2
a) Coeficiente de determinação total

2  
2   y2    yx2  2  yx 
R123 2 2 3

y y
12,51429*48 (1,2857322)*270  0,9934883
255,20
Concluímos que 99% das variações de Y em
torno de sua média são explicadas por X 2 e
por X 3 , sendo X 2 o componente linear e X 3
o componente curvo ou quadrático do modelo.
2 
R122   y2    yx2  4,8*4,8  0,9028213
y  y2 255,20
2  
R132   y2   2 3  0,72*270  0,76
yx
y y 255,20
b) Coeficientes de determinação parcial
2  R2
12  0,99  0,90  0,90
R
2  123
R13.2
1 R122 1 0,90
Concluímos que X3 explica 90% das variações
de Y em torno de sua média não explicadas
por X 2 .

2  R2
13  0,99  0,76  0,96
R 
2
R123
12.3
1 R132 1 0,76
Concluímos que X 2 explica 96% das variações
de Y em torno de sua média não explicadas
por X 3 .
III) Análise de variância (ANOVA)
Fonte de Soma de Graus de Quadrados F
Variação Quadrados liberdade Médios
Explicada n 2 n 2 n 2
 y i  253,53
k-1=2
 yi  yi
i1 i1  i1
k 1 F  k 1
 126,7891 1, n2  n 2

 
 
 ui
Residual n 2 nk  2 n 2 i1
 ui   ui nk
i1 i1 
n n 2 nk = F 2, 2
 152,56
  y 2   yi   0,83089
i1 i1
 1,6617
Total  yi2  255,20 n-1=4
i1

O teste F não é equivalente ao teste t na


regressão múltipla. Sendo o nível de
significância de 5% e dois graus de liberdade
no numerador e no denominador,
FCalc  FCrit , assim sendo, rejeitamos a
hipótese nula.

H0 : 2  3  k  0
H1 :  pelo menos um  j  0

Nesse caso, rejeitamos os  j  0, mas não


sabemos quantos nem quais são diferentes de
zero devido ao fato de que o teste F é um teste
t em bloco. Como o teste F é ineficaz para
determinamos quantos e quais  j  0 temos,
então devemos apelar para o teste individual t.

 
IV) Cálculos dos   e  
2 3

   

E  j   j  desconhecido
  


  
  
j  






  2  2u

 j   a jj  conhecido


2
 j pode ser estimada e, a , sai da
jj
 
1
diagonal principal da matriz 

X 'X 

.
 

2 2u
Sendo então  j  a jj , temos que:

2  2u 
 2    a22   u a22 
nk
0,8308929*2,6714285  2,2196709
2 2u 
 3  a33   u a33 
nk
 0,8308929*0,714285  0,0593494
Consequentemente:
 
 2 1,4898559 e  3  0,2436173
V) Testes de significância dos parâmetros

1º) Testo o 2
H 0 : 2  0
H1: 2  0
   
 2 E  2



 12,51429  0  8,3996646
 
tCal 
 
 

 2 1,4898559
tCrit 4,303  ns 5%, GL 3 
 

Como tCal  tCrit , rejeitamos H0  2  0.


Concluímos que, com base nesta amostra e um
nível de significância de 5% e 3 graus de
liberdade, existem sobradas razões para
acreditarmos que X 2 (o componente linear do
modelo) explica Y , mantido X3 (o componente
curvo) constante.

2º) texto o 3
H0 : 3  0
H1: 3  0
   
 3 E  3 


 1,2857322  0  5,2776719
 
tCal   
 

 3
0,2436173

tCrit 4,303  ns 5%, GL 3 


 

Concluímos que, com base nesta amostra e um


nível de significância de 5% e 3 graus de
liberdade, existem sobradas razões para
acreditarmos que X 3 (o componente curvo do
modelo) explica Y , mantido X2 (o
componente linear) constante.
Intervalo de predição por ponto e por intervalo
A variância e a covariância dos coeficientes de
regressão estimados para o caso de  k 1
 

 

    
 2u  1
E       '   X ' X
    
variáveis é      .
    
   
 
    

Sua expressão matricial é:


      
    


 Var  2


 Cov  2,  3 

 Cov  2,  k  


      
      
 
 
   
       

 Cov  2,  3 

 Var  3



 Cov  3,  k



















 
 
 
 
 
   
       

Cov  2,  k  Cov   3,  k  Var  k


    
    
       
       

1



 x22  x2 x3  x2 xk 
 
 2u  x2 x3
  x32  x3 xk 
  



 
 
 

  x2 xk  x3 xk  xk2 

 2u  1
A matriz   X ' X 


cuja dimensão é



k 1 k 1 , representa a matriz de variância-
covariância dos estimadores de mínimos
quadrados das declividades da regressão.
1º) Predição por ponto

Sabemos que

Y 0,799815812,51429 X 2 1,285722 X 3
Se considerarmos os valores dados para as
variáveis iguais a X 20  6 e X 30  36 , o valor

estimado no ponto para Y 0 será:


Y 0 0,7998158 12,51429*6 1,2857322*36  27,999565

2º) Predição por intervalo

Fórmula geral:

2
2 2 u  _ 2
   _  _ 
  
  u     X  X k  Var   k   2  X  X j  X 0k  X k  Cov   j ,  k 
Y0 n  0k     0j    

A partir daqui podemos construir um intervalo


para Y0 com qualquer probabilidade que
escolhermos:

   
Y 0  t nk ,    Y0  Y 0  t nk ,   .








  2 Y0   2 Y0

Mais especificamente:
2  2  2  _ 2  2
   u  nu   X 20  X 2    2 
Y0 


 

 _ 2  2  _  _    


X 3  X 3   3  2 X 2  X 2  X 3  X 3  Cov   2,  3 
0   0  0 



  








E, na forma matricial:

2  2   _ 1  0 _  
    u . 1  n   X  X  ' X ' X   X  X   .


1 0
Y0      

Aplicação:
2 _ _
   0,8308924 X 2  3 X 3  11
u
X 0  6 X 0  36
2 3
2 2
   2,2196707    0,0593493
2 3
     2   
Cov   2 ,  3    u  Cov   2 ,  3  
   
 0,8398924* 0,4285714  0,3560967
2
2 2    _ 2  2
   u   X  X 2    2 
0
 
Y0 u 2 n  2  
 0 _   2  0 _  0 _    
 X  X 3   3  2  X  X 2  X  X 3  Cov   2 ,  3 
 3   2  3   
       
2 2 2
   0,8308924  0,8308924   6  3 *2,2196707   36 11 *0,0593
Y0 5
 2*  6  3 36 11 *  0,3560967   4,6529137

Logo,    2,1570613.
Y0

O intervalo de confiança de 95% para Y0 pode


ser construído notando-se que o valor crítico
(tabelado) de t 2;0,025  4,303, isto é:




 

   
Y 0  t nk ,    Y0  Y 0  t nk ,  Y0
  



  Y0   2
  2

Quem é o   ?
Y0

2  2 
 _   _ 
    u  1  n   X 0  X  ' X ' X   X 0  X  
1 
1

Y0 
    
 ' 
1 3  2,6714285 0,4285714 3
    
 0,8308924 1  

   

5 25  0,4285714 0,0714285 25






   
 
 
  3 
1
 0,8308924 1  3 25 A   


5 
  25  

 0,83089241 0,2  4,3999959


 4,6529633
 2
 Y 0  4,6529633

    2,1570728
Y 0

Observações:

1ª observação:
'

3 2,6714285 0,4285714   3 


  
   

25 0,4285714 0,0714285   25 
    
    
  





2,6714285
0,4285714 
  3 

 3 25    

0,4285714 0,0714285   25 



  


 
3
  3 25  A   A 

 
 25 
 


 2,6714285 0,4285714 
 

0,4285714 0,0714285 
 

2ª observação:

 _ 
Os dados relativos às diferenças



X 20  X 2  e
 
 
 _



X 30  X 3  , entram, na fórmula acima utilizada,
 
 
 _ 
X X2
 0 

como vetor: X  
 2 
0 .


_ 

 X0X3
 3 

Retomando o cálculo do intervalo de confiança


   
Y 0  t nk ,   Y  Y  t





Y0
0
0
nk ,
2

Y0
  2

obtemos após esses procedimentos


necessários:


28,00  4,303*2,1570613Y  28,00  4,303*2,1570613 

 0 

 18,718165 Y  37,281834 


 0 

Você também pode gostar