Você está na página 1de 4

Gujarati – Cap.

MODELO CLÁSSICO DE REGRESSÃO LINEAR:


AS HIPÓTESES DO MÉTODOS DE MÍNIMOS QUADRADOS

Modelo clássico (Gaussiano) de regressão linear (MCRL)

Hipóteses:

H1 – O modelo de regressão é linear nos parâmetros

H2 – Os valores de X são fixados em amostragem repetida, mas


tecnicamente, supõe-se que X seja não-estocástico (análise de
regressão condicional)

H3 – Valor médio ZERO da perturbação ui , ou seja,

E (ui / X )  0 (3.2.1) implica que

E (Yi / X i )   1   2 Xi

H4 – Homoscedasticidade ou variância igual (constante) de ui .

Dado o valor de Xi, a variância de ui é a mesma para todas


observações

var(ui / X i )  E (ui2 / X i ) = por causa de H3 =  2


= constante (3.2.2)

H4 implica também que var(Yi / X i )   2


2

H5 – Nenhuma autocorrelação entre as perturbações dado Xi e Xj


com i  j, correlação entre ui e uj é zero.

Cov(ui , u j / X i , X j )  0 (3.2.5)

 Ver passagem matemática para obter 3.2.5 e gráficos de


correlação serial) !!!

H6 – covariância zero entre ui e X i , ou seja, E (ui X i )  0

 Ver formalização matemática para obter tal resultado !!!

H7 – O número de observações (n) deve ser maior que o número


de parâmetros a serem estimados

H8 – variabilidade nos valores de X. Tecnicamente, a var (X) deve


ser um número positivo finito.

var( X )   ( Xi  X )2 / n  1

H9 – O modelo de regressão está completamente especificado


(não há viés ou erro de especificação)

Ver Ex. Curva de Phillips !!!!

H10 – Não existe multicolinearidade perfeita (não há relações


lineares perfeitas entre as variáveis explicativas)
3
Precisão ou Erro-Padrão das Estimativas por M.Q

2
var ( ̂ 2 ) = (3.3.1)
 xi
2


ep ( ̂ 2 ) = (3.3.2)
 xi
2

var ( ̂ 1 ) =
 Xi 2

 2
(3.3.3)
n xi 2

ep( ̂ 1 ) =
 Xi 2

 (3.3.4)
n xi 2

Nas expressões acima, com base nos dados amostrais temos


todos os valores necessários para o cálculo da variância e do erro-
padrão dos estimadores, com exceção de  2 que deve ser estimado,
ou seja:

ˆ 2   uˆi2 / n  k (3.3.5)

Estimador de MQO de 2
n – k = graus de liberdade (gl)

onde k = número de parâmetros estimados


4

 i
ˆ
u 2
= soma quadrado dos resíduos (SQR) ou SSR no Eviews.

gl = n – k

Erro-padrão da estimativa:

̂   ûi 2
(3.3.8)
nk

Propriedades dos Estimadores de Mínimos Quadrados:

O Teorema de Gauss-Markov

Propriedade do melhor estimador linear não-viesado (MELNV)

 Estimador de MQO ̂ 2 é MELNV de 2 se:

o 1 – é Linear

o 2 – Não-viesado, ou seja, E( ̂ 2 ) = 2

o 3 – Tem mínima variância na classe de todos estimadores


lineares não-viesados, ou seja, é um Estimador Eficiente

 T.G.M: dadas as hipóteses do M.C.R.L, os estimadores por


M.Q., na classe dos estimadores lineares não-viesados, têm
mínima variância, isto é, são MELNV.

OBS: 1 + 2 + 3 = propriedades de amostras finitas

Você também pode gostar