Escolar Documentos
Profissional Documentos
Cultura Documentos
PROGRAMA
— Relaxando as Hipóteses do Modelo Clássico
— Multicolinearidade;
— Heteroscedasticidade;
— Autocorrelação;
— Modelos Auto-Regressivos
(ARIMA);
PROGRAMA
— Econometria de Séries Temporais Multivariadas;
— Modelos de Vetor Auto-Regressivos (VAR).
— Processo de Co-Integração.
— BIBLIOGRAFIA COMPLEMENTAR
Ø STOCK, James H. WATSON, Mark W. Econometria. São
Paulo: Addison Wesley. 2004.
Ø JOHNSTON, J. Econometric Methods. Singapore:
McGraw-Hill. 1991.
AVALIAÇÃO
— Provas bimestrais (80% da nota)
— Listas de Exercícios Teóricos (10% da nota)
— Lista de Exercícios Aplicados (10% da nota)
— Sendo a nota da lista proporcional a nota da prova.
PREMISSAS DO MODELO CLÁSSICO
— O modelo de regressão é linear nos parâmetros;
— Os valores dos regressores, os X’s, são fixados em amostras repetidas;
l1 X 1 + l2 X 2 + .... + lk X k = 0
— Onde λ1, λ2,....., λk são constantes, e nem todas são simultaneamente iguais a
zero.
— Assim, para λ2 ≠ 0, temos que:
l1 l l
X2 = - X 1 - 3 X 3 .... - k X k
l2 l2 l2
— Que mostra como X2 se relaciona de forma linear e exata com as demais
variáveis. Nessa situação, o coeficiente de correlação entre X2 e a combinação
linear das variáveis será igual a 1.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
l1 X 1 + l2 X 2 + .... + lk X k + vi = 0
— Em que vi é um termo de erro estocástico.
— Similarmente, para λ2 ≠ 0, temos que:
l1 l l 1
X2 = - X 1 - 3 X 3 .... - k X k - v i
l2 l2 l2 l2
— Exemplo:
X2 X3 =5X2 i X3*=X3+i
10 50 2 52
15 75 0 75
18 90 7 97
24 120 9 129
30 150 2 152
å(X
n
2i -X 2 )( X 3i - X 3 ) å( X 2i -X 2 )( X *3i - X *3 )
r23 = i =1
=1 r23 = i=1
= 0,9959
s 2s 3 s 2s *3
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— Fontes de Multicolinearidade:
( å y i x 2 i )( å x 32i ) - ( å y i x 3 i )( å x 2 i x 3 i )
bˆ 2 =
( å x 22 i )( å x 32 i ) - ( å x 2 i x 3 i ) 2
( å y i x 3 i )( å x 22 i ) - ( å y i x 2 i )( å x 2 i x 3 i )
bˆ 3 =
( å x 22 i )( å x 32 i ) - ( å x 2 i x 3 i ) 2
Fazendo x 3i = l x 2 i
( å y i x 2 i )( l 2 å x 22 i ) - ( l å y i x 2 i )( l å x 22 i ) 0
bˆ 2 = =
(å x 2
2i )( l 2
å x 2
2i ) - l (å x
2 2
2i ) 2
0
onde : aˆ = bˆ 2 + l bˆ 3 =
å x 2i yi
å x 2
2i
— Essa expressão fornece uma equação com duas incógnitas, de modo que, para cada valor
fixo de λ e α existe uma infinidade de soluções possíveis para β1 e β2. No caso de
multicolinearidade perfeita, não é possível determinar uma solução única para os
coeficientes de regressão, porém, é possível obter uma solução única para a combinação
linear entre os coeficientes.
RELAXAMENTO DAS HIPÓTESES DO MODELO
CLÁSSICO: MULTICOLINEARIDADE
— É importante considerar que, no caso de multicolinearidade perfeita, as
variâncias e erro-padrão dos parâmetros β2 e β3, individualmente, são
infinitos:
Var ( bˆ2 ) =
åx 2
3i
s =2 s2
=¥
(å x22i )(å x32i ) - (å x2 i x3i ) 2 åx 2
2i (1 - r232 )
Var (bˆ3 ) =
åx 2
2i
s2 =
s2
=¥
(å x22i )(å x32i ) - (å x2 i x3i ) 2
åx 2
3i (1 - r232 )
- r23s 2
Cov(bˆ2 , bˆ3 ) =
(1 - r232 ) åx åx 2
2i
2
3i
(å yi x 2 i )( å x32i ) - (å yi x3i )( å x2 i x3 i )
bˆ 2 =
( å x22i )( å x32i ) - ( å x2 i x3 i ) 2
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE:
1
FIV =
(1 - r232 )
s2 s2 s2 s2
Var ( bˆ 2 ) = = = = FIV
å (X 2i - X2) 2
åx 2
2i åx 2
2i (1 - r23 ) åx 2
2i
s2 s2 s2 s2
Var ( bˆ3 ) = = = = FIV
å (X 3i - X 3 )2 åx 2
3i åx 2
3i (1 - r23 ) åx 2
3i
- r23s 2
Cov ( bˆ 2 , bˆ3 ) =
(1 - r23 ) åx åx 2
2i
2
3i
— Exemplo:
r23 FIV Var(β2)xFIV Var(β3)xFIV Covar(β2,β3)
0,00 1,00 σ2/Σx2i2 = A σ2/Σx3i2 = B -σ2/(Σx2i2 Σx3i2 )1/2= C
0,50 1,33 1,33 x A 1,33 x B 0,67 x C
0,70 1,96 1,96 x A 1,96 x B 1,37 x C
0,80 2,78 2,78 x A 2,78 x B 2,22 x C
0,90 5,26 5,26 x A 5,26 x B 4,73 x C
0,95 10,26 10,26 x A 10,26 x B 9,74 x C
0,97 16,92 16,92 x A 16,92 x B 16,41 x C
0,99 50,25 50,25 x A 50,25 x B 49,75 x C
0,995 100,00 100,00 x A 100,00 x B 99,50 x C
0,999 500,00 500,00 x A 500,00 x B 499,50 x C
1 ∞ ∞ ∞
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Grande variância e
covariância dos estimadores de MQO.
ˆ s2 1 s2
Var( b k ) = = FIVk
å xk2 (1 - Rk2 ) å xk2
æ bˆ - b 2 ö
Pr çç - t a £ 2 £ +ta ÷ = (1 - a )
ˆ ;( n - k ) ÷
è 2 ;( n - k ) ep ( b 2 ) 2 ø
æ ö
Pr çç bˆ 2 - t a .ep ( bˆ 2 ) £ b 2 £ bˆ 2 + t a .ep ( bˆ 2 ) ÷÷ = (1 - a )
;( n - k ) ;( n - k )
è 2 2 ø
æ s2 s2 ö
Pr ç bˆ 2 - t a . FIV £ b 2 £ bˆ 2 + t a . FIV ÷ = (1 - a )
ç
è 2
;( n - k )
åx 2
2i 2
;( n - k )
å x2
2i
÷
ø
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— Para testar a hipótese nula de que um parâmetro β seja igual a zero, usamos a
razão t, e comparamos o valor estimado de t com o valor crítico de t extraído da
tabela t. Nos casos de alta colinearidade, os erros-padrão estimados aumentam
significativamente, tornando menores os valores de t. Em tais circunstâncias
aceitaremos crescentemente a hipótese nula de que o valor verdadeiro do
parâmetro da população é zero.
bˆ - b 2
t= 2
ep ( bˆ ) 2
bˆ 2 - b 2
t=
s2
FIV
åx 2
2i
æ ö
Pr çç - t a £ t £ +t a ÷ = (1 - a )
;( n - k ) ÷
è 2 ;( n - k ) 2 ø
Yi = b1 + b 2 X 2i + b 3 X 3i + ..... + b k X ki + ui
3 4 12 R 2 = 0,8101 r 23 = 0,5523
4 6 0
5 8 16 Cov ( bˆ 2 , bˆ3 ) = -0,00868
Yi = b 1 + b 2 X 2i + b3X 3i + ..... + b k X ki + ui
— Suponha que β3=0,1β2. Assim, podemos rodar a seguinte regressão:
Yi = b 1 + b 2 X 2i + 0 ,1 b 2 X 3i + ..... + b k X ki + ui
Yi = b 1 + ( X 2i + 0 ,1 X 3i )b 2 + ..... + b k X ki + ui
X i = X 2i + 0 ,1 X 3i
Yi = b 1 + b 2 X i + ..... + b k X ki + ui
— Uma vez determinado β2, podemos determinar β3 pela relação β3=0,1β2.
Yt = b 1 + b 2 X 2t + b3X 3t + ui
— Ela deve ser válida no instante t-1, pois a origem de tempo é arbitrária.
Assim, temos:
Y t -1 = b 1 + b 2 X 2 t -1 + b3X 3 t -1 + u i -1
— Subtraindo as equações obtemos:
Y t - Y t -1 = b 1 + b 2 ( X 2 t - X 2 t -1 ) + b 3 ( X 3 t - X 3 t -1 ) + u t - u i -1
Y t - Y t -1 = b 1 + b 2 ( X 2 t - X 2 t -1 ) + b 3 ( X 3 t - X 3 t -1 ) + v t
s2
Var ( bˆ2 ) =
åx 2
2i (1 - r23 )
E (ui2 ) = s i2
σ21
σ22
X1 Y = b1 + b2 X
σ23
X2
X3
X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— Existem diversas razões pelas quais as variâncias de ui podem ser
variáveis, podendo-se destacar:
— O método usual dos MQO confere igual peso ou igual importância a cada
observação da amostra, o que produz distorções nos estimadores, dado
que a variância dos dados não se mantém constantes ao longo da
amostra.
Yi X 0i Xi ui
= b1 + b2 +
si si si si
Yi = b 1 X 0i + b 2 X i + u *i
* * * * *
Var(ui ) = E(ui )2 = s i2
2
æu ö 1
Var(u i ) = E(u i ) = Eç i ÷ = 2 E(ui2 )
* * 2
ç si ÷ si
è ø
1
Var(u*i ) = 2 s i2 = 1
si
— Assim, a variância torna-se constante. Ou seja, a variância do termo de
perturbação transformado ui* tornou-se homoscedástico. Isso sugere que
se aplicarmos o método dos Mínimos Quadrados Ordinários ao modelo
transformado, os parâmetros estimados β’s continuam sendo os Melhores
Estimadores não Viesados (MELNV).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MGO):
åu *2
i
= å (Yi* - bˆ1* X *0i - bˆ *2 X *i )2
2
éæ Y öù
2
æ ui ö ö æX ö æX
å ç s ÷ å êçç si
ç ÷ = ÷ - bˆ * ç 0i
÷ 1 ç si
÷ - bˆ * ç i
÷ 2 ç si
÷ú
÷ú
è iø êëè i ø è ø è øû
Para wi = 1/s i2
å w u = å w (Y
i
2
i i i
*
- bˆ1* - bˆ 2* X *i ) 2
åw u = åw (Y i
2
i i
*
i
- bˆ1* - bˆ *2 X *i )2
¶å wiu 2i
= 2å wi (Yi* - bˆ1* - bˆ2* X *i )(-1) = 0 Þ åw Y =bˆ1* å wi +bˆ *2 å wi X i
¶bˆ *
i i
¶ å wi u i2
bˆ * = Y * - bˆ * X *
1 2
Var(bˆ ) = *
(åw ) i
Y C
ûi Yˆ = bˆ1 + bˆ 2 X
A
ûi
ûi B
X1 X2 X3
X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— CONSEQUÊNCIAS DO USO DE MQO NA PRESENÇA DE
HETEROCEDASTICIDADE:
— Tanto β2* como β2 são estimadores lineares não viesados, ou seja, em amostras
repetidas são os estimadores dos verdadeiros parâmetros da população. Porém,
β2* é eficiente, ou seja, tem variância mínima, enquanto β2 não é eficiente.
Assim, o uso de β2, ao invés de β2* pode causar os seguintes problemas:
— Não é possível estabelecer intervalos de confiança e aferir hipóteses com os
testes t e F uma vez que, a var(β2*) < var(β2). Isso significa que o intervalo de
confiança baseados em β2 são maiores e, conseqüentemente, os testes t e F nos
fornecem resultados imprecisos. Assim, se insistirmos em utilizar o método
padrão na presença de heteroscedasticidade, sejam quais forem as conclusões
que chegamos ou as inferências realizadas, elas podem ser bastante enganosas.
— Se considerarmos a estimativa baseada em β2 obtemos uma variância viesada
determinada por:
Var ( bˆ 2 ) =
s2
¹ Var ( bˆ 2* ) =
åxsi
2
i
2
åx i
2
(å x )
i
2 2
0 0 ŷ 0 ŷ
ŷ
uˆ
2
i uˆ
i
2
0 ŷ 0 ŷ
0 0 0
X X X
uˆ i
2
uˆ
2
i
0 0
X X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
— Teste de Park: Park formaliza o método gráfico ao sugerir que σi2 é alguma
função da variável explicativa Xi. A forma funcional sugerida por Park é
determinada por: s i2 = s 2 X ib e v i
ln s i2 = ln s 2
+ b ln X i + v i
— Como σi2 não é conhecido, Park sugere usar ui2 como uma proxy, e rodar a
seguinte regressão.
uˆ i2 = s 2 X ib e v i
ln uˆ i2 = ln s 2 + b ln X i + v i
ln uˆ i2 = a + b ln X i + v i
— Se β se revelar estatisticamente significativo, isto sugere que a
heteroscedasticidade está presente nos dados, caso contrário aceitamos a hipótese
de homocedasticidade. O teste de Park é um procedimento em dois estágios. No
primeiro estágio, rodamos a regressão por MQO desconsiderando a questão da
heteroscedasticidade, para obter o ui dessa regressão. No segundo estágio, roda-se
a regressão sugerida por Park.
— Crítica: o próprio termo de erro vi pode ser heterocedástico.
uˆ i = b 1 + b 2 X i + vi
uˆ i = b1 + b 2 X i
2
+ vi
— Críticas: o erro pode ser heterocedástico, e as duas formas funcionais não são
lineares nos parâmetros β’s, não sendo possível rodar por MQO.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
— Coeficiente de Correlação por Ordem de Spearman: O coeficiente é definido
como: é å d i2 ù
rs = 1 - 6 ê ú
êë n ( n - 1 ) úû
2
é 110 ù
rs = 1 - 6 ê ú = 0 , 3333
ë 10 ( 100 - 1 ) û
(0,3333 ) 8
t= = 0,9998
1 - 0,1110
t < t * = não há heteroceda sticidade
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROSCEDASTICIDADE: Métodos Formais
— Temos que σi2 é tanto maior quanto maior for Xi. Se for este o caso, é provável
que exista heterocedasticidade no modelo. Para testar isso, devemos seguir os
seguintes passos:
— 1º) Ordene as observações de Xi, começando pelo menor valor.
— 2º) Omita as observações centrais “c”, em que c é especificado a princípio, e
divida as (n-c) observações restantes em dois grupos, cada um com (n-c)/2
observações. Considere c = 4 se n = 30, e c = 10 se n = 60.
— 3º) Ajuste as distintas regressões por MQO às primeiras (n-c)/2 observações e às
últimas (n-c)/2 observações, e obtenha as respectivas somas dos quadrados dos
resíduos, SQR1 e SQR2.
— Teste de Goldfeld-Quandt:
(n - c ) æ n - c - 2k ö
-k ou ç ÷ gl
2 è 2 ø
pi = a 1 + a 2 Z 2 i + .... + a m Z mi + vi
— 5º) Obtenha SQE, e defina:
1
q = ( SQE ), onde, q ~ c m2 -1
2
ì rejeita - se H 0 = homocedast icidade
q >q *í
înão rejeita - se H1 = heteroceda sticidade
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
uˆi2 = a1 +a2 X2i +a3 X3i +a4 X22i +a5 X32i +a6 X2i X3i + vi
— Obtêm-se o R2 dessa regressão auxiliar.
— 3º) Sob a hipótese nula de que não há heterocedasticidade, pode-se mostrar que
o tamanho da amostra (n) multiplicado por R2 obtido da regressão auxiliar
assintoticamente segue a distribuição por qui-quadrado com os graus de
liberdade iguais ao número de regressores (excluindo o termo constante) na
regressão auxiliar. Ou seja:
n.R 2 ~ c gl2
— No exemplo, gl = 5.
uˆi2 = a 1 + a 2 (Yˆi ) 2 + vi
— A hipótese nula é que H0: α2 = 0, contra a hipótese alternativa H1: α2 ≠ 0.
ln Y i = b 1 + b 2 ln X i + u i
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— PRINCIPAIS CONCLUSÕES:
— O modelo clássico de regressão linear supõe que não existe autocorrelação nas
perturbações ui. Simbolicamente, temos que:
E (u i u j ) = 0 i ¹ j
E (u i u j ) ¹ 0 i ¹ j
u, uˆ u, uˆ u, uˆ
0 t 0 t 0 t
u, uˆ u, uˆ
0 t 0 t
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— PRINCIPAIS DETERMINANTES:
— Inércia;
— Defasagens;
— Manipulação de dados;
— Ausência de estacionariedade.
Cov ( e t , e t+ s ) = 0 s ¹ 0
— Este processo é identificado como auto-regressivo de primeira ordem de
Markov AR(1).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— ESTIMAÇÃO POR MQO NA PRESENÇA DE AUTOCORRELAÇÃO:
bˆ 2 = åxy t t
åx t
2
å (x t - r x t -1 )( y t - r y t -1 )
bˆ 2 MQG = t =2
n
+C
å (x
t =2
t - r x t -1 ) 2
a MQO
a MQO
2 2
a MQG
Não Rejeita a MQG
2 H0: β2 = c 2
Região de - t
a
Região de + ta Região de
Rejeição ;( n - k ) Aceitação ;( n - k )
2 2 Rejeição
Yt = b1 + b 2 X 2 t + b 3 X 3t + ... + b k X kt + gYt -1 + ut
— Não deve faltar observações nos dados.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— DETECÇÃO: Teste de Auto-Correlação Residual de Durbin-Watson.
å (uˆ - uˆt t -1 )2
d= t =2
n
å uˆ
t =2
2
t
n n n
å uˆ + å uˆ
2
t
2
t -1 - 2å uˆt uˆt -1
d= t =2 t =2
n
t =2
å uˆ
t =2
2
t
n n
Como å uˆ e 2
t å uˆ 2
t -1 diferem em apenas uma observação, elas são aproximadamente iguais.
t =2 t =2
æ n
ö
ç å uˆt uˆt -1 ÷
d @ 2ç1 - t = 2 n ÷ Þ d @ 2(1 - rˆ *)
ç ÷
ç
è
åt =2
uˆt ÷
2
æ n
ö
ç å uˆt uˆt -1 ÷
d @ 2ç1 - t =2 n ÷ Þ d @ 2(1 - rˆ *)
ç ÷
ç å uˆt ÷
2
è t =2 ø
Rejeitar H0
Não Rejeitar H0 Rejeitar H*0
Autocorrela Zona de Zona de
Ausência de Autocorrelação
ção Indecisão. Indecisão.
Autocorrelação Negativa.
Positiva.
0 dL dU 2 4 - dU 4 - dL 4
HIPÓTESE NULA DECISÃO CONDIÇÃO
Ausência de Autocorrelação positiva Rejeitar 0 < d < dL
Ausência de Autocorrelação positiva Nenhuma decisão dL ≤ d ≤ dU
Ausência de Correlação negativa Rejeitar 4 – dL < d < 4
Ausência de Correlação negativa Nenhuma decisão 4 – dU ≤ d ≤ 4 - dL
Ausência de Autocorrelação Positiva ou Negativa Não Rejeita dU < d < 4 - dU
(n - p )R 2
> c 2
p Þ Rejeita - se H 0 : r 1 = r 12 = ... = 0
( Y t - r Y t -1 ) = ( b 1 - rb 1 ) + ( b 2 X t - rb 2 X t - 1 ) + ( u t - r u t - 1 )
( Y t - r Y t - 1 ) = (1 - r ) b 1 + b 2 ( X t - r X t - 1 ) + e t
r = +1
( Y t - Y t -1 ) = ( b 1 - b 1 ) + ( b 2 X t - b 2 X t -1 ) + ( u t - u t - 1 )
( Y t - Y t - 1 ) = b 2 ( X t - X t -1 ) + e t
D Yt = b 2 D X t + e t
D é o operador de primeira diferença
— Essa equação é conhecida como equação de diferença generalizada. Como ε
satisfaz as hipóteses de MQO, podemos passar a estimar os parâmetros por
(MQG). A transformação de primeira diferença pode ser adequada se o
coeficiente de autocorrelação for muito alto (superior a 0,8) ou “d” de Durbin-
Watson for muito baixo. Maddala propôs que se use essa regra quando d < R2.
d @ 2(1 - rˆ )
d
rˆ @ 1 -
2
— Este método revela uma maneira simples para estimar ρ por meio da estatística d
estimada. A hipótese da primeira diferença ρ = +1 é valida somente se d = 0 ou
aproximadamente igual a zero. Fica claro que, quando d = 2, ρ = 0, e quando d =
4, ρ = -1.
— Depois de estimar ρ, podemos transformar os dados e estimar os parâmetros
utilizando o método MQO.
— CONCLUSÕES: