Você está na página 1de 106

1

Mestrado Profissional em Administração

Séries Temporais
(VAR, Causalidade de Granger, Cointegração, Teste de Engle-
Granger, VEC e Teste de Jonhansen)
2 2

Modelo Vetorial Auto-regressivo (VAR)

Bueno, 2008 – Capítulo 6


Enders, 2004 – Capítulo 5
3

Introdução

Os modelos econômicos, em geral, são expressos por meio de


diversas variáveis. Portanto, o uso de modelos univariados,
como visto até o momento, é limitado para expressar modelos
econômicos.
Sendo assim, agora estaremos interessados em generalizar os
modelos univariados de séries temporais para o caso
multivariado. Ou seja, estaremos interessados em estabelecer
modelos para uma série temporal vetorial
Xt
~

com n componentes X1t, X2t, ..., Xnt, observadas em t = 0, 1, 2,


...
4

Introdução
Além da análise de cada componente individual,
Xit, i = 1, 2, ..., n,
como já visto, onde, por exemplo, a auto-correlação contida em
cada série é importante, estaremos, também, agora, estudando as
relações dinâmicas entre as diversas séries que compõem o vetor.
Usaremos a notação
Xt = ( X 1t X 2t  X nt )
'

t   e Xit ou Xi,t, indistintamente, para a i-ésima componente, i = 1,


2, ..., n.
5 5

Exemplo

a) Podemos pensar que o vetor Xt é constituído pelos retornos


de n ativos financeiros de um fundo de investimentos no
instante t e o objetivo é analisar o desempenho do fundo ao
longo do tempo.
b) Numa outra situação, um investidor pode ter uma carteira
com ações da Petrobras, Vale, Natura e Lojas Renner e neste
caso n = 4.

Sendo assim, o vetor de médias de Xt, será denotado por

  (1)
μ t = E  X t  = (1t  2t   nt )
'

~  ~ 

e dependente, em geral de t.
6

Introdução
Alguns exemplos de modelos de séries temporais
multivariados estacionários são ARMA Vetoriais (VARMA),
Médias Móveis Vetoriais (VMA) e Auto-Regressivos Vetoriais
(VAR), que, a princípio, será o objeto de nosso estudo.

Porém, também vamos permitir não-estacionariedades


nestes modelos. Neste caso, será necessário introduzir o
conceito de co-integração, uma vez que podem existir séries
temporais que são não-estacionárias mas apresentando uma
combinação linear delas que as torna estacionárias.
7 7

Séries Estacionárias
Aqui, nos restringiremos ao caso de estacionariedade fraca ou
de segunda ordem.
Dizemos que a série temporal Xt, n-variada, é estacionária se o
vetor de médias, dado em (4), e a matriz de covariâncias, dado
em (5)
não dependerem do tempo t. Nesta situação, teremos:

  (
μ = E  X t  = 1 2  n ) ' (4)
e ~  ~ 

 
 
'
 
Γ( ) = E  X t + − μ  X t − μ   =  ij ( ) n
i , j =1 (5)
~  ~ ~  ~ ~ 

8

Modelos Auto-regressivos Vetoriais

Uma importante classe de modelos lineares multivariados, a


dos modelos auto-regressivos vetoriais de ordem p, que
denotaremos por VAR(p).

Dizemos que o processo Xt, n-variado, segue um modelo da


classe VAR(p) se

X t = Φ0 + Φ1 Xt −1 + Φp Xt −p + a t
~ ~ ~ ~ ~ ~ ~

em que

~
( )
a t ~ RB 0, Σ
~ ~
9

Modelos Auto-regressivos Vetoriais

em que (cont.)

Φ0 = (10 20  n 0 )' é um vetor n x 1 de constantes;


~

Φ k é a k-ésima matriz n x n de constantes;


~

 (k )
ij
elemento da linha i, coluna j da matriz p, em que
j = 1, 2, ..., n, k = 1, 2, ..., p
10 10

Modelos Auto-regressivos Vetoriais

Exemplo
Seja o processo Xt bivariado seguindo um modelo VAR(1). Do
exposto, podemos descrever Xt da seguinte maneira:

X t = Φ 0 + Φ1 X t −1 + a t
~ ~ ~ ~ ~
em que

X1t  10  11,1 12,1  X1, t -1  a1t 


Xt =   =   +    + 
~ X 2t  20  21,1 22,1  X 2, t -1  a 2t 
11 11

Modelos Auto-regressivos Vetoriais


Exemplo (cont.)
Ainda, denotaremos os elementos da matriz de variâncias e covariâncias,
, por ij, i, j = 1, 2.

Vale observar do slide anterior, a dependência contemporânea entre X1t e


X2t não fica explicitada.

Também, dizemos as equações anteriores são modelos em forma


reduzida. O modelo na forma reduzida é preferido por facilidades de
estimação e previsão.

Finalmente, é possível obter o modelo na forma estrutural, em que a


relação contemporânea fica explicitada.
12 12

Modelos Auto-regressivos Vetoriais

Exemplo
Se
➢ 12,1 = 0, a série X1t não dependerá de X2,t-1;
➢ 21,1 = 0, a série X2t não dependerá de X1,t-1;
➢ 12,1 = 0 e 21,1  0, existe uma relação unidirecional de X1t
para X2t;
➢ 12,1 = 21,1 = 0, dizemos que não existe relação linear entre
as séries, ou que elas são não-acopladas;
13 13

Modelos Auto-regressivos Vetoriais

Exemplo
Se (cont.)

➢ 12,1  0 e 21,1  0, dizemos que existe uma relação de


feedback entre as duas séries.
➢ 12 = 0, em , não existe relação linear contemporânea
entre X1t e X2t.
14

Modelos Auto-regressivos Vetoriais


VAR(1)

O processo Xt, descrito no slide 11, será estacionário se a


média for constante e E(Xt+Xt’) independente de t. Neste
caso, se  = E(Xt), teremos
−1

μ =  I n − Φ1  Φ 0 .
~ ~ ~  ~

Segue-se que o modelo poderá ser escrito na forma

 
X t − μ = Φ1  X t −1 − μ  + a t .
~ ~ ~  ~ ~ ~
15

Modelos Auto-regressivos Vetoriais


VAR(1)
O processo Xt seguindo um modelo VAR(1) será estacionário
se todas as soluções de

I n − Φ1 z = 0
~ ~

estiverem fora do círculo unitário.

Como as soluções são as inversas dos autovalores de 1,


uma condição equivalente é que todos os auto-valores de 1
sejam menores do que 1, em módulo.
16

Modelos Auto-regressivos Vetoriais


VAR(1)
Pela proposição de Lütkepohl, um VAR estável é
estacionário.

ESTABILIDADE: As raízes características de 1 são


menores do que 1, em módulo.

In  − 1 = 0  i  1
17 17

Modelos Auto-regressivos Vetoriais


Exemplo
No caso de um VAR(1) bivariado, as raízes ficam expressas
1 − 11,1z − 12,1z
= (1 − 11,1 z )(1 − 22,1z ) − 12,121,1 z 2 = 0
− 21,1z 1 − 22,1 z
ou seja, obtemos a equação
 
1 − tr  Φ1  − Φ1 z 2 = 0.
 ~  ~
Assim, as duas séries, X1t e X2t, são (conjuntamente)
estacionárias se as soluções desta equação de segundo grau
estiverem fora do círculo unitário.
18 18

Modelos Auto-regressivos Vetoriais


Exemplo 2

Considere as séries de retorno mensal das ações ON e PN


da Petrobrás e o retorno do Ibovespa.

Estime VAR(1) descrever o comportamento conjunto dos


retornos.
19 19

Gráfico das séries de preço e índice


20 20

Gráficos do Retorno
21 21

. var dlpetr3 dlpetr4 dlibov, lags(1)


VAR(1)
Vector autoregression

Sample: 2000m3 - 2019m9 Number of obs = 235


Log likelihood = 1108.195 AIC = -9.329317
FPE = 1.78e-08 HQIC = -9.258096
Det(Sigma_ml) = 1.61e-08 SBIC = -9.152657

Equation Parms RMSE R-sq chi2 P>chi2

dlpetr3 4 .111121 0.0393 9.620712 0.0221


dlpetr4 4 .112729 0.0393 9.606052 0.0222
dlibov 4 .068449 0.0558 13.90007 0.0030

Coef. Std. Err. z P>|z| [95% Conf. Interval]

dlpetr3
dlpetr3
L1. -.4606925 .2669347 -1.73 0.084 -.9838749 .0624899

dlpetr4
L1. .4253808 .2777715 1.53 0.126 -.1190414 .969803

dlibov
L1. .2805397 .1563647 1.79 0.073 -.0259295 .5870089

_cons .0081944 .0072365 1.13 0.257 -.0059888 .0223776

dlpetr4
dlpetr3
L1. -.359984 .2707982 -1.33 0.184 -.8907387 .1707707

dlpetr4
L1. .2934989 .2817918 1.04 0.298 -.2588029 .8458008

dlibov
L1. .3462023 .1586279 2.18 0.029 .0352974 .6571072

_cons .0078284 .0073412 1.07 0.286 -.00656 .0222169

dlibov
dlpetr3
L1. -.1882698 .164429 -1.14 0.252 -.5105447 .134005

dlpetr4
L1. .0033991 .1711043 0.02 0.984 -.3319592 .3387574

dlibov
L1. .3298925 .096319 3.42 0.001 .1411107 .5186743

_cons .0069065 .0044576 1.55 0.121 -.0018303 .0156432


22

Modelos Auto-regressivos Vetoriais


VAR(p)
O processo Xt seguindo um modelo VAR(p), tem os
seguintes resultados:
(i) O processo Xt será estacionário se as soluções de

I n − Φ1 z −  − Φ p z p = 0
~ ~ ~

estiverem foram do círculo unitário.


(ii) Se Xt for estacionário, −1
   p
μ = E  X t  =  I n − Φ1 z −  − Φ p z  Φ 0 .
~  ~  ~ ~ ~  ~
23 23

Construção de Modelos VAR

A construção de modelos VAR segue o mesmo ciclo de

identificação;
estimação; e
diagnóstico.

usado para modelos univariados da classe ARMA.


24 24

Construção de Modelos VAR


Identificação
Uma forma de identificar a ordem de uma VAR é usar
algum critério de informação, como:

2kn 2
AIC (k ) = ln ˆ
(k )
+
~ T

kn 2 ln(T )
BIC (k ) = ln ˆ
(k )
+
~ T

kn 2 ln(ln(T ))
HQC (k ) = ln ˆ
(k )
+ .
~ T
25 25

Construção de Modelos VAR


Estimação

Identificado o valor de p e supondo

~
( )
a t ~ N 0,  ,
~ ~

Podemos estimar os coeficientes por máxima


verossimilhança. Neste caso, os estimadores de MQ são
equivalentes a estimadores de MV condicionais.
26

Construção de Modelos VAR


Observações
Se o VAR for estacionário, então, os estimadores de MQ são:

1. Consistentes;
2. Assintoticamente eficientes;
3. Se at ~ N(0, ), os estimadores e as estatísticas de teste
têm as distribuições assintóticas usuais.
27 27

Modelos Auto-regressivos Vetoriais


Exemplo 3

Considere as séries de retorno mensal das ações ON e PN


da Petrobrás e o retorno do Ibovespa.

Estime o melhor modelo VAR(p) descrever o


comportamento conjunto dos retornos.
28 28

Escolha do melhor modelo VAR(p)


utilizando critérios de informação

. varsoc dlpetr3 dlpetr4 dlibov, maxlag(10)

Selection-order criteria
Sample: 2000m12 - 2019m9 Number of obs = 226

lag LL LR df p FPE AIC HQIC SBIC

0 1055.69 1.8e-08 -9.31584 -9.29751 -9.27043*


1 1071.88 32.379 9 0.000 1.7e-08* -9.37946* -9.30617* -9.19784
2 1078.53 13.31 9 0.149 1.7e-08 -9.35871 -9.23044 -9.04087
3 1082.47 7.8696 9 0.547 1.8e-08 -9.31388 -9.13065 -8.85983
4 1088.75 12.567 9 0.183 1.9e-08 -9.28985 -9.05164 -8.69958
5 1094.27 11.034 9 0.273 1.9e-08 -9.25902 -8.96584 -8.53254
6 1096.87 5.2079 9 0.816 2.0e-08 -9.20242 -8.85427 -8.33972
7 1104.22 14.693 9 0.100 2.1e-08 -9.18779 -8.78467 -8.18887
8 1116.19 23.944* 9 0.004 2.0e-08 -9.21409 -8.756 -8.07896
9 1119.62 6.8648 9 0.651 2.1e-08 -9.16482 -8.65176 -7.89347
10 1126.04 12.835 9 0.170 2.2e-08 -9.14197 -8.57393 -7.7344

Endogenous: dlpetr3 dlpetr4 dlibov


Exogenous: _cons
29 29

. var dlpetr3 dlpetr4 dlibov, lags(1)


VAR(1)
Vector autoregression

Sample: 2000m3 - 2019m9 Number of obs = 235


Log likelihood = 1108.195 AIC = -9.329317
FPE = 1.78e-08 HQIC = -9.258096
Det(Sigma_ml) = 1.61e-08 SBIC = -9.152657

Equation Parms RMSE R-sq chi2 P>chi2

dlpetr3 4 .111121 0.0393 9.620712 0.0221


dlpetr4 4 .112729 0.0393 9.606052 0.0222
dlibov 4 .068449 0.0558 13.90007 0.0030

Coef. Std. Err. z P>|z| [95% Conf. Interval]

dlpetr3
dlpetr3
L1. -.4606925 .2669347 -1.73 0.084 -.9838749 .0624899

dlpetr4
L1. .4253808 .2777715 1.53 0.126 -.1190414 .969803

dlibov
L1. .2805397 .1563647 1.79 0.073 -.0259295 .5870089

_cons .0081944 .0072365 1.13 0.257 -.0059888 .0223776

dlpetr4
dlpetr3
L1. -.359984 .2707982 -1.33 0.184 -.8907387 .1707707

dlpetr4
L1. .2934989 .2817918 1.04 0.298 -.2588029 .8458008

dlibov
L1. .3462023 .1586279 2.18 0.029 .0352974 .6571072

_cons .0078284 .0073412 1.07 0.286 -.00656 .0222169

dlibov
dlpetr3
L1. -.1882698 .164429 -1.14 0.252 -.5105447 .134005

dlpetr4
L1. .0033991 .1711043 0.02 0.984 -.3319592 .3387574

dlibov
L1. .3298925 .096319 3.42 0.001 .1411107 .5186743

_cons .0069065 .0044576 1.55 0.121 -.0018303 .0156432


30 30

Raízes do VAR(1)
Dentro do círculo unitário: condição de estabilidade satisfeita

Eigenvalue stability condition

Eigenvalue Modulus

.1429536 + .1708578i .222774


.1429536 - .1708578i .222774
-.1232082 .123208

All the eigenvalues lie inside the unit circle.


VAR satisfies stability condition.
31 31

Construção de Modelos VAR

Diagnóstico
Para testar se o modelo é adequado, usamos os resíduos
(que guardam covariâncias contemporâneas) para construir
a versão multivariada da estatística de Box-Ljung-Pierce,
dada por

Q ( m) = T 
2
m
1
 =1 T − 
~
(
tr ˆ ( )' ˆ (0) ˆ ( ) ˆ (0)
~
−1
~ ~
−1
)
Sob H 0
~  (2n 2 (m− p ))

em que,
H0: não existe correlação serial no vetor de erros até a m-
ésima defasagem,
32

Construção de Modelos VAR


Diagnóstico
b) Teste LM para autocorrelação

H0: não existe correlação serial no vetor de erros na i-


ésima defasagem
(teste individual)

c) Teste de Normalidade
(Jarque-Bera Multivariado)
33

Observações

✓ definir componentes de Xt
(usar, por exemplo, princípios econômicos)

✓ ordem do VAR
(usar critérios de informação + teste LR)

Critérios:
1. BIC e Hannan-Quinn: para grandes amostras acertam
ordem do modelo
2. AIC e FPE: são bons quando o objetivo é previsão
34 34

Construção de Modelos VAR


Observação

Como no VAR só tenho variáveis endógenas e elas com


suas defasagens, temos, então, uma vantagem em relação
à Econometria Clássica, onde a previsão necessita dos
comportamentos futuros das variáveis exógenas.
35 35

Modelos Auto-regressivos Vetoriais


Exemplo 4

Faça um diagnóstico completo do VAR estimado no


exemplo 3.
36 36

. var dlpetr3 dlpetr4 dlibov, lags(1)


VAR(1)
Vector autoregression

Sample: 2000m3 - 2019m9 Number of obs = 235


Log likelihood = 1108.195 AIC = -9.329317
FPE = 1.78e-08 HQIC = -9.258096
Det(Sigma_ml) = 1.61e-08 SBIC = -9.152657

Equation Parms RMSE R-sq chi2 P>chi2

dlpetr3 4 .111121 0.0393 9.620712 0.0221


dlpetr4 4 .112729 0.0393 9.606052 0.0222
dlibov 4 .068449 0.0558 13.90007 0.0030

Coef. Std. Err. z P>|z| [95% Conf. Interval]

dlpetr3
dlpetr3
L1. -.4606925 .2669347 -1.73 0.084 -.9838749 .0624899

dlpetr4
L1. .4253808 .2777715 1.53 0.126 -.1190414 .969803

dlibov
L1. .2805397 .1563647 1.79 0.073 -.0259295 .5870089

_cons .0081944 .0072365 1.13 0.257 -.0059888 .0223776

dlpetr4
dlpetr3
L1. -.359984 .2707982 -1.33 0.184 -.8907387 .1707707

dlpetr4
L1. .2934989 .2817918 1.04 0.298 -.2588029 .8458008

dlibov
L1. .3462023 .1586279 2.18 0.029 .0352974 .6571072

_cons .0078284 .0073412 1.07 0.286 -.00656 .0222169

dlibov
dlpetr3
L1. -.1882698 .164429 -1.14 0.252 -.5105447 .134005

dlpetr4
L1. .0033991 .1711043 0.02 0.984 -.3319592 .3387574

dlibov
L1. .3298925 .096319 3.42 0.001 .1411107 .5186743

_cons .0069065 .0044576 1.55 0.121 -.0018303 .0156432


37 37
VAR(1)
Teste Jarque-Bera para normalidade dos erros

. varnorm

Jarque-Bera test

Equation chi2 df Prob > chi2

dlpetr3 7.706 2 0.02122


dlpetr4 551.526 2 0.00000
dlibov 11.525 2 0.00314
ALL 570.757 6 0.00000

Skewness test

Equation Skewness chi2 df Prob > chi2

dlpetr3 .12119 0.575 1 0.44818


dlpetr4 .19441 1.480 1 0.22372
dlibov .02105 0.017 1 0.89519
ALL 2.073 3 0.55740

Kurtosis test

Equation Kurtosis chi2 df Prob > chi2

dlpetr3 3.8534 7.131 1 0.00758


dlpetr4 10.495 550.045 1 0.00000
dlibov 4.0841 11.508 1 0.00069
ALL 568.684 3 0.00000 Problema
38 38
VAR(1)
Teste LM para autocorrelação nos erros
. varlmar, mlag(24)

Lagrange-multiplier test

lag chi2 df Prob > chi2

1 9.1232 9 0.42598
2 11.4008 9 0.24923
3 6.7061 9 0.66769
4 10.4297 9 0.31683
5 9.8916 9 0.35933
6 9.5732 9 0.38613
7 11.3985 9 0.24938
8 16.4793 9 0.05752
9 8.0473 9 0.52939
10 11.6466 9 0.23397
11 11.3598 9 0.25185
12 4.9959 9 0.83466
13 12.5773 9 0.18268
14 3.2080 9 0.95547
15 1.9027 9 0.99291
16 5.6893 9 0.77057
17 3.8492 9 0.92105
18 10.1697 9 0.33692
19 7.3705 9 0.59860
20 8.7839 9 0.45745
21 6.8863 9 0.64895
22 3.4703 9 0.94271
23 4.5633 9 0.87060
24 7.7641 9 0.55808

H0: no autocorrelation at lag order


39 39

Causalidade de Granger
Um dos principais problemas encontrados em pesquisas
empíricas está ligado à elucidação de relações de
causalidade entre variáveis.

Granger (1969) define causalidade em termos de


previsibilidade:
A variável X causa a variável Y, com respeito a um dado
universo de informação (que inclui X e Y), se o presente de
Y puder ser previsto mais eficientemente usando valores
passados de X, do que não usando esse passado, com toda
e qualquer outra informação disponível (incluindo os
valores passados de Y) sendo usada em ambos os casos.
40

Causalidade de Granger

Seja Pt (Y | B )

o preditor de EQM mínimo de Yt, usando o conjunto de


informação B e  2 (Y | B )

o correspondente EQM do preditor.


41

Causalidade de Granger

Definição: Dizemos que:

(a) X t → Yt : Xt causa Yt no sentido de Granger se


 2 (Yt | At )   2 (Yt | At − X t ).
Ou seja, Yt pode ser melhor previsto usando toda a
informação disponível, incluindo o passado de Yt e Xt.

Dize-se, ainda, que Xt é exógena ou antecedente a Yt.


42

Causalidade de Granger

Definição (cont.):

(b) X t  Yt : Xt causa instantaneamente Yt no sentido de


Granger se

( )
 2 Yt | At , X t   2 (Yt | At ).

Ou seja, o valor presente de Yt é melhor previsto se o valor


presente de Xt for incluído.
43

Causalidade de Granger
Definição 1. (cont.)

(c) Há feedback, e escrevemos


X t  Yt
se Xt causa Yt e Yt causa Xt.

(d) Há causalidade unidirecional de Xt para Yt


X t → Yt
E não há feedback.
44

Causalidade de Granger

Suponha que Yt 


Xt =  
~
Z t 
 ~ 
~

em que
Yt é um vetor r x 1;
~

Zt é um vetor s x 1;
~ r + s = n.
45

Causalidade de Granger

De acordo com o anteriormente exposto, podemos escrever

Yt  μ1   Ψ11 ( L) Ψ12 ( L)  a1t 


Xt =   =   +  ~   ~ ,
~ ~ ~
Z t  μ 2  Ψ 21 ( L) Ψ 22 ( L) a 2t 
 ~   ~   ~   ~ 
~
~

particionando o vetor , a matriz (L) e o vetor at de


acordo com a partição sugerida para o vetor Xt.
46

Causalidade de Granger

Se houver causalidade unidirecional do vetor Yt para o


vetor Zt, isto é, se Zt for melhor previsto pelo presente e
passado de Yt, mas não o contrário, deveremos ter

Ψ12 ( L) = 0
~ ~

e obteremos
Yt  μ1   Ψ11 ( L) 0  a1t 
Xt =   =   +  ~   ~ ,
~ ~ ~

Z t  μ 2  Ψ 21 ( L) Ψ 22 ( L) a 2t 
 ~   ~   ~   ~ 
~
~
47

Causalidade de Granger

Note que Zt pode ser expressa por

Z t = μ 2 + V( L) Yt + Ψ 22 ( L) a 2t ,
~ ~ ~ ~ ~ ~

que é um modelo de regressão dinâmica. Da equação


anterior, as condições

Ψ12 ( L) = 0
~
e V (L) = 0
~ ~ ~

implicam que Yt não causa Zt e vice versa. Nesta situação,


as duas séries serão ditas não-acopladas ou relacionadas
apenas instantâneamente.
48 48

Causalidade de Granger
Exemplo 5

Com base no modelo estimado no Exemplo 4, descreva as


relações de causalidade no sentido de Granger. Interprete
os resultados.
49 49

. var dlpetr3 dlpetr4 dlibov, lags(1)


VAR(1)
Vector autoregression

Sample: 2000m3 - 2019m9 Number of obs = 235


Log likelihood = 1108.195 AIC = -9.329317
FPE = 1.78e-08 HQIC = -9.258096
Det(Sigma_ml) = 1.61e-08 SBIC = -9.152657

Equation Parms RMSE R-sq chi2 P>chi2

dlpetr3 4 .111121 0.0393 9.620712 0.0221


dlpetr4 4 .112729 0.0393 9.606052 0.0222
dlibov 4 .068449 0.0558 13.90007 0.0030

Coef. Std. Err. z P>|z| [95% Conf. Interval]

dlpetr3
dlpetr3
L1. -.4606925 .2669347 -1.73 0.084 -.9838749 .0624899

dlpetr4
L1. .4253808 .2777715 1.53 0.126 -.1190414 .969803

dlibov
L1. .2805397 .1563647 1.79 0.073 -.0259295 .5870089

_cons .0081944 .0072365 1.13 0.257 -.0059888 .0223776

dlpetr4
dlpetr3
L1. -.359984 .2707982 -1.33 0.184 -.8907387 .1707707

dlpetr4
L1. .2934989 .2817918 1.04 0.298 -.2588029 .8458008

dlibov
L1. .3462023 .1586279 2.18 0.029 .0352974 .6571072

_cons .0078284 .0073412 1.07 0.286 -.00656 .0222169

dlibov
dlpetr3
L1. -.1882698 .164429 -1.14 0.252 -.5105447 .134005

dlpetr4
L1. .0033991 .1711043 0.02 0.984 -.3319592 .3387574

dlibov
L1. .3298925 .096319 3.42 0.001 .1411107 .5186743

_cons .0069065 .0044576 1.55 0.121 -.0018303 .0156432


50 50

Causalidade de Granger
Exemplo 5

H0: dlpetr4 não causa dlpetr3 no sentido de Granger


HA: dlpetr4 causa dlpetr3 no sentido de Granger
. vargranger

Granger causality Wald tests

Equation Excluded chi2 df Prob > chi2

dlpetr3 dlpetr4 2.3452 1 0.126


dlpetr3 dlibov 3.2189 1 0.073
dlpetr3 ALL 7.9827 2 0.018

dlpetr4 dlpetr3 1.7672 1 0.184


dlpetr4 dlibov 4.7632 1 0.029
dlpetr4 ALL 6.83 2 0.033

dlibov dlpetr3 1.311 1 0.252


dlibov dlpetr4 .00039 1 0.984
dlibov ALL 10.695 2 0.005
51 51

Processos Co-Integrados

Bueno, 2008 – Capítulo 7


Enders, 2004 – Capítulo 6
52 52

Introdução

• Até o momento, foi dito que para a modelagem se


variáveis em séries de tempo, é necessário que a série
seja estacionária.

• Todavia, se algumas ou todas as séries de um modelo são


I(1), os resultados estatísticos usuais, em geral, não são
mais válidos.

• De qualquer forma, poderíamos fazer uma análise dessas


séries na primeira diferença. Porém, muitas das
características de tais séries seriam perdidas.
53 53

Introdução
▪ Fora isso, séries de tempo não estacionárias
apresentam uma dinâmica em comum.

▪ Pode-se especificar um modelo mais completo


utilizando as informações contidas nas variáveis não
estacionárias.

▪ Esse modelo possui significado econômico, pois pode-


se dizer que suas variáveis, em virtude da dinâmica
comum, têm um componente de longo prazo e um de
curto prazo.
54 54

Introdução

• O termo que se utiliza é longo prazo porque as variáveis


não são estacionárias e, portanto, apresentam tendência
estocástica.

• Essa tendência estocástica justifica a designação de


relação de longo prazo. Se a tendência estocástica for
comum a todas as variáveis, diz-se que existe um
equilíbrio de longo prazo.
55 55

Regressão Espúria
56 56

Regressão Espúria

Granger e Newbold (1974) verificaram, via simulação, que


dadas duas séries completamente não correlacionadas,
mas I(1), a regressão de uma sobre a outra tenderá a
produzir uma relação aparentemente significativa.

Este é o problema da regressão espúria. Sendo assim,


existe a necessidade de desenvolvermos técnicas para
analisar relações entre séries não-estacionárias.
57 57

Regressão Espúria

Granger e Newbold (1974) deram o nome de problema de


regressão espúria ao fato de que a regressão por MQO gera
um valor para a estatística t que indica relação entre as duas
variáveis em estudo.

Observação: Uma regressão espúria costuma exibir valores


baixos da estatística de Durbin-Watson e um alto valor de R2.

Wooldridge (2003, pág. 613-615)


58 58

Regressão Espúria

Seja o modelo:
y t =  0 + 1x t + u t
Caso 1 – Se {xt} e {yt} são dois processos I(1) independentes,
a regressão pode apresentar uma estatística t elevada para
1. Caso isso ocorra, estamos diante de um caso de
regressão espúria.

Caso 2 – Se {xt} e {yt} são dois processos I(0) e apresentam


tendência, o problema se resolve incluindo uma tendência
linear.
59 59

Cointegração

Como dito anteriormente, preços em geral são I(1) e é


usual analisar os logaritmos destas séries, para investigar
co-integração.

Estabelecida uma relação de equilíbrio de longo prazo


entre log-preços, por exemplo, ajusta-se um modelo que
corrige desvios de curto prazo da relação de equilíbrio.

Este modelo é chamado Modelo de Correção de Erros.


60 60

Cointegração
61 61

Processos Co-Integrados

Uma combinação linear de processos I(1) será usualmente


I(1).

Em geral, se {xt} e {yt} forem ambos I(d), então a combinação


linear

ut = yt −  xt

será usualmente I(d).


62 62

Processos Co-Integrados
É possível, contudo, que ut seja integrado de uma ordem
menor, digamos I(d-b), b ≥ 0.

Se d = b = 1, então {xt} e {yt} serão I(1) e ut ~ I(0). Neste caso,


uma restrição opera nas componentes de longo prazo das
duas séries.

Ou ainda, as duas séries devem ter componentes de longo


prazo que se cancelam para produzir ut.

Dizemos que as séries são co-integradas.


63 63

Processos Co-Integrados

Co-integração implica que yt e xt compartilham tendências


estocásticas semelhantes e, de fato, como sua diferença ut é
estacionária, elas nunca divergem muito uma da outra. Ou seja, elas
caminharão juntas no longo prazo porque uma combinação linear
delas é reversível à média (estacionária).

Entretanto, no curto prazo há desvios dessa tendência comum, de


modo que ut é o erro de equilíbrio, porque expressa os desvios
temporários do equilíbrio de longo prazo.
64 64

Processos Co-Integrados
Definição (Engle e Granger). As componentes do vetor Xt são
co-integradas de ordem (d, b), e escrevemos Xt ~ C.I. (d, b),
se:

(a) todos as componentes de Xt são I(d);


(b) existe um vetor  = (1, ..., n)’, não-nulo, tal que

 ' X t = 1 X 1t +  +  n X nt ~ I (d − b), d  b  0.
~ ~

O vetor , de ordem n x 1, é chamado vetor de co-integração.


65 65

Processos Co-Integrados
Observações
(i) (cont.)
Por exemplo, se ’Xt ~I(0), temos que

X 1t = β2 X 2t +  + βn X nt + ut
com

ut ~ I (0).

Dizemos que ut é o resíduo de co-integração.


66 66

Processos Co-Integrados
Observações

(i) (cont.)
Em equilíbrio de longo prazo, ut = 0 e a relação de equilíbrio
de longo prazo é

X 1t = β2 X 2t +  + βn X nt .
67 67

Processos Co-Integrados
Observações

(ii) Todas as variáveis devem ser integradas de mesma


ordem.

Se elas forem integradas de ordem diferentes, não podem


ser co-integradas.
68 68

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração
Interessante de ser utilizado quando n = 2. Caso n > 2, pode
existir mais de um vetor de co-integração e usando o
procedimento de Jonhassen (extensão deste caso), só vou
estimar 1 vetor de co-integração, o que não é razoável.

Considere o vetor Xt = (yt zt)’ de dimensão 2x1. Ainda,


escreva
yt =  0 + 1z t + ut
69 69

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração
Forme os resíduos da regressão anterior, estimada por OLS,
e escreva o seguinte modelo:
m
 uˆt = uˆt −1 +   i uˆt −i +  t
i =1

estime-o e conduza um teste para verificar a validade das


seguintes hipóteses de interesse :

H0:  = 0 (série apresenta raiz unitária).


HA:  < 0 (série não apresenta raiz unitária).
70 70

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração

Sendo a hipótese nula rejeitada, então yt e zt são co-


integradas, e o valor de 1 tende a ter significado
econômico relevante.

Se yt e zt não são co-integradas, a regressão entre elas é


espúria e não significa nada.
71 71

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração
Há, porém, uma diferença importante no que diz respeito
aos valores críticos do teste CRADF (co-integrated
residuals ADF) a serem tomados como referência, uma vez
que os resíduos co-integrados estimados por OLS
provavelmente serão estacionários, já que o critério de
minimização da soma dos quadrados dos resíduos impõe
que a soma dos resíduos seja igual a zero.
72 72

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração
Nesse caso, as tabelas utilizadas nos testes ADF são
inadequadas, pois levam à rejeição da hipótese nula com
uma frequência maior do que a realmente devida.

Sendo assim, para evitar tal problema, é necessário fazer


uma correção nos valores dessas tabelas.

Engle e Granger (1987), MacKinnon (1991) e Enders (2004)


apresentam tabelas que podem ser usadas nos testes
CRADF.
73 73

Processos Co-Integrados
Procedimento de Engle e Granger para
Cointegração

Valores Críticos
para o teste de Co-integração sugerido por Engle-Granger

T 1% 5% 10%

50 -4,123 -3,461 -3,130

100 -4,008 -3,398 -3,087

200 -3,954 -3,368 -3,067

500 -3,921 -3,350 -3,054


74 74

Exercício 6

Considere as séries mensais do preço da Petrobrás ON e PN:

(a) Apresente o gráfico das duas séries. Graficamente, há


evidencias de cointegração?

(b) A regressão
𝒍𝒏 𝒑𝒓𝒆ç𝒐 𝑷𝑵𝒕 = 𝜸𝟎 + 𝜸𝟏 𝒍𝒏 𝒑𝒓𝒆ç𝒐 𝑷𝑵𝒕 + 𝝑𝒕
é espúria?

(c) Se as séries forem cointegradas, qual o vetor de


cointegração?
75 75

Exercício 6
(a) Apresente o gráfico das duas séries. Graficamente, há
evidencias de cointegração?
Distância entre linhas não
é sempre constante
76 76

Exercício 6 - Manual
(b) A regressão
𝒍𝒏 𝒑𝒓𝒆ç𝒐 𝑷𝑵𝒕 = 𝜸𝟎 + 𝜸𝟏 𝒍𝒏 𝒑𝒓𝒆ç𝒐 𝑷𝑵𝒕 + 𝝑𝒕
é espúria?
. reg lpetr4 lpetr3

Source SS df MS Number of obs = 237


F(1, 235) = 15517.15
Model 125.956723 1 125.956723 Prob > F = 0.0000
Residual 1.90755538 235 .008117257 R-squared = 0.9851
Adj R-squared = 0.9850
Total 127.864278 236 .541797789 Root MSE = .0901

lpetr4 Coef. Std. Err. t P>|t| [95% Conf. Interval]

lpetr3 .9925099 .0079676 124.57 0.000 .9768128 1.008207


_cons -.1532482 .0215698 -7.10 0.000 -.195743 -.1107533
77 77

Exercício 6 - Stata
(b) e (c)
H0: Resíduo apresenta raiz unitária – Não cointegra.
HA: Resíduo não apresenta raiz unitária - Cointegra
. egranger lpetr4 lpetr3, lags(0) regress

Engle-Granger test for cointegration N (1st step) = 237


N (test) = 236

Test 1% Critical 5% Critical 10% Critical


Statistic Value Value Value

Z(t) -2.827 -3.943 -3.362 -3.062

Critical values from MacKinnon (1990, 2010)

Engle-Granger 1st-step regression

lpetr4 Coef. Std. Err. t P>|t| [95% Conf. Interval]

lpetr3 .9925099 .0079676 124.57 0.000 .9768128 1.008207


_cons -.1532482 .0215698 -7.10 0.000 -.195743 -.1107533

Engle-Granger test regression

D._egresid Coef. Std. Err. t P>|t| [95% Conf. Interval]

_egresid
L1. -.0548825 .0194168 -2.83 0.005 -.0931357 -.0166292
78 78

Exercício 6 - Stata
(b) e (c)
H0: Resíduo apresenta raiz unitária – Não cointegra.
HA: Resíduo não apresenta raiz unitária - Cointegra

Engle-Granger test for cointegration N (1st step) = 120


N (test) = 119

Test 1% Critical 5% Critical 10% Critical


Statistic Value Value Value

Z(t) -5.695 -3.990 -3.388 -3.080

Critical values from MacKinnon (1990, 2010)

Engle-Granger 1st-step regression

lpetr4 Coef. Std. Err. t P>|t| [95% Conf. Interval]

lpetr3 .9575808 .0041188 232.49 0.000 .9494244 .9657371


_cons -.1242306 .0102589 -12.11 0.000 -.144546 -.1039151

Engle-Granger test regression

D._egresid Coef. Std. Err. t P>|t| [95% Conf. Interval]

_egresid
L1. -.2486198 .0436541 -5.70 0.000 -.3350669 -.1621727

Vetor de Cointegração
79 79

Processos Co-Integrados
Modelos de Correção de Erros Vetorial

• O modelo VEC é uma versão mais completa do VAR.

• A ideia básica é que o VAR com variáveis não


estacionárias, mas diferenciadas, omite informações
relevantes.

• O VEC corrige esse problema.


80 80

Processos Co-Integrados
Modelos de Correção de Erros
Para entendê-lo, considere o exemplo envolvendo os preços
de um mesmo produto em diferentes mercados, para facilitar
imagine apenas dois mercados.
Ainda, é razoável imaginar que essas duas variáveis
econômicas exibam uma relação de equilíbrio de longo
prazo. Imagine, por exemplo, que P1t e P2t sejam as séries de
preços do produto nos mercados 1 e 2, respectivamente.

Ainda, considere que a relação (normalizada) de equilíbrio de


longo prazo entre eles seja P1t – P2t.
81 81

Processos Co-Integrados
Modelos de Correção de Erros
A primeira pergunta que se faz é: será que essa relação é
obedecida em todos os períodos de tempo?
Em caso afirmativo, P1t – P2t = 0, ou seja, temos uma relação
matemática.
Em caso negativo, P1t – P2t = t. Aqui, t faz o papel dos
desvios de curto prazo.
Ainda, os desvios de curto prazo são corrigidos para que os
desequilíbrios sejam corrigidos e para que a co-integração
seja observada.
82 82

Processos Co-Integrados
Modelos de Correção de Erros
Suponha, por exemplo, que variações em P1t dependam de
desvios deste equilíbrio no instante t-1, ou seja,
P1t = 1(P1,t-1 – P2,t-1) + a1t,
e uma relação similar valha para P2t:
P2t = 2(P1,t-1 – P2,t-1) + a2t.

Suponha, também, que P1t e P2t sejam I(1); como P1t e P2t
são ambas I(0), os segundos membros dessas igualdades
devem ser I(0).
83 83

Processos Co-Integrados
Modelos de Correção de Erros
Supondo os erros a1t e a2t ruídos brancos estacionários,
segue-se que
i(P1,t-1 – P2,t-1) ~ I(0), i = 1, 2.

Logo, se 1  0 e 2  0, segue que P1t – P2t ~ I(0) e


representa uma relação de co-integração entre P1t e P2t.
84 84

Processos Co-Integrados
Modelos de Correção de Erros

X1t = 1(X1,t-1 – X2,t-1) + a11,1X1,t-1 + a12,1X2,t-1 + 1t


e
X2t = 2(X1,t-1 – X2,t-1) + a21,1X1,t-1 + a22,1X2,t-1 + 2t

que é um modelo VAR(1) nas primeiras diferenças com um


termo de correção de erro adicionado.

Os parâmetros 1 e 2 são relacionados à velocidade de


ajustamento. Se ambos forem nulos não há relação de longo
prazo.
85 85

Processos Co-Integrados
Modelos de Correção de Erros

Ainda, (1) pode ser escrito como

 
Xt − Xt −1 = α β' Xt −1 + A Xt −1 − Xt − 2  + ε t
~ ~ ~ ~ ~ ~ ~ ~  ~

ou
 
Xt =  I n + α β'+ A  Xt −1 − A Xt − 2 + ε t
~ ~ ~~ ~ ~ ~ ~ ~

Logo as séries que são co-integradas podem ser geradas


por um VAR.
86 86

Processos Co-Integrados
Modelos de Correção de Erros
Considere um modelo VAR(1) n-dimensional,

Xt = Φ Xt −1 + ε t
~ ~ ~ ~

Já foi estudado, anteriormente, que o processo descrito em


acima será estacionário se todos os autovalores
associados à matriz  estiverem dentro do círculo unitário.

Suponha que o processo seja não-estacionário, com um ou


mais auto-valores sobre o círculo unitário e os demais
dentro do círculo.
87 87

Processos Co-Integrados

Modelos de Correção de Erros


Como

In − Φ = 0
~ ~
a matriz
 = In - 
é singular.
Suponha que o posto de  seja
() = r (< n)
de modo que  pode ser decomposta como
88 88

Processos Co-Integrados
Modelos de Correção de Erros

 = ’,

em que
 e  apresentam ordem n x r e posto r.

Suponha que todas as componentes de Xt sejam I(1). Então,

 
Xt − Xt −1 = − I n − Φ  Xt −1 + ε t
~ ~ ~ ~ ~ ~
89 89

Processos Co-Integrados
Modelos de Correção de Erros

ou  Xt = − Π Xt −1 + ε t
~ ~ ~ ~

Portanto, como
α β' Xt −1 = −  Xt + ε t
~ ~ ~ ~ ~ ~

o segundo termo é I(0). Dessa forma, concluímos que o


lado esquerdo da igualdade só pode ser I(0). E continuará
sendo I(0) se o pré-multiplicarmos por
90 90

Processos Co-Integrados
Modelos de Correção de Erros
ou seja
β' Xt −1 ~ I (0)
~ ~

e, finalmente,
β' Xt ~ I (0).
~ ~

Segue-se que cada linha do resultado anterior representará


uma relação de co-integração.
Conclui-se, ainda, que a partir de um VAR(1) n-dimensional,
obtemos um modelo nas primeiras diferenças com
variáveis co-integradas.
91 91

Processos Co-Integrados
Modelos de Correção de Erros

A forma VEC no slide anterior é chamada de forma de


correção de equilíbrio ou de correção de erros.

Segundo Hendry e Juselius (2001), esta forma é mais


apropriada se quisermos discriminar entre efeitos de
ajustamento de curto prazo a relações de longo prazo e os
efeitos de variações nas diferenças defasadas.
92 92

Processos Co-Integrados
Modelos de Correção de Erros

Finalmente, considere um VAR(p) n-dimensional,

Xt = Φ1 Xt −1 + Φ 2 Xt −2 +  + Φ p Xt − p + ε t .
~ ~ ~ ~ ~ ~ ~ ~

O modelo em (7) será co-integrado de posto r, se

Π = I n − Φ1 −  − Φ p
~ ~ ~ ~
tiver posto r.
93 93

Processos Co-Integrados
Modelos de Correção de Erros

De acordo com um teorema proposto por Granger (vide, por


exemplo, Bueno, 2008, página 213), se uma matriz não tiver
posto completo ela poderá ser decomposta em duas
matrizes multiplicativas. Ou seja, em nosso caso, teremos
Π = α β'
~ ~ ~

Essa será uma propriedade bastante adequada para dar uma


interpretação econômica a séries temporais e é a base para
desenvolver o teste de co-integração multivariado de
Johansen, mais geral que o teste de Engle-Granger.
94 94

Processos Co-Integrados
Procedimento de Johansen
Johansen propõe um teste para definir o posto da matriz 
e, por conseqüência, o espaço de co-integração. Com base
nisso, podemos estimar os vetores de co-integração
contidos em .

A metodologia proposta pelo autor é interessante porque é


empreendida simultaneamente à estimação do modelo de
co-integração.

Ou seja, a metodologia proposta por Johansen permite a


estimação do VEC simultaneamente aos vetores de co-
integração.
95 95

Processos Co-Integrados
Procedimento de Johansen
Para identificar o posto, Johansen propõe dois testes,
baseados em uma estimação por máxima verossimilhança
restrita.

A ideia de Johansen é usar a configuração multivariada e


procurar o posto da matriz  de uma forma bastante
inteligente. De forma intuitiva,  é uma matriz n x n, cujo
posto é r < n, caso haja co-integração.

Se o posto dessa matriz for n, então as variáveis


endógenas são todas estacionárias. Se o posto da matriz
for nulo, então não existe co-integração e as variáveis são
não-estacionárias.
96 96

Processos Co-Integrados

Procedimento de Johansen

A idéia de posto nulo é análoga à idéia de raiz unitária no


modelo univariado.

Naquele caso, o coeficiente que multiplicava a variável


original defasada em um passo era nulo ante a presença de
raiz unitária. No caso multivariado, posto nulo significa que
a matriz  = 0. Dessa forma, trata-se de uma raiz unitária
multivariada.
97 97
Processos Co-Integrados

Procedimento de Johansen
O procedimento de Johansen é uma generalização
multivariada do teste ADF. Considere o seguinte modelo:

 Xt = Φ0 Dt + α β' Xt −1 + F1  Xt −1 +  + Fp −1 Xt −( p −1) + ε t (11)


~ ~ ~ ~ ~ ~ ~ ~ ~
~ ~

em que

Π = Φ1 +  + Φ1 − I n
~ ~ ~ ~

Dt - Contém termos determinísticos


~
(constantes, tendências, etc.).
98 98

Processos Co-Integrados
Procedimento de Johansen
O procedimento de Johansen (1988, 1995) para testar a
existência de co-integração é baseado nos seguintes
passos:
(i) Verificar a ordem de integração das séries envolvidas;

(ii) Verificar a existência de tendências lineares;

(iii) Especificar e estimar um modelo VAR(p) para o vetor Xt, que supomos
I(1);

(iv) Construir testes RV para se determinar o número de vetores de co-


integração, que sabemos ser igual ao posto da matriz ;

(v) Dados os vetores de co-integração (normalizados apropriadamente),


estimar o MCE (via EMV).
99 99

Exercício 7

a) Conduza o teste de co-integração proposto por


Johansen para as séries de preços da Petrobrás e o
Índice Ibovespa. Interprete os resultados.
b) Com base nos resultados do item anterior, estime um
modelo adequado para o vetor de variáveis resposta de
interesse e interprete as estimativas dos parâmetros.
100 100

Exercício 7
. vecrank lpetr3 lpetr4 libov, trend(rconstant) lags(1)

Johansen tests for cointegration


Trend: rconstant Number of obs = 236
Sample: 2000m2 - 2019m9 Lags = 1

5%
maximum trace critical
rank parms LL eigenvalue statistic value
0 0 1086.8541 . 26.6103* 34.91 Não Cointegram
1 6 1093.0561 0.05120 14.2062 19.96
2 10 1098.8301 0.04775 2.6583 9.42
3 12 1100.1592 0.01120

. vecrank lpetr3 lpetr4 libov if date<tm(2010m1), trend(rconstant) lags(1)

Johansen tests for cointegration


Trend: rconstant Number of obs = 119
Sample: 2000m2 - 2009m12 Lags = 1

5%
maximum trace critical
rank parms LL eigenvalue statistic value
0 0 568.95109 . 59.0422 34.91 Cointegram – com
1 6 588.47476 0.27973 19.9949 19.96
2 10 597.11972 0.13523 2.7050* 9.42 2 vetores
3 12 598.4722 0.02247
101 101

Exercício 7
. vecrank lpetr3 lpetr4 libov, trend(rconstant) lags(1)

Johansen tests for cointegration


Trend: rconstant Number of obs = 236
Sample: 2000m2 - 2019m9 Lags = 1

5%
maximum trace critical
rank parms LL eigenvalue statistic value
0 0 1086.8541 . 26.6103* 34.91 Não Cointegram
1 6 1093.0561 0.05120 14.2062 19.96
2 10 1098.8301 0.04775 2.6583 9.42
3 12 1100.1592 0.01120

Se não cointegram e as séries são não estacionárias, o


melhor que podemos fazer é estimar um VAR(1) com as
séries em sua primeira diferença, como escolhido no Slide 28
102 102

Exercício 7
. vecrank lpetr3 lpetr4 libov if date<tm(2010m1), trend(rconstant) lags(1)

Johansen tests for cointegration


Trend: rconstant Number of obs = 119
Sample: 2000m2 - 2009m12 Lags = 1

5%
maximum trace critical
rank parms LL eigenvalue statistic value
0 0 568.95109 . 59.0422 34.91 Cointegram – com
1 6 588.47476 0.27973 19.9949 19.96
2 10 597.11972 0.13523 2.7050* 9.42 2 vetores
3 12 598.4722 0.02247

Se as séries cointegram, precisamos primeiro definir a


melhor ordem do VAR para as séries originais e depois
estimar o VEC com uma ordem a menos que o VAR,
juntamente com o número de vetores de cointegração
encontrado pelo teste de Jonhansen.

Então, se foi definido como melhor VAR, o VAR(p), então o


VEC será VEC(p-1).
103 103

Exercício 7

. varsoc lpetr3 lpetr4 libov if date<tm(2010m1), maxlag(10)

Selection-order criteria
Sample: 2000m11 - 2009m12 Number of obs = 110

lag LL LR df p FPE AIC HQIC SBIC

0 194.427 6.2e-06 -3.4805 -3.45063 -3.40685


1 565.349 741.84 9 0.000 8.6e-09 -10.0609 -9.9414* -9.7663*
2 576.151 21.603 9 0.010 8.3e-09* -10.0936* -9.88454 -9.5781
3 583.442 14.583 9 0.103 8.6e-09 -10.0626 -9.76386 -9.32609
4 586.424 5.9642 9 0.743 9.6e-09 -9.95317 -9.56483 -8.99573
5 594.444 16.04 9 0.066 9.8e-09 -9.93535 -9.45739 -8.75696
6 599.802 10.716 9 0.296 1.0e-08 -9.86913 -9.30155 -8.46979
7 602.892 6.1804 9 0.722 1.2e-08 -9.76168 -9.10448 -8.14139
8 611.276 16.767 9 0.052 1.2e-08 -9.75047 -9.00366 -7.90924
9 621.439 20.327* 9 0.016 1.2e-08 -9.77163 -8.93519 -7.70944
10 624.346 5.814 9 0.758 1.3e-08 -9.66084 -8.73479 -7.37771

Endogenous: lpetr3 lpetr4 libov


Exogenous: _cons

AIC – VAR(2)
104 104
. vec lpetr3 lpetr4 libov if date<tm(2010m1), trend(constant) rank(2) lags(2) alpha dforce

Vector error-correction model

Sample: 2000m3 - 2009m12 Number of obs


AIC
=
=
118
-10.00318
Exercício 7
Log likelihood = 610.1877 HQIC = -9.812507
Det(Sigma_ml) = 6.47e-09 SBIC = -9.533574

Equation Parms RMSE R-sq chi2 P>chi2

D_lpetr3 6 .098839 0.1416 18.46854 0.0052


D_lpetr4 6 .09804 0.1557 20.64757 0.0021
D_libov 6 .077565 0.1435 18.75727 0.0046

Coef. Std. Err. z P>|z| [95% Conf. Interval] VEC(1) com 2 vetores de cointegração
D_lpetr3
_ce1
L1. .1230796 .316119 0.39 0.697 -.4965022 .7426614

_ce2
L1. -.2324077 .3681 -0.63 0.528 -.9538705 .4890551

lpetr3
LD. .0158936 .458508 0.03 0.972 -.8827655 .9145527

lpetr4
LD. -.3235169 .4937891 -0.66 0.512 -1.291326 .644292

Cointegração – relação de longo prazo estável


libov
LD. .4748801 .1729849 2.75 0.006 .1358359 .8139244

_cons .0062331 .0127504 0.49 0.625 -.0187573 .0312235

D_lpetr4
_ce1
L1. .2817353 .3135643 0.90 0.369 -.3328394 .8963099

_ce2
L1. -.3911338 .3651253 -1.07 0.284 -1.106766 .3244986

lpetr3
LD. .1121922 .4548026 0.25 0.805 -.7792044 1.003589

lpetr4
LD. -.4808669 .4897986 -0.98 0.326 -1.440855 .4791207

libov
LD. .5560248 .171587 3.24 0.001 .2197205 .892329

_cons .0066577 .0126474 0.53 0.599 -.0181308 .0314461

D_libov
_ce1
L1. -.1217643 .248078 -0.49 0.624 -.6079883 .3644596

_ce2
L1. .1867174 .2888708 0.65 0.518 -.3794588 .7528937

lpetr3
LD. .2291506 .3598194 0.64 0.524 -.4760825 .9343837

lpetr4
LD. -.6098697 .3875067 -1.57 0.116 -1.369369 .1496295

libov
LD. .5167792 .1357519 3.81 0.000 .2507103 .7828481

_cons .0217047 .0100061 2.17 0.030 .0020932 .0413163


105 105

Vetor de cointegração Exercício 7


Identification: beta is exactly identified

Johansen normalization restrictions imposed

beta Coef. Std. Err. z P>|z| [95% Conf. Interval]

_ce1
lpetr3 1 . . . . .
lpetr4 5.55e-17 . . . . .
libov -1.368243 .083176 -16.45 0.000 -1.531265 -1.205221
_cons 11.39668 . . . . .

_ce2
lpetr3 0 (omitted)
lpetr4 1 . . . . .
libov -1.327944 .0717623 -18.50 0.000 -1.468595 -1.187292
_cons 11.22286 . . . . .

Matriz de cargas – relevância do vetor de cointegração para as


variáveis de interesse
alpha Coef. Std. Err. z P>|z| [95% Conf. Interval]

D_lpetr3
_ce1
L1. .1230796 .316119 0.39 0.697 -.4965022 .7426614

_ce2
L1. -.2324077 .3681 -0.63 0.528 -.9538705 .4890551

D_lpetr4
_ce1
L1. .2817353 .3135643 0.90 0.369 -.3328394 .8963099

_ce2
L1. -.3911338 .3651253 -1.07 0.284 -1.106766 .3244986

D_libov
_ce1
L1. -.1217643 .248078 -0.49 0.624 -.6079883 .3644596

_ce2
L1. .1867174 .2888708 0.65 0.518 -.3794588 .7528937
106 106

Vetores de cointegração
Exercício 7
gen v1 = (1)*lpetr3+ (5.55e-17)*lpetr4+(-1.368243)*libov+ (11.39668)
gen v2 = (0)*lpetr3+(1)*lpetr4+(-1.327944)*libov+(11.22286)
tsline v1 v2 if date<tm(2010m1)

Você também pode gostar