Você está na página 1de 67

Professor Cleomar Gomes

Bibliografia

2
Bibliografia

3
A4. Perturbações Esféricas: Homocedasticidade e não-autocorrelação

▪ Hipótese A4:
❖ Homocedasticidade: cada perturbação εi tem a mesma variância
constante e finita σ2 .

❖ Não-autocorrelação: cada perturbação εi não está correlacionada com


qualquer outra perturbação, εj.

▪ Perturbações Esféricas:
❖ Confirmam homocedasticidade e não-autocorrelação ao mesmo
tempo. Mais tarde vamos aprender a relaxar estas hipóteses.
4
Autocorrelação ou Correlação Serial

▪ A maioria das séries temporais em economia apresenta autocorrelação


positiva, ainda que seja possível a ocorrência de autocorrelação negativa.

5
Séries Temporais

▪ O resultado de uma regressão é um processo estocástico, isto é,


repleto de erros.

▪ Devemos tratar de problemas tais como:

❖ Autocorrelação

❖ Regressão Espúria

❖ Passeio Aleatório

❖ Raiz Unitária, etc.

6
Conceitos Importantes

▪ Processo Estocástico:

❖ Processo de série temporal com uma sequência de variáveis aleatórias


indexadas no tempo.

▪ Ruído Branco (White Noise)


❖ Tipo especial de processo de séries de tempo, com as seguintes características:

yt = εt

7
Ruído Branco simulado

RB
3

-1

-2
25 50 75 100

8
Estacionariedade

▪ Estacionariedade:

❖ Conceito fundamental para assegurarmos das propriedades estatísticas


dos resultados subsequentes.

❖ Neste caso, a série flutua em torno de uma média fixa:

❖ Variância: constante ao longo do tempo.

❖ Covariância: depende apenas da defasagem (h) e não de ‘t’

9
Processos Integrados

▪ Seja o Modelo AR(1): “ε” = Ruído Branco

❖ |Φ| < 1: Processo estacionário

➢ Processo Integrado de Ordem 0 → I(0)

➢ Não possui raiz unitária

➢ Converge a uma média de longo prazo

❖ |Φ| > 1: Processo não-estacionário

➢ Processo Integrado de Ordem 1 → I(1)

➢ Possui raiz unitária

➢ Não converge a uma média de longo prazo

10
Passeio Aleatório

▪ Suponha o modelo AR(1) do tipo:

𝑦𝑡 = 𝜌1 𝑦𝑡−1 + 𝜀𝑡

❖ Mas muitas séries econômicas são melhor caracterizadas pelo modelo


com ρ = 1 . Assim:
ε ~ iid (0, σ2)
𝑦𝑡 = 𝑦𝑡−1 + 𝜀𝑡 (independente e identicamente distribuído)

✓ Isso é um PASSEIO ALEATÓRIO.

✓ “y” é obtido a partir de seu valor anterior ‘yt-1’ adicionado de uma variável
aleatória de média zero.

✓ Um passeio aleatório é um caso especial de um processo de raiz unitária.

11
12
Alguns Padrões de Autocorrelação: Processos Autorregressivos

▪ Processo autorregressivo de 1a ordem - AR(1):

𝜖𝑡 = 𝜌1 𝜖𝑡−1 + 𝑢𝑡

✓ Admitindo: |ρ| < 1 (para garantir estacionaridade) e “ε” = RB

▪ Processo autorregressivo de 2a ordem - AR(2):

𝜖𝑡 = 𝜌1 𝜖𝑡−1 + 𝜌2 𝜖𝑡−2 + 𝑢𝑡

▪ Processo autorregressivo de ordem “p’ - AR(p).

𝜖𝑡 = 𝜌1 𝜖𝑡−1 + 𝜌2 𝜖𝑡−2 + 𝜌3 𝜖𝑡−3 + ⋯ + 𝜌𝑝 𝜖𝑡−𝑝 + 𝑢𝑡

13
AR (1): Autocorrelação

autocovariância
autocorrelação =
variância

▪ Autocorrelação de ordem “j”:

j
2
1j
j  2
 j
12

❖ Esta é a Função de Autocorrelação do Processo AR.

14
Processos Autorregressivos (AR)

 =   = 
3 4

3
2
2
1
1
Φ = 0,8 maior
0 0

-1
-1
resistência a
-2
-2
-3
mudanças (mais
-3 -4
25 50 75 100 25 50 75 100
persistente)
 = − =
3 3

2 2 Φ = -0,5 maior
1 1
volatilidade que Φ
0 0

-1 -1 = 0,8
-2 -2

-3 -3
25 50 75 100 25 50 75 100

15
Autocorrelação Parcial (FACP)

▪ O k-ésimo coeficiente de correlação parcial ϕkk de yt é definido por:


y t     k1 y t1   k2 y t2     kk y tk  e t

❖ Ele é uma medida da correlação entre yt e yt -k, levando em conta a


importância de yt -1, yt -2 ,..., yt –k+1

▪ Função de Autocorrelação - FAC:

❖ Correlação simples entre yt e yt -k

▪ Função de Autocorrelação Parcial - FACP:

❖ FACP: correlação parcial, controlando para os termos yt -1 , ..., yt –k+1 .


16
Autocorrelação Parcial (FACP)

▪ Processo AR (1):

❖ Apesar de yt -2 não aparecer diretamente no modelo, existe uma


correlação implícita entre yt e yt -2.

❖ Correlação implícita entre yt e yt -2 é igual à correlação entre yt e yt -1


(ρ1), multiplicada pela correlação entre yt -1 e yt -2 (também ρ1), ou seja,
ρ2 = (ρ1)2.

▪ Essas correlações indiretas estão presentes na FAC de qualquer


processo autorregressivo.

▪ A FACP elimina os efeitos destas correlações indiretas (implícitas).


17
Funções de Autocorrelação

y t     1 y t1   2 y t2     p y tp   t

▪ FAC do AR (1):

❖ Se a série for estacionária a FAC (correlograma) convergirá a zero.

▪ FACP do AR (1):

❖ A FACP entre yt e yt -2 é igual a zero.

❖ Na prática, a FACP de um processo AR(p) trunca na defasagem “p”,


justamente porque as correlações implícitas são eliminadas.

18
FAC e FACP: Exemplos de AR(1) (parâmetros 0,7 e -0,7)
MODELO FAC FACP
AR (p) Decai exponencialmente Truncada na defasagem “p”

Fonte: Enders (2004) 19


FAC e FACP: Exemplos

AR (2)

Fonte: Enders (2004)


20
21
Alguns Padrões de Autocorrelação: Processos de Média Móvel

▪ Processo de média móvel de 1a ordem - MA(1).

𝜖𝑡 = 𝑢𝑡 + 𝜃1 𝑢𝑡−1

▪ Processo de média móvel de 2a ordem - MA(1).

𝜖𝑡 = 𝑢𝑡 + 𝜃1 𝑢𝑡−1 + 𝜃2 𝑢𝑡−2

▪ Processo de média móvel de ordem “p’ - MA(q):

𝜖𝑡 = 𝑢𝑡 + 𝜃1 𝑢𝑡−1 + 𝜃2 𝑢𝑡−2 + ⋯ + 𝜃𝑞 𝑢𝑡−𝑞

▪ Hipótese inicial:

❖ O termo de erro εt é um RB, com média zero e variância σ².

22
Simulações de MA no eviews

() −  =  () −  = 


3 3

2 2

1 1

0 0

-1 -1

-2 -2

-3 -3
25 50 75 100 25 50 75 100

() −  = 
3

-1

-2

-3

-4
25 50 75 100

23
MA (1) e MA (q): Autocorrelação - FAC

▪ FAC do MA (1):
 2 
1  
1 2  2 1 2

▪ FAC do MA (q):
 j  j1  1  j2  2  q  qj 
j 
 q
j0
 2j

y t     k1 y t1   k2 y t2     kk y tk  e t

❖ FAC: correlação simples entre yt e yt –k

❖ FACP: correlação parcial, controlando para os termos yt -1 , ..., yt –k+1 .


24
Identificação

MODELO FAC FACP


MA (q) Truncada na defasagem “q” Decai exponencialmente

25
26
Modelos ARMA

▪ Uma classe importante destes modelos são os modelos ARIMA, cuja


formulação (Box & Jenkins, 1976).

❖ Vamos começar pela análise dos processos estacionários ARMA.

❖ Posteriormente, focaremos na parte “I” do modelo, que está


relacionada à questão da integração (ser ou não ser estacionário).

▪ Principal ideia da modelagem univariada de séries de tempo:

❖ Para a modelagem e previsão dos valores de uma variável, são


utilizados os valores passados da mesma, bem como os erros de
previsão passados.

27
Modelos ARMA

▪ ARMA: combinação dos 2 processos vistos anteriormente:


p q
y t  c   iy t1   j  tj
i1 j0

▪ ARMA (1, 1):


y t  i y t1   t  1  t1

▪ Autocorrelação do ARMA (1, 1):

▪ Autocorrelação do ARMA (p, q):

 j   1  j1  j1  1 , j  1.
1
28
Identificação

▪ Essa é a meta final:

❖ Fazer uma leitura das funções de autocorrelação para identificar as


defasagens corretas do modelo.

MODELO FAC FACP


AR (p) Decai exponencialmente Truncada na defasagem “p”

MA (q) Truncada na defasagem “q” Decai exponencialmente

ARMA (p, q) Decai exponencialmente Truncada na defasagem “p”


se j > q se j > p

29
A Estatística de Ljung-Box
▪ Estatística de Ljung-Box

▪ Hipótese nula: A soma das


correlações nula.

▪ Se uma das correlações for diferente


de zero, há evidência de existência
de um modelo ARMA (p, q).

30
Como você classificaria?

31
Como você classificaria?

32
33
Testes de Diagnósticos

▪ Com base nos resíduos da regressão:


❖ Construir gráfico temporal, histograma e estatísticas descritivas;

❖ Construir FAC e FACP dos resíduos.

▪ Se o modelo estiver bem especificado a FAC e FACP indicarão que


não há componente sistemático nos resíduos.
RESÍDUOS DO IPCA
2.0

1.5

1.0

0.5

0.0

-0.5

-1.0
1996 1998 2000 2002 2004 2006 2008 2010

34
Resíduos do IPCA - Correlograma

35
Teste Durbin-Watson (DW)

▪ Hipóteses que fundamentam a estatística DW:


❖ DW é um teste para a correlação de 1ª ordem:

❖ O modelo de regressão não inclui valores defasados da variável dependente


como uma das variáveis explicativas. (não se aplica a modelos AR)

▪ Expandindo a equação anterior:

Estes termos diferem em apenas 1 observação, podendo ser considerados iguais.. 36


Teste Durbin-Watson (DW)

▪ Assim:

▪ Definindo “ρ” como:

▪ Assim:

▪ Como -1 ≤ “ρ” ≤ 1, implica que: 0 ≤ d ≤ 4


❖ Sem correlação serial: DW ao redor de 2.

❖ Correlação serial positiva: DW < 2.

❖ Correlação serial negativa: 2 < DW < 4.


37
Teste de Normalidade (Teste Jarque-Bera - JB)

▪ Teste JB:

❖ Hipótese Nula: normalidade

K  32
JB  T
6
S  2
4

H 0  E t  3  0 E t  4  3
s s
e

H 0  E t  3  0 E t  4  3
s s
e

❖ Sob essa hipótese, a assimetria é igual a zero e a curtose é igual a 3.

❖ Onde “S” é a assimetria (skewness) e “K” é a curtose (kurtosis).

38
Curtose

▪ Curtose: Medida de dispersão que caracteriza o "achatamento" da curva da


função de distribuição.
❖ Curtose = 3: achatamento similar ao da distribuição normal → MESOCÚRTICA

❖ Curtose > 3: distribuição mais alta (afunilada) → LEPTOCÚRTICA

❖ Curtose < 3: distribuição mais "achatada“→ PLATICÚRTICA

39
Assimetria
▪ Grau de afastamento que uma distribuição apresenta do seu eixo de
simetria.

40
Resíduos do IPCA - Histograma

32
Series: Residuals
28 Sample 1995M02 2009M09
Observations 176
24
Mean -1.28e-16
20 Median -0.028688
Maximum 1.907128
16 Minimum -0.887911
Std. Dev. 0.363224
12
Skewness 1.326407
Kurtosis 7.791699
8

Jarque-Bera 219.9839
4
Probability 0.000000
0
-0.5 -0.0 0.5 1.0 1.5 2.0

41
Teste LM para Autocorrelação

▪ Para implementá-lo basta fazer a regressão:

𝜀𝑡 = 𝛽1 𝜀𝑡−1 + 𝛽2 𝜀𝑡−2 + ⋯ + 𝛽ℎ 𝜀𝑡−ℎ + 𝑢𝑡

❖ Hipótese nula: não há correlação serial.

❖ H0:

𝛽1 = 𝛽2 = ⋯ = 𝛽ℎ = 0

❖ H1:

𝛽1 ≠ 0, ou 𝛽2 ≠ 0, ⋯ ou 𝛽ℎ ≠ 0

42
Teste LM para Autocorrelação

Hipótese nula:
não há correlação serial

43
Teste para Variância Condicional Heteroscedástica: ARCH-LM

▪ ARCH: Autoregressive Conditional Heteroskedasticity.

❖ Hipótese Nula H0: não há características ARCH nos resíduos.

❖ Se existe esta característica, nossos modelos tradicionais não se


aplicam, pois deve-se modelar processos de (variâncias) volatilidades
nas séries.

❖ Esta é uma regressão dos quadrados dos resíduos numa constante e os


resíduos defasados ao quadrado até a ordem “q”.
44
Teste para Variância Condicional Heteroscedástica: ARCH-LM

Hipótese nula:
não há características ARCH

45
Teste RESET

▪ Teste geral para os seguintes erros de especificação:

❖ Variáveis omitidas;

❖ Forma funcional incorreta tanto em “y” quanto em “x” (logs, por


exemplo);

❖ Correlação entre o “X” e o erro.

▪ Ramsey (1969) mostrou que qualquer um destes erros de


especificação produzem média diferente de zero.

46
Teste RESET

47
48
Brasil: IPCA % mês (1995:01 a 2009:09)

IPCA
3.2

2.8

2.4

2.0

1.6

1.2

0.8

0.4

0.0

-0.4

-0.8
1996 1998 2000 2002 2004 2006 2008

49
Brasil: IPCA % mês (1995:01 a 2009:09)

Dependent Variable: IPCA


Method: Least Squares
Date: 10/10/09 Time: 23:21
Sample (adjusted): 1995M02 2009M09
Included observations: 176 after adjustments
▪ Quanto é o Φ para o
Variable Coefficient Std. Error t-Statistic Prob. IPCA brasileiro?
C 0.158394 0.041554 3.811757 0.0002
IPCA(-1) 0.728609 0.050781 14.34795 0.0000

R-squared 0.541941 Mean dependent var 0.605909 ▪ O que isso significa do


Adjusted R-squared 0.539308 S.D. dependent var 0.536678
S.E. of regression 0.364266 Akaike info criterion 0.829434 ponto de vista prático?
Sum squared resid 23.08801 Schwarz criterion 0.865462
Log likelihood -70.99016 Hannan-Quinn criter. 0.844047
F-statistic 205.8636 Durbin-Watson stat 1.943496
Prob(F-statistic) 0.000000

50
Brasil: IPCA % mês (1995:01 a 2009:09) – FAC e FACP

51
Brasil: Previsão da inflação
▪ Comportamento do IPCA efetivo e do ajustado pelo modelo
▪ Estimation Command: LS IPCA C IPCA(-1)
▪ Substituted Coefficients: IPCA = 0.15 + 0.72*IPCA(-1)
4

3
IPCA REAL AJUSTADO RESÍDUO
2009M01 0.48 0.36 0.12
2
2009M02 0.55 0.51 0.04
2
1 2009M03 0.20 0.56 -0.36
0 2009M04 0.48 0.30 0.18
-1
2009M05 0.47 0.51 -0.04
1
2009M06 0.36 0.50 -0.14
2009M07 0.24 0.42 -0.18
0
2009M08 0.15 0.33 -0.18
2009M09 0.24 0.27 -0.03
-1
1996 1998 2000 2002 2004 2006 2008

Residual Actual Fitted PREVISÕES


MODELO FOCUS BC
Isso daria uma taxa de inflação (IPCA) anual de 2009M10 0.33 0.30
2009M11 0.40 0.35
4,44% em 2009. A inflação efetiva foi 4,31%. 2009M12 0.45 0.39 52
Vamos fingir que o IPCA é um Modelo ARMA (1, 1)

Dependent Variable: IPCA


Method: Least Squares
Date: 10/19/09 Time: 22:34
Sample (adjusted): 1995M02 2009M09
Included observations: 176 after adjustments
Convergence achieved after 9 iterations
MA Backcast: 1995M01

Variable Coefficient Std. Error t-Statistic Prob.

C 0.586867 0.096289 6.094825 0.0000


AR(1) 0.690009 0.072241 9.551469 0.0000
MA(1) 0.083072 0.101607 0.817578 0.4147

R-squared 0.542907 Mean dependent var 0.605909


Adjusted R-squared 0.537623 S.D. dependent var 0.536678
S.E. of regression 0.364932 Akaike info criterion 0.838685
Sum squared resid 23.03929 Schwarz criterion 0.892727
Log likelihood -70.80427 Hannan-Quinn criter. 0.860604
F-statistic 102.7396 Durbin-Watson stat 2.013633
Prob(F-statistic) 0.000000

Inverted AR Roots .69


Inverted MA Roots -.08

53
FAC e FACP do IPCA - ARMA (1, 1)

Estimation Equation:
=========================
IPCA = C(1) + [AR(1)=C(2), MA(1)=C(3)]

Substituted Coefficients:
=========================
IPCA = 0.58 + [AR(1)=0.69,MA(1)=0.08]

54
55
Teste Dickey & Fuller

▪ Baseia-se na seguinte equação de teste:

𝑦𝑡 = 𝜙1 𝑦𝑡−1 + 𝜀𝑡

𝑦𝑡 − 𝑦𝑡−1 = 𝜙1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝜀𝑡

Δ𝑦𝑡 = 𝜌𝑦𝑡−1 + 𝜀𝑡

➢ Em que: 𝜌 = 1 − 𝜙1 .

➢ Se 𝜙1 = 1, então 𝜌 = 0 .

▪ Teste “t” com o seguinte teste de hipóteses:

56
Teste Dickey & Fuller: Problemas

▪ Os resultados do Teste DF somente são válidos apenas se ut for um


ruído branco.

▪ Quando existe algum tipo de dependência temporal no termo ut


ajustes são necessários.

▪ Existem testes mais robustos.

❖ O Teste de Dickey-Fuller Aumentado

❖ O Teste de Phillips-Perron

❖ Teste KPSS
57
Teste ADF: Augmented Dickey-Fuller

▪ Teste ADF:

❖ Utiliza “p” defasagens da variável dependente para “branquear" o


termo de erro.

𝛥𝑦𝑡 = 𝛼 + 𝛽𝑡 + 𝜌𝑦𝑡−1 + ෍ 𝜆𝑖 𝛥𝑦𝑡−𝑖 +𝜀𝑡


𝑖=1

❖ O modelo pode incluir constante e termo determinístico.

❖ Como escolher as defasagens “p” ?

❖ Via valores dos critérios de informação ou teste de autocorrelação.

58
Teste DF

Estimation Equation:
=========================
D(IPCA) = C(1)*IPCA(-1)

▪ Esta é uma regressão MQO normal de um teste DF.

▪ O problema é a tabulação do valor crítico.


59
Teste ADF: Augmented Dickey-Fuller

60
Teste ADF: Augmented Dickey-Fuller

61
Teste ADF: Augmented Dickey-Fuller
Null Hypothesis: IPCA has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=13)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -3.620754 0.0004


Test critical values: 1% level -2.578167
5% level -1.942645
10% level -1.615502

*MacKinnon (1996) one-sided p-values.


H0: a série tem raiz unitária
Augmented Dickey-Fuller Test Equation H1: a série é estacionária
Dependent Variable: D(IPCA)
Method: Least Squares
Date: 10/31/09 Time: 23:48
Sample (adjusted): 1995M02 2009M09
Lembre-se: o teste é unicaudal
Included observations: 176 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

IPCA(-1) -0.126102 0.034828 -3.620754 0.0004

R-squared 0.069273 Mean dependent var -0.008296


Adjusted R-squared 0.069273 S.D. dependent var 0.391903
S.E. of regression 0.378085 Akaike info criterion 0.898269
Sum squared resid 25.01592 Schwarz criterion 0.916283
Log likelihood -78.04769 Hannan-Quinn criter. 0.905576
Durbin-Watson stat 2.077178

62
Teste ADF: Augmented Dickey-Fuller (estimação com constante)
Null Hypothesis: IPCA has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=13)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -5.344307 0.0000


Test critical values: 1% level -3.467633
5% level -2.877823
10% level -2.575530

*MacKinnon (1996) one-sided p-values.

H0: a série tem raiz unitária


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(IPCA)
H1: a série é estacionária
Method: Least Squares
Date: 10/17/09 Time: 22:51
Sample (adjusted): 1995M02 2009M09 Lembre-se: o teste é unicaudal
Included observations: 176 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

IPCA(-1) -0.271391 0.050781 -5.344307 0.0000


C 0.158394 0.041554 3.811757 0.0002

R-squared 0.141002 Mean dependent var -0.008296


Adjusted R-squared 0.136065 S.D. dependent var 0.391903
S.E. of regression 0.364266 Akaike info criterion 0.829434
Sum squared resid 23.08801 Schwarz criterion 0.865462
Log likelihood -70.99016 Hannan-Quinn criter. 0.844047
F-statistic 28.56162 Durbin-Watson stat 1.943496
Prob(F-statistic) 0.000000

63
Outros Testes de Raiz Unitária

64
Teste ADF para o PIB
Null Hypothesis: PIB has a unit root
Exogenous: Constant
Lag Length: 3 (Automatic based on SIC, MAXLAG=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 3.656530 1.0000


Test critical values: 1% level -3.493747
5% level -2.889200
10% level -2.581596

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(PIB)
Method: Least Squares
Date: 10/17/09 Time: 22:55
Sample (adjusted): 1904 2008
Included observations: 105 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

PIB(-1) 0.018947 0.005182 3.656530 0.0004


D(PIB(-1)) 0.321761 0.099586 3.230992 0.0017
D(PIB(-2)) 0.271496 0.102625 2.645516 0.0095
D(PIB(-3)) -0.234339 0.102791 -2.279754 0.0247
C 4546.103 4067.012 1.117799 0.2663

R-squared 0.461149 Mean dependent var 27325.59


Adjusted R-squared 0.439595 S.D. dependent var 41333.63
S.E. of regression 30942.45 Akaike info criterion 23.56409
Sum squared resid 9.57E+10 Schwarz criterion 23.69047
Log likelihood -1232.115 Hannan-Quinn criter. 23.61530
F-statistic 21.39500 Durbin-Watson stat 2.015400
Prob(F-statistic) 0.000000

65
Principais Critérios de Informação
▪ Critério de Schwarz (SC, BIC ou SBC):

▪ Critério Akaike (AIC):

▪ Critério Hannan-Quinn (HQ):

“n” = número de parâmetros estimados (p + q + constante)


“T” = número de observações

▪ Quanto mais parâmetros estimados, menor o erro.

▪ Mas isso será penalizado na 2ª parcela do critério


66
Principais Critérios de Informação

Lag LogL LR FPE AIC SC HQ

0 -107.4946 NA 0.211418 1.283959 1.302479 1.291475


1 -56.91760 99.95681 0.117581 0.697250 0.734290* 0.712281*
2 -56.81344 0.204632 0.118835 0.707851 0.763412 0.730399
3 -54.66016 4.204628* 0.117224* 0.694203* 0.768284 0.724266
4 -54.65940 0.001482 0.118620 0.706028 0.798629 0.743607
5 -54.65011 0.017907 0.120020 0.717753 0.828873 0.762848
6 -54.46652 0.351977 0.121188 0.727414 0.857055 0.780025
7 -54.09640 0.705200 0.122097 0.734869 0.883030 0.794995
8 -52.42528 3.164257 0.121135 0.726926 0.893607 0.794569

* indicates lag order selected by the criterion


LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion

▪ Deseja-se o menor SC, AIC, HQ possível.

▪ Em termos de consistência assintótica: SC ≤ HQ ≤ AIC


67

Você também pode gostar