Você está na página 1de 69

ECONOMETRIA II

2021-2022

4. Autocorrelação

Docente: Carlos Seixas


CONTEÚDO
4. Autocorrelação
• 4.1. Natureza do problema
• 4.2. Propriedades dos estimadores OLS em presença
de autocorrelação
• 4.3. Testes de detecção de autocorrelação
• 4.4. Métodos de estimação

NOTA:
Os slides disponibilizados não dispensam a leitura e o estudo
dos conteúdos apresentados no livro.
CONTEÚDO
4. Autocorrelação
• 4.1. Natureza do problema
• 4.2. Propriedades dos estimadores OLS em presença
de autocorrelação
• 4.3. Testes de detecção de autocorrelação
• 4.4. Métodos de estimação

NOTA:
Os slides disponibilizados não dispensam a leitura e o estudo
dos conteúdos apresentados no livro.
4. Autocorrelação |4.1. Natureza do Problema
𝐻3 : 𝐶𝑜𝑣 𝑢𝑖 , 𝑢𝑗 = 0, ∀𝑖, 𝑗 = 1, 2, … , 𝑛; 𝑖 ≠ 𝑗

Ausência de Autocorrelação entre os termos de perturbação.

Apesar de a hipótese se referir à


Correlação entre realizações covariância, usa-se este termo porque o
da mesma variável: a coeficiente de correlação linear entre
perturbação aleatória (𝑢) duas variáveis aleatórias será igual a zero
se também o for a covariância entre elas
4. Autocorrelação |4.1. Natureza do Problema
Violação de 𝐻3 → existe autocorrelação das perturbações aleatórias

Acontece desde que haja pelo menos duas perturbações distintas cuja
covariância seja diferente de zero:

∃𝑖, 𝑗; 𝑖 ≠ 𝑗: 𝐶𝑜𝑣(𝑢𝑖 , 𝑢𝑗 ) ≠ 0

Em termos matriciais, sendo 𝐶𝑜𝑣 𝑢𝑖 , 𝑢𝑗 = 𝜎𝑖𝑗 :


𝜎𝑢2 𝜎12 𝜎13 … 𝜎1𝑛
𝜎𝑢2 𝜎23 … 𝜎2𝑛
𝑽 = 𝜎21
⋮ ⋮ ⋮ ⋱ ⋮
𝜎𝑛1 𝜎𝑛2 𝜎𝑛3 … 𝜎𝑢2
4. Autocorrelação |4.1. Natureza do Problema

A matriz de variâncias e covariâncias dos termos de perturbação tem, na


presença de autocorrelação, pelo menos algum elemento não nulo fora
da diagonal principal.

(Lembrete: estamos a admitir a violação de H3, mas que se verificam


todas as outras hipóteses clássicas!)

V é uma matriz simétrica e definida positiva…


4. Autocorrelação |4.1. Natureza do Problema
Razões/causas para a existência de autocorrelação / Fontes de
autocorrelação:
são chamados casos de
falsa autocorrelação pois,
• Erros de especificação do modelo (violações de 𝐻0 );
embora esta exista, deriva
de erros… → não são estes
os casos que nos
• Erros de medida da variável dependente ; interessam pois, corrigindo
os erros, a autocorrelação
deixará de existir…
• Ocorre com mais frequência, embora não exclusivamente, quando de lida
com amostras de natureza cronológica ou temporal – prende-se,
normalmente, com regularidades associadas à sequência temporal da
variável dependente.
4. Autocorrelação |4.1. Natureza do Problema
Considere-se que, no período t, se observou 𝑌𝑡 < 𝐸 𝑌𝑡 , isto é, 𝑢𝑡 < 0
(lembrete: 𝐸 𝑢𝑡 = 0).

• Se não houver autocorrelação: nada se pode inferir quanto ao sinal


de 𝑢𝑡+1 , isto é, este poderá ser negativo ou positivo;

• Se houver autocorrelação positiva entre as perturbações, será mais


provável que 𝑢𝑡+1 também seja negativo (como foi 𝑢𝑡 )…
CONTEÚDO
4. Autocorrelação
• 4.1. Natureza do problema
• 4.2. Propriedades dos estimadores OLS em presença
de autocorrelação
• 4.3. Testes de detecção de autocorrelação
• 4.4. Métodos de estimação
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação
Ineficiência

Na presença de autocorrelação nos erros, os estimadores OLS


continuam a ser sendo cêntricos e consistentes, mas deixam de ser
eficientes (ou seja, não possuem mais variância mínima). Assim, seja 𝛽መ o
estimador OLS, então existe outro estimador 𝛽መ ∗ tal que:

𝑉𝑎𝑟 𝛽መ < 𝑉𝑎𝑟 𝛽መ ∗


4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação
Validade Estatística

Outra importante consequência da autocorrelação é a inconsistência do


estimador da variância de 𝛽, መ mesmo para amostras grandes. Como
resultado, as estatísticas de teste t e F deixam de ser válidas, pois
dependem da variância do estimador. Ou seja, na presença de
heterocedasticidade teremos:

𝐸 𝑆𝛽෡2 ≠ 𝑉𝑎𝑟 𝛽መ
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

A estimação de 𝐕𝐚𝒓(𝒖) apenas é viável caso se possa relacionar as


covariâncias entre si.

O que se faz, normalmente, pressupondo um padrão de autocorrelação


que permita reduzir o número de parâmetros desconhecidos da matriz…

Recurso a Processos Aleatórios Elementares:


• Processo de Médias Móveis de 1ª ordem – MA(1)
• Processo Auto-Regressivo de 1ª ordem – AR(1)
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo de Médias Móveis de 1ª ordem – MA(1)

𝑢𝑡 = 𝜀𝑡 + 𝜃𝜀𝑡−1 , ∀𝑡

Onde 𝜃 é uma constante não nula e 𝜀𝑡 são variáveis aleatórias, independentes e


identicamente distribuídas, de espectro branco, ou seja,

𝐸 𝜀𝑡 = 0, ∀𝑡
𝑉𝑎𝑟 𝜀𝑡 = 𝜎𝜀2
𝐶𝑜𝑣 𝜀𝑡 , 𝜀𝑡−1 = 0, ∀𝑡, 𝑠, 𝑠 ≠ 0

𝜀𝑡 “respeita” as hipóteses clássicas H1, H2 e H3


4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo de Médias Móveis de 1ª ordem – MA(1)

𝐸 𝑢𝑡 = 0, ∀𝑡

𝑉𝑎𝑟 𝑢𝑡 = 1 + 𝜃 2 𝜎𝜀2 , ∀𝑡

𝐶𝑜𝑣 𝑢𝑡 , 𝑢𝑡−1 = 𝜃𝜎𝜀2 ≠ 0, 𝑠𝑒 𝜃 ≠ 0

𝐶𝑜𝑣 𝑢𝑡 , 𝑢𝑡−2 = 0. Aliás 𝐶𝑜𝑣 𝑢𝑡 , 𝑢𝑡−𝑠 = 0, 𝑠𝑒 𝑠 = ±2,3, …


4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo de Médias Móveis de 1ª ordem – MA(1)

Resumindo

1 + 𝜃 2 𝜎𝜀2 , 𝑠𝑒 𝑠 = 0
𝐶𝑜𝑣 𝑢𝑡 , 𝑢𝑡−𝑠 =൞ 𝜃𝜎𝜀2 , 𝑠𝑒 𝑠 = ±1
0, 𝑠𝑒 𝑠 > 1, ∀𝑡, 𝑠 𝑖𝑛𝑡𝑒𝑖𝑟𝑜𝑠
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo de Médias Móveis de 1ª ordem – MA(1)

Tem memória apenas de um período: cada observação está


correlacionada com a imediatamente anterior ou a seguinte, mas não se
“lembra” do que se passou há dois ou mais períodos.
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

𝑢𝑡 = 𝜌𝑢𝑡−1 + 𝜀𝑡

Onde 𝜌 é uma constante tal que −1 < 𝜌 < 1 e 𝜀𝑡 é uma variável


aleatória de espetro branco. Frequentemente designa-se por inovação
do período 𝑡.
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

𝑢𝑡 = 𝜌𝑢𝑡−1 + 𝜀𝑡
𝑢𝑡 = 𝜌 𝜌𝑢𝑡−2 + 𝜀𝑡−1 + 𝜀𝑡
𝑢𝑡 = 𝜌2 𝑢𝑡−2 + 𝜌𝜀𝑡−1 + 𝜀𝑡

𝑢𝑡 = 𝜀𝑡 + 𝜌𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 + ⋯ + 𝜌𝑘 𝑢𝑡−𝑘

Sendo 𝜌 < 1, para 𝑘 infinitamente grande 𝜌𝑘 → 0:


𝑢𝑡 = 𝜀𝑡 + 𝜌𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 + ⋯ = ෍ 𝜌𝑟 𝜀𝑡−𝑟 , ∀𝑡


𝑟=0
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

𝐸(𝑢𝑡 ) = 0, ∀𝑡

𝜎𝜀2
𝑉𝑎𝑟(𝑢𝑡 ) = 𝜎𝑢2 , = , 𝑠𝑒 𝜌 < 1, ∀𝑡
1 − 𝜌2

Cov(𝑢𝑡 , 𝑢𝑡−1 ) = 𝜌𝜎𝑢2

Cov(𝑢𝑡 , 𝑢𝑡−2 ) = 𝜌2 𝜎𝑢2


4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

Resumindo
Cov(𝑢𝑡 , 𝑢𝑡−𝑠 ) = 𝜌 𝑠 𝜎𝑢2 , ∀𝑡, 𝑠
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

Então, verificam-se as hipóteses clássicas exceto [H3] mas a estimação


de 𝑽𝒂𝒓(𝒖) requer a estimação de 𝜌, para além da variância constante
𝜎𝑢2 .

𝜌 é o coeficiente de autocorrelação de 1ª ordem de 𝑢 (e também de 𝑌),


isto é,

Cov(𝑢𝑡 , 𝑢𝑡−1 ) Cov(𝑢𝑡 , 𝑢𝑡−1 )


Cov(𝑢𝑡 , 𝑢𝑡−1 ) = 𝜌𝜎𝑢2 ⇔ 𝜌 = = = 𝜌𝑢𝑡,𝑢𝑡−1
𝜎𝑢2 𝑉𝑎𝑟(𝑢𝑡 ) 𝑉𝑎𝑟(𝑢𝑡−1 )
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Processo Auto-Regressivo de 1ª ordem – AR(1)

E, mais genericamente, 𝜌 𝑠 é o coeficiente de autocorrelação de ordem s


de 𝑢 (assim como de 𝑌):

Cov(𝑢𝑡 , 𝑢𝑡−𝑠 ) Cov(𝑢𝑡 , 𝑢𝑡−𝑠 )


Cov(𝑢𝑡 , 𝑢𝑡−𝑠 ) = 𝜌 𝑠 𝜎𝑢2 ⇔ 𝜌 𝑠 = = = 𝜌𝑢𝑡,𝑢𝑡−𝑠
𝜎𝑢2 𝑉𝑎𝑟(𝑢𝑡 ) 𝑉𝑎𝑟(𝑢𝑡−𝑠 )
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

Generalização dos processos AR(1) e MA(1)

MA(q)
𝑢𝑡 = 𝜀𝑡 + 𝜃1 𝜀𝑡−1 + 𝜃2 𝜀𝑡−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞

AR(p)
𝑢𝑡 = 𝜌1 𝑢𝑡−1 + 𝜌2 𝑢𝑡−2 + ⋯ + 𝜌𝑝 𝑢𝑡−𝑝 + 𝜀𝑡

ARMA(p,q)
𝑢𝑡 = 𝜌1 𝑢𝑡−1 + 𝜌2 𝑢𝑡−2 + ⋯ + 𝜌𝑝 𝑢𝑡−𝑝 + 𝜀𝑡 + 𝜃1 𝜀𝑡−1 + 𝜃2 𝜀𝑡−2 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞
4. Autocorrelação |4.2. Propriedades dos
estimadores OLS em presença de autocorrelação

O processo AR(1) tem-se revelado muito útil em Economia e, por isso,


será alvo do nosso foco
CONTEÚDO
4. Autocorrelação
• 4.1. Natureza do problema
• 4.2. Propriedades dos estimadores OLS em presença
de autocorrelação
• 4.3. Testes de detecção de autocorrelação
• 4.4. Métodos de estimação
4. Autocorrelação |4.3. Deteção de Autocorrelação
Métodos de deteção de autocorrelação:

• Métodos informais:
São métodos meramente indicativos baseados na natureza do problema e
em abordagens de análise gráfica

• Métodos formais:
São métodos baseados em testes de hipótese
4. Autocorrelação |4.3. Deteção de Autocorrelação
Métodos de deteção de autocorrelação:

• Métodos informais:
São métodos meramente indicativos baseados na natureza do problema e
em abordagens de análise gráfica

• Métodos formais:
São métodos baseados em testes de hipótese
4. Autocorrelação |4.3. Deteção de Autocorrelação
Análise gráfica

Fonte: Gujarati & Porter


4. Autocorrelação |4.3. Deteção de Autocorrelação
Análise gráfica - Correlogramas
• ACF (Autocorrelation Function) / FAC

Um ACF mede a correlação média entre dados de uma série temporal e os


valores anteriores da série medidos para diferentes desfasamentos de tempo.

• PACF (Partial Autocorrelation Function) / FAC Parcial

PACF parcial é semelhante a um FAC, exceto que cada correlação parcial controla
qualquer correlação entre observações de um desfasamentos de tempo menor.
4. Autocorrelação |4.3. Deteção de Autocorrelação
Análise gráfica - Correlogramas
Assim, o valor de um ACF e um PACF no primeiro desfasamento de
tempo é o mesmo, porque ambos medem a correlação entre dados no
tempo t com os dados no tempo t−1. No entanto, no segundo
desfasamento de tempo, o ACF mede a correlação entre dados no
tempo t com dados no tempo t−2, enquanto o PACF mede a mesma
correlação, mas depois de controlar a correlação entre os dados no
tempo t com os do tempo t−1.
4. Autocorrelação |4.3. Deteção de Autocorrelação
4. Autocorrelação |4.3. Deteção de Autocorrelação
4. Autocorrelação |4.3. Deteção de Autocorrelação
4. Autocorrelação |4.3. Deteção de Autocorrelação
Métodos de deteção de autocorrelação:

• Métodos informais:
São métodos meramente indicativos baseados na natureza do problema e
em abordagens de análise gráfica

• Métodos formais:
São métodos baseados em testes de hipóteses:
• Durbin-Watson
• Breusch-Godfrey
4. Autocorrelação |4.3. Deteção de Autocorrelação
Métodos de deteção de autocorrelação:

• Métodos informais:
São métodos meramente indicativos baseados na natureza do problema e
em abordagens de análise gráfica

• Métodos formais:
São métodos baseados em testes de hipóteses:
• Durbin-Watson
• Breusch-Godfrey
4. Autocorrelação |4.3. Deteção de Autocorrelação
Durbin-Watson:

• Pressupõe autocorrelação gerada por um processo AR(1);

• Aplicável apenas a modelos com termo independente.


4. Autocorrelação |4.3. Deteção de Autocorrelação
Então, seja o modelo:

𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝑢𝑡 , 𝑡 = 1, … , 𝑛

em que 𝑢𝑡 segue um processo AR(1), isto é, 𝑢𝑡 = 𝜌𝑢𝑡−1 + 𝜀𝑡

onde 𝜀𝑡 é uma variável aleatória de espectro branco e 𝜌 < 1.


4. Autocorrelação |4.3. Deteção de Autocorrelação
Estatística do teste:

σ𝑛𝑡=2(𝑒𝑡 − 𝑒𝑡−1 )2
𝑑 = 𝐷𝑊 = 𝑛 2 → 𝑑 (𝑜𝑢 𝐷𝑊) ≈ 2 1 − 𝜌ො
σ𝑡=1 𝑒𝑡

𝑒𝑡 → resíduo de estimação do modelo por OLS

Sendo 𝜌 um coeficiente de correlação linear, −1 ≤ 𝜌 ≤ 1. Se o seu


estimador obedecer aos mesmos limites, termos 0 ≤ 𝑑 ≤ 4. E,
• 0 < 𝜌ො ≤ 1 (autocorrelação positiva) → 0 ≤ 𝑑 < 2;
• −1 ≤ 𝜌ො < 0 (autocorrelação negativa) → 2 < 𝑑 ≤ 4;
• 𝜌ො = 0 (ausência de autocorrelação) → 𝑑 ≈ 2.
4. Autocorrelação |4.3. Deteção de Autocorrelação
TABELAS próprias!
(Serão disponibilizadas no Moodle)
4. Autocorrelação |4.3. Deteção de Autocorrelação
Durbin e Watson enquadram o valor crítico dentro de dois limites

𝑑𝑙 e 𝑑𝑢

que dependem da
ordem da matriz X,
isto é, de n e k (na
verdade de k’ = k-1).
4. Autocorrelação |4.3. Deteção de Autocorrelação
Se:
𝐻0: 𝜌 = 0
𝐻1: 𝜌 > 0

Valor de 𝒅 Decisão
Rejeitar H0 → conclui-se pela
𝑑 < 𝑑𝑙
existência de autocorrelação positiva
𝑑𝑙 < 𝑑 < 𝑑𝑢 O teste é inconclusivo
Não rejeitar H0 → inexistência de
𝑑 > 𝑑𝑢
autocorrelação do tipo AR(1)
4. Autocorrelação |4.3. Deteção de Autocorrelação
Se:
𝐻0: 𝜌 = 0
𝐻1: 𝜌 < 0

Valor de 𝒅 Decisão
Não rejeitar H0 → inexistência de
𝑑 < (4 − 𝑑𝑢 )
autocorrelação negativa do tipo AR(1)
(4 − 𝑑𝑢 ) < 𝑑 < (4 − 𝑑𝑙 ) O teste é inconclusivo
Rejeitar H0 → existência de
(4 − 𝑑𝑙 ) < 𝑑 < 4
autocorrelação negativa do tipo AR(1)
4. Autocorrelação |4.3. Deteção de Autocorrelação
Condições de aplicabilidade do teste:

• Amostra constituída por observações respeitantes a períodos


consecutivos, sem interrupções;

• X contém uma coluna de elementos iguais a um, i.e., o modelo inclui


termo independente;

• X é determinística;

• O teste foi concebido para detetar autocorrelação em processos


AR(1).
4. Autocorrelação |4.3. Deteção de Autocorrelação
E se a estatística de DW ‘cai’ na zona de indecisão?

• Problema: não se consegue concluir pela existência ou inexistência


de autocorrelação (do tipo AR(1));

• O que fazer?
• Apesar dos vários procedimentos que têm vindo a ser sugeridos,
vamos recorrer ao teste de Durbin Watson modificado/critério
alargado
4. Autocorrelação |4.3. Deteção de Autocorrelação
Teste de Durbin Watson modificado/critério alargado:

Dado o nível de significância 𝛼:

1. 𝐻0: 𝜌 = 0 A um nível de significância de 𝛼,


𝐻1: 𝜌 > 0 rejeita-se H0 se d < 𝑑𝑈

2. 𝐻0: 𝜌 = 0 A um nível de significância de 𝛼,


𝐻1: 𝜌 < 0 rejeita-se H0 se 4-d < 𝑑𝑈

3. 𝐻0: 𝜌 = 0 A um nível de significância de 2𝛼,


𝐻1: 𝜌 ≠ 0 rejeita-se H0 se d < 𝑑𝑈 ou 4-d < 𝑑𝑈
4. Autocorrelação |4.3. Deteção de Autocorrelação
Métodos de deteção de autocorrelação:

• Métodos informais:
São métodos meramente indicativos baseados na natureza do problema e
em abordagens de análise gráfica

• Métodos formais:
São métodos baseados em testes de hipóteses:
• Durbin-Watson
• Breusch-Godfrey
4. Autocorrelação |4.3. Deteção de Autocorrelação
Breusch-Godfrey:

• Não pressupõe autocorrelação gerada por um processo AR(1);

• Aplicado em modelos autorregressivos

• Só tem validade assimptótica.


4. Autocorrelação |4.3. Deteção de Autocorrelação
i. Estimar por OLS o modelo original, 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + ⋯ +
𝛽𝑘 𝑋𝑘𝑡 + 𝑢𝑡 , e obter os respetivos resíduos de estimação 𝑒𝑡 , 𝑡 =
1,2, … , 𝑛.

ii. Estimar por OLS a seguinte regressão auxiliar:

𝑒𝑡 = 𝛼1 + 𝛼2 𝑋2𝑡 + ⋯ + 𝛼𝑘 𝑋𝑘𝑡 + 𝜓1 𝑒𝑡−1 + 𝜓2 𝑒𝑡−2 + ⋯ + 𝜓𝑝 𝑒𝑡−𝑝 + 𝑣𝑡

Em que 𝑣𝑡 é uma perturbação aleatória. Obter o 𝑅2 deste ajustamento


4. Autocorrelação |4.3. Deteção de Autocorrelação
iii. Testar

𝐻0 : 𝜓1 = 𝜓2 = ⋯ = 𝜓𝑝 = 0
𝐻1 : ∃𝜓𝑗 ≠ 0, 𝑗 = 1,2, … , 𝑝

Sob 𝐻0 , usa-se a estatística

𝐵𝐺 = 𝑛𝑅2 ~𝜒 2 𝑝

A rejeição da hipótese nula constitui evidencia estatística de existência


de autocorrelação dos termos de perturbação de 𝑢𝑡 .
4. Autocorrelação |4.3. Deteção de Autocorrelação
• Teste obriga à escolha de 𝑝:
o Dados anuais: 𝑝 = 1,2 𝑜𝑢 3
o Series de periodicidade infra-anual – usar outros valores (𝑝 = 4
para dados trimestrais e 𝑝 = 12 para dados mensais

• Na regressão auxiliar não se dispõe de 𝑒𝑡−1 , 𝑒𝑡−2 , … , 𝑒𝑡−𝑝 para as


primeiras 𝑝 observações. A regressão auxiliar é, assim, estimada
com 𝑛 − 𝑝 observações. A estatística de teste é dada assim por
𝑛 − 𝑝 𝑅2 .
o Pode utilizar-se as 𝑛 observações substituindo pelo valor zero
os resíduos desfasados em falta.
CONTEÚDO
4. Autocorrelação
• 4.1. Natureza do problema
• 4.2. Propriedades dos estimadores OLS em presença
de autocorrelação
• 4.3. Testes de detecção de autocorrelação
• 4.4. Métodos de estimação
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝜌
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝝆
• Sendo desconhecido 𝜌
4. Autocorrelação |4.4. Métodos de Estimação
Sendo conhecido 𝝆

1ª alternativa: Estimar 𝛽መ𝐺𝐿𝑆 = 𝑋 𝑇 Ω−1 𝑋 −1 𝑋 𝑇 Ω−1 𝑌 onde

1 −𝜌 0 ⋯ 0
1 −𝜌 1 + 𝜌2 −𝜌 … 0
−1
Ω = 0 −𝜌 1 + 𝜌2 … ⋮
1 − 𝜌2 ⋱ −𝜌
⋮ ⋮ ⋮
0 0 0 … 1 + 𝜌2
4. Autocorrelação |4.4. Métodos de Estimação
Sendo conhecido 𝝆

2ª alternativa: Estimar por OLS


𝑌𝑡∗ = 𝛽1∗ + 𝛽2 𝑋2𝑡
∗ ∗
+ 𝛽3 𝑋3𝑡 + ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝜀𝑡

∗ ∗
Onde: 𝑌𝑡∗ = 𝑌𝑡 − 𝜌𝑌𝑡−1 ; 𝑋2𝑡 = 𝑋2𝑡 − 𝜌𝑋2,𝑡−1 ; 𝑋3𝑡 = 𝑋3𝑡 − 𝜌𝑋3,𝑡−1 ;
෡1∗
𝛽
∗ መ
… ; 𝑋𝑘𝑡 = 𝑋𝑘𝑡 − 𝜌𝑋𝑘,𝑡−1 ; 𝛽1 = ; e 𝜀𝑡 = 𝑢𝑡 − 𝜌𝑢𝑡−1
1−𝜌

𝜀𝑡 respeita as hipóteses clássicas (estão repostas as hip. Clássicas e as


propriedades dos estimadores OLS) logo… → o modelo é passível de
estimação por OLS
4. Autocorrelação |4.4. Métodos de Estimação
Sendo conhecido 𝝆

Este método pode levar à perda de uma observação – utilizar a correção


de Prais-Winsten:

𝑌1∗ = 1 − 𝜌2 𝑌1


𝑋𝑗1 = 1 − 𝜌2 𝑋𝑗1 , 𝑗 = 2,3, … , 𝑘
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝝆
• Método de Cochrane-Orcutt
• Método de Durbin
• Método de mínimos quadrados não lineares
• Estimador consistente de matriz de variâncias e covariâncias dos
estimadores OLS
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝝆
• Método de Cochrane-Orcutt
• Método de Durbin
• Método de mínimos quadrados não lineares
• Estimador consistente de matriz de variâncias e covariâncias dos
estimadores OLS
4. Autocorrelação |4.4. Métodos de Estimação
O Método de Cochrane-Orcutt realiza-se em dois passos:

1º passo:
• Estimar por OLS o modelo original
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝑢𝑡

• Obter a série dos resíduos (𝑒𝑡 = 𝑌𝑡 − 𝑌෠𝑡 )

• Determinar uma estimativa de 𝜌 → estimar, por OLS, 𝑒𝑡 = 𝜌𝑒𝑡−1 +


𝑣𝑡 (em que 𝑣𝑡 é uma perturbação aleatória) para obter 𝜌ො
σ𝑛
𝑡=2 𝑒𝑡 𝑒𝑡−1
Note-se que o estimador OLS de 𝜌 é dado por 𝜌ො = σ𝑛 2
𝑡=2 𝑒𝑡−1
4. Autocorrelação |4.4. Métodos de Estimação
O Método de Cochrane-Orcutt realiza-se em dois passos:

2º passo: estimar por OLS o modelo transformado → equação de


diferenças generalizadas de 1ª ordem substituindo 𝜌 por 𝜌ො (estimado no
1º passo) na transformação das variáveis


𝑌𝑡∗ = 𝛽1∗ + 𝛽2 𝑋2𝑡

+ ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝜀𝑡

∗ ∗
Onde 𝑌𝑡∗ = 𝑌𝑡 − 𝑌𝑡−1 ;𝑋2𝑡 = 𝑋2𝑡 − 𝜌𝑋ො 2,𝑡−1 ; 𝑋3𝑡 = 𝑋3𝑡 − 𝜌𝑋
ො 3,𝑡−1 ; … ;
𝑋𝑘𝑡∗
= 𝑋𝑘𝑡 − 𝜌𝑋 ො 𝑘,𝑡−1 ; e 𝛽መ1∗ = 𝛽መ1 1 − 𝜌ො ; e 𝜀𝑡 = 𝑢𝑡 − 𝜌𝑢𝑡−1
𝛽෡1∗

𝛽1 = ; 𝛽መ2 , … , 𝛽መ𝑘 são obtidos diretamente do modelo transformado;
1−ෝ
𝜌
4. Autocorrelação |4.4. Métodos de Estimação
Nota:

Abordamos o Método de Cochrane-Orcutt em dois passos ou bietápico…

Mas seria possível repetir estes dois passos em iterações sucessivas, o


que conduziria ao chamado Método de Cochrane-Orcutt iterativo,
calculando uma nova série de resíduos usando as estimativas no 2º
passo.

O processo continuaria até ser preenchido algum critério desejado de


convergência.
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝝆
• Método de Cochrane-Orcutt
• Método de Durbin
• Método de mínimos quadrados não lineares
• Estimador consistente de matriz de variâncias e covariâncias dos
estimadores OLS
4. Autocorrelação |4.4. Métodos de Estimação
O Método de Durbin realiza-se em dois passos:

1º passo:
• Estimar por OLS a seguinte equação
𝑌𝑡 = 𝛽1∗ + 𝜌𝑌𝑡−1 + 𝛽2 𝑋2𝑡 + 𝛽2∗ 𝑋2,𝑡−1 + ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝛽𝑘∗ 𝑋𝑘,𝑡−1 + 𝜀𝑡

A estimativa do coeficiente do termo em 𝑌𝑡−1 fornece uma estimativa de


𝜌
4. Autocorrelação |4.4. Métodos de Estimação
O Método de Durbin realiza-se em dois passos:

2º passo:
• Estimar por OLS do modelo transformado, usando a estimativa de 𝜌
obtida no passo anterior:


𝑌𝑡∗ = 𝛽1∗ + 𝛽2 𝑋2𝑡

+ ⋯ + 𝛽𝑘 𝑋𝑘𝑡 + 𝜀𝑡

∗ ∗
Onde 𝑌𝑡∗ = 𝑌𝑡 − 𝑌𝑡−1 ;𝑋2𝑡 = 𝑋2𝑡 − 𝜌𝑋ො 2,𝑡−1 ; 𝑋3𝑡 = 𝑋3𝑡 − 𝜌𝑋
ො 3,𝑡−1 ; … ;

𝑋𝑘𝑡 = 𝑋𝑘𝑡 − 𝜌𝑋 ො 𝑘,𝑡−1 ; e 𝛽መ1∗ = 𝛽መ1 1 − 𝜌ො
෡1∗
𝛽

𝛽1 = ; 𝛽መ2 , … , 𝛽መ𝑘 são obtidos diretamente do modelo transformado;
1−ෝ
𝜌
4. Autocorrelação |4.4. Métodos de Estimação
O Método de Durbin tem a vantagem da simplicidade

Desvantagens:
• Pode-se obter 𝜌ො ≥ 1 no 1º passo
• A regressão auxiliar pode não ser exequível. Só o é se 𝑛 − 1 > 2𝑘
• Ignora que 𝛽𝑗∗ = −𝜌𝛽𝑗 no primeiro passo
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝝆
• Método de Cochrane-Orcutt
• Método de Durbin
• Método de mínimos quadrados não lineares
• Estimador consistente de matriz de variâncias e covariâncias dos
estimadores OLS
4. Autocorrelação |4.4. Métodos de Estimação
O Método de mínimos quadrados lineares
𝑛
2
min ෍ 𝑌𝑡 − 𝑓መ𝑡
෡1 ,𝛽
𝛽 ෡2 ,…,𝛽
෡𝑘 ,ෝ
𝜌
𝑡=2
Onde 𝑓መ𝑡 = 𝛽መ1 1 − 𝜌ො + 𝜌𝑌
ො 𝑡−1 + 𝛽መ2 𝑋2𝑡 − 𝜌𝑋
ො 2,𝑡−1 + ⋯ + 𝛽መ𝑘 ൫𝑋𝑘𝑡 −
𝜌𝑋
ො 𝑘,𝑡−1 ൯

Garante que 𝛽𝑗∗ = −𝜌𝛽𝑗

Resolvido em programas, porque não tem solução analítica. Podemos


exigir que 𝜌ො < 1
4. Autocorrelação |4.4. Métodos de Estimação
Foco no processo AR(1), sendo que alguns dos métodos descritos são
diretamente aplicáveis ou facilmente generalizáveis para outros tipos de
autocorrelação.

Métodos:
• Sendo conhecido 𝜌
• Sendo desconhecido 𝝆
• Método de Cochrane-Orcutt
• Método de Durbin
• Método de mínimos quadrados não lineares
• Estimador consistente de matriz de variâncias e covariâncias
dos estimadores OLS
4. Autocorrelação |4.4. Métodos de Estimação
Estimador consistente de matriz de variâncias e covariâncias dos
estimadores OLS

Newey e West propuseram um estimador de 𝑉𝑎𝑟 𝛽መ𝑂𝐿𝑆 que é


consistente na presença de heteroscedasticidade e/ou
autocorrelação e que viabiliza a inferência estatística.

Obtido através de software informático.

Seja 𝑐𝑗𝑗 , o j-ésimo elemento da diagonal principal da matriz com que



𝛽𝑗,𝑂𝐿𝑆 −𝛽𝑗
Newey e West estimam 𝑉𝑎𝑟 𝛽መ𝑂𝐿𝑆 . Então podemos usar
𝑐𝑗𝑗

Você também pode gostar