Você está na página 1de 5

Autocorrelação

A autocorrelação, também conhecida como correlação serial, ocorre quando os


resíduos de um modelo de regressão linear estão correlacionados entre si ao longo do
tempo ou de outra dimensão temporal. Isso significa que os erros do modelo exibem
uma estrutura sistemática e não aleatória. A presença de autocorrelação viola a
suposição de independência dos resíduos, o que pode levar a inferências incorretas e
imprecisas.
No contexto da regressão, o modelo clássico de regressão linear pressupõe que
essa autocorrelação não existe nos termos de erro ui. Simbolicamente:

(1)
Em outras palavras, o modelo clássico pressupõe que o termo de erro
relacionado a qualquer uma das observações não é influenciado pelo termo de erro de
qualquer outra observação. Contudo, se for verificada essa dependência, teremos
autocorrelação. Simbolicamente:

(2)
A Figura 1 apresenta alguns padrões plausíveis de presença e de ausência de
autocorrelação. As Figuras 1a a d mostram que há alguns padrões discerníveis entre os
u. A Figura 1a mostra um padrão cíclico; as Figuras b e c sugerem tendências lineares,
ascendentes e descendentes, nos termos de erro; enquanto a Figura 1d indica que termos
de tendência linear e quadrática estão presentes. Somente a Figura 1e indica ausência de
padrão sistemático, confirmando a hipótese de ausência de autocorrelação do modelo de
regressão linear clássico.
Figura 1- Padrões de presença e ausência de autocorrelação
Principais causas da autocorrelação
- Inércia: séries econômicas costumam apresentar ciclos, ou seja, períodos de
crescimento ou decaimento. Quando esse comportamento se reflete nos fatores não
observados (et), é comum que mudanças na tendência ocorreram lentamente.

- Falhas de especificação: a autocorrelação pode ser devida à ausência de um


regressor ou falha na especificação da forma funcional. Os erros expressariam, assim,
um padrão sistemático devido à ausência dessas informações.

- Defasagens: as decisões econômicas em um período t dependem, muitas vezes,


de informações defasadas do período t–1. Desconsiderar esse tipo de relação sujeitaria
os erros à correlação serial.

Consequências
Ineficiência dos Estimadores de MQO: Na presença de autocorrelação nos
erros, os estimadores de MQO continuam sendo não viesados e consistentes, mas
deixam de ser eficientes (ou seja, não possuem mais variância mínima). Em outras
palavras, seja β^ o estimador de MQO, então existe outro estimador β^* tal que:

Tendenciosidade da Variância dos Estimadores: Outra importante


consequência da autocorrelação é o viés do estimador da variância de β^, mesmo para
amostras grandes (inconsistência). Como resultado, as estatísticas de teste t e F deixam
de ser válidas, pois dependem da variância do estimador. Em outras palavras, na
presença de autocorrelação teremos:
Detecção
A autocorrelação pode ser detectada por meio de gráficos de autocorrelação dos
resíduos ou testes estatísticos, como os testes de Durbin-Watson e de Breusch–
Godfrey.
O teste de Durbin-Watson é baseado nos resíduos da regressão. A estatística de
teste é calculada usando a fórmula:

(3)
onde eᵢ são os resíduos eᵢ₋₁ é o resíduo anterior. O valor d é comparado aos
valores críticos da tabela do teste de Durbin-Watson.
Expandimos a Equação (3) para obter:

(4)
Uma vez que diferem apenas em uma observação, são

aproximadamente iguais. Assim, sendo , a Equação (4) pode ser escrita


como:

(5)
em que ⁓ significa aproximadamente.
Agora vamos definir:

ou (6)
como o coeficiente de autocorrelação de primeira ordem amostral, um estimador
de ρ. Usando a Equação (6), podemos expressar a Equação (5) como:
(7)
Mas, como -1 ≤ ρ ≤ 1, a Equação (7) implica que:
(8)
Esses são os limites de d; qualquer valor estimado de d deve ficar entre esses
limites.
Teste de Breusch–Godfrey (BG)
Para evitar algumas das armadilhas do teste d de Durbin-Watson, os estatísticos
Breusch e Godfrey desenvolveram um teste de autocorrelação que é genérico no sentido
de que não permite (1) regressores não estocásticos, como os valores defasados do
regressando; (2) esquemas autorregressivos de ordem superior, como AR(1), AR(2)
etc.; e (3) médias móveis simples ou de ordem mais elevada de termos de erro de ruído
branco, como "t na Equação .
O teste BG, que também é conhecido como teste LM, é feito como se segue:
usamos o modelo de regressão de duas variáveis para ilustrar o teste, embora muitos
regressores possam ser acrescentados a ele. Seja:
(9)
Supomos que o termo de erro ut siga um esquema autorregressivo de ordem p,
AR(p), como se segue:
(10)
em que εt é um termo de erro de ruído branco, como examinado anteriormente.

A hipótese nula H0 a ser testada é que:


Ou seja, não há correlação serial de qualquer ordem. O teste BG envolve as
seguintes etapas:
1. Estime a Equação (10) pelo MQO e obtenha os resíduos, u^t.
2. Faça a regressão u^t contra o Xt original e em que os últimos são
os valores defasados dos resíduos estimados na etapa 1. Note que para fazer essa
regressão teremos apenas (n - p) observações. Em suma, efetue a seguinte regressão:

(11)
e obtenha R2 dessa regressão (auxiliar).
3. Se o tamanho da amostra for grande (tecnicamente infinito), Breusch e
Godfrey mostraram que:

(12)
Assintoticamente, n - p vezes o valor R2 obtido da regressão auxiliar (11) segue
a distribuição do qui-quadrado com p graus de liberdade. Se em uma aplicação (n - p)
R2 excede o valor crítico do qui-quadrado no nível de significância escolhido,
rejeitamos a hipótese nula, em que pelo menos ρ na Equação (10) é estátisco e
significamente diferente de zero.
Medidas corretivas
Se, depois de aplicarmos um ou mais testes diagnósticos de autocorrelação,
verificarmos a presença dela, devemos prosseguir da seguinte forma:
1. Tentar verificar se é um caso de autocorrelação pura e não o resultado da
especificação equivocada do modelo.
2. Se for autocorrelação pura, podemos usar a transformação adequada do
modelo original de modo que, no modelo transformado não tenhamos o problema de
autocorrelação (pura). Para isso teremos de usar algum tipo de método de mínimos
quadrados generalizados (MQG).
3. Em amostras grandes, podemos usar o método de Newey-West para obter os
erros padrão dos estimadores de MQO que estão corrigidos para a autocorrelação.
Dessa forma, a autocorrelação é uma questão fundamental em análise de dados,
pois pode distorcer a precisão das estimativas e conclusões derivadas de modelos
estatísticos. Portanto, o reconhecimento da natureza do problema da autocorrelação,
juntamente com a aplicação de testes apropriados e a implementação de medidas
corretivas adequadas, fortalece a integridade e a precisão das análises estatísticas.

Você também pode gostar