Você está na página 1de 27

Universidad Mayor

Facultad de Humanidades
Ingeniería Comercial
Econometría

Autocorrelación
Econometría

Integrantes:

-Felipe Aillapan

-Cristóbal Cáceres

- Monserrat Fernández

-María José Gallardo

- Germán Jara

- Jorge Monroy

- Matías Sepúlveda

Profesora: Verónica Escobar


Índice
INTRODUCCIÓN A LA AUTOCORRELACIÓN. 3

¿QUÉ ES LA AUTOCORRELACIÓN? 4

CAUSAS DE LA AUTOCORRELACIÓN. 6

CONSECUENCIAS. 9

ESTIMACIÓN DE MCO EN PRESENCIA DE AUTOCORRELACIÓN 10

ESTIMADOR MELI EN PRESENCIA DE AUTOCORRELACIÓN. 12

ESTIMACIÓN POR MCO TOMANDO EN CUENTA LA AUTOCORRELACIÓN 13

ESTIMACIÓN IGNORANDO MCO EN LA AUTOCORRELACIÓN 14

TIPOS DE AUTOCORRELACIÓN. 15

DETECCIÓN DE LA AUTOCORRELACIÓN 16

¿QUÉ HACER CUANDO EXISTE AUTOCORRELACIÓN? 22

EJERCICIO EXPLICADO 24

CONCLUSIÓN 26

BIBLIOGRAFÍA 27

Autocorrelación Página 2
Introducción a la Autocorrelación.
A través de la econometría encontramos múltiples formas de analizar la economía
y sus fenómenos. Uno de ellos es el análisis de regresión, en el cual estudiamos la
relación de una variable dependiente (Y) y una o más variables independientes o
explicativas, con el fin de mejorar la precisión del análisis se añaden variables, como por
ejemplo el error y los cuadrados.

Cuando tenemos solo una variable independiente, tenemos el siguiente modelo, llamado:

Por otra parte cuando tenemos más de una variable independiente, el modelo se llamará,
modelo de regresión múltiple, siendo de esta forma:

El modelo de regresión lineal múltiple es idéntico al modelo de regresión lineal simple, con
la única diferencia de que aparecen más variables explicativas.

Autocorrelación Página 3
Sea de simple o múltiple el modelo de regresión tiene ciertos supuestos, que norman este
modelo, uno de ellos habla que de que no existe autocorrelación entre las
perturbaciones, es decir que las perturbaciones no presentan patrones sistemáticos, por
ende su autocorrelación es igual a cero.

El objetivo de este trabajo, es explicar de forma detallada que es la


autocorrelación, explicar el supuesto y que ocurre cuando se viola dicho supuesto.

¿Qué es la autocorrelación?
La autocorrelación es una relación entre las perturbaciones (µ), violando así uno
de los supuestos para estimar el modelo a partir de la independencia que debe existir
entre estas variables, El término autocorrelación se define como la “correlación entre
miembros de series de observaciones ordenadas en el tiempo (como en datos de
series de tiempo) o en el espacio (como en datos de corte transversal)”.
Cabe recalcar que en el contexto de regresión, el modelo clásico de regresión lineal
supone que no existe tal autocorrelación en las perturbaciones.

Este problema se produce en estudios econométricos sobre series históricas. Lo que


sucede en estos casos, es que las variables independientes deberían ser las únicas que
expliquen nuestro modelo de análisis, y no lo que ha ocurrido anteriormente, es decir lo
ocurrido previo al análisis no debería afectar el comportamiento de la variable
dependiente. En estos casos los estimadores de mínimos cuadrados ordinarios (MCO) o
mínimos cuadrados lineales dejan de ser eficientes.

Autocorrelación Página 4
Como primera aproximación se asume que las observaciones se generan de la siguiente
manera:
Yt =a + b Xt+ ut
ut=ρ ut
1+εt ; para –1< ρ<1
● Si ρ = 0 no existe autocorrelación
● Si ρ = 1 existe autocorrelación positiva perfecta
● Si ρ =-1 existe autocorrelación negativa perfecta

Patrones de la autocorrelación.

Autocorrelación Página 5
Causas de la Autocorrelación.
La autocorrelación, por lo general se produce mucho en series históricas en las
cuales los errores se mantienen a través del tiempo. Entre las principales causas de la
autocorrelación tenemos las siguientes:
✓ Inercia: cuando la variable debe crecer en el tiempo. También llamada pasividad.
Como sabemos las series temporales o variables temporales, tales como el PIB, el
IPC, la producción, desempleo, etc. Luego de una recesión, cuando se inicia la
recuperación económica, por lo general estas series tienden a moverse hacia
arriba, en este movimiento ascendente los valores de la serie en un punto
determinado del tiempo, serán mayores a los anteriores. Es por estos que las
observaciones de estas series serán interdependientes.

✓ Sesgo de especificación: cuando la forma funcional elegida no es la correcta o


cuando se omiten variables, se genera un comportamiento sistemático de la
variable de forma estocástica. existen dos tipos de sesgos de especificación, caso
de las variables excluidas y el de la forma funcional incorrecta.
- Caso de la variable excluida: Ocurre cuando se omiten variables, lo cual
genera un comportamiento sistemático en el término estocástico. Por
ejemplo, suponga que tenemos el siguiente modelo de demanda:

En donde Y= cantidad de té demandada, X2= precio del té, X3=ingreso


del consumidor, X4=precio del café y t= tiempo. Sin embargo, por
alguna razón se efectúa la siguiente regresión:

Ahora, si es el modelo “correcto”, el “verdadero” o la relación verdadera,


efectuar la regresión anterior equivale a permitir que vt=β4 X4t + ut. Así,
en la medida en que el precio del Café afecte el consumo de Té, el
término de error o de perturbación “v” reflejará un patrón sistemático, lo
que crea una falsa autocorrelación.

Autocorrelación Página 6
-Forma Funcional Incorrecta: Ocurre cuando se elige mal la forma
funcional, lo cual genera un comportamiento sistemático en el término
estocástico.
Suponga que el modelo “verdadero” o correcto en un estudio de costo-
producción es el siguiente:

Pero se ajusta el siguiente modelo:

La curva de costo marginal correspondiente al “verdadero” modelo se


muestra en la figura, junto con la curva de costo lineal “incorrecta”.
Como se muestra en la figura, entre los puntos A y B la curva de costo
marginal lineal sobreestimará consistentemente el costo marginal
verdadero, mientras que más allá de estos puntos, lo subestimará
consistentemente. Este resultado es de esperarse porque el término de
perturbación vi es, en realidad, igual a producción^2 + ui, y, por tanto,
capta el efecto sistemático del término producción^2 sobre el costo
marginal. En este caso, “vi” reflejará autocorrelación por el uso de una
forma funcional incorrecta.

Autocorrelación Página 7
✓ Tiempo de ajuste: tiene que ver con el periodo en que los agentes económicos
procesan toda la información, es así como un fenómeno determinado puede
afectar a más de un periodo a lo largo del tiempo.

✓ Preparación de los datos: al momento de ordenar datos con respecto a alguna


de las variables, se pueden introducir un proceso que aparentemente esté
autocorrelacionado

✓ Manipulación de datos: en el análisis empírico generalmente se “manipulan” los


datos simples. Es el caso, en las regresiones de series de tiempo con datos
trimestrales, generalmente estos datos vienen de datos mensuales a los que se
añaden simplemente las observaciones de tres meses y se divide la suma entre 3.
Este procedimiento de promediar las cifras suaviza en cierto grado los datos al
eliminar las variaciones en los datos mes a mes. Por lo tanto, la gráfica referente a
datos trimestrales aparece mucho más suave que la que contiene los datos
mensuales, y este suaviza miento puede, por sí mismo, inducir un patrón
sistemático en las perturbaciones, lo que agrega autocorrelación.

✓ Fenómeno telaraña: en el mercado agrícola, la oferta de productos se ve


afectada por un este fenómeno, en donde la oferta reacciona al precio con un
rezago de periodo, ya que la decisión se demora más en tomarse (tiempo de
ajuste) es por eso que la oferta y el precio de un cultivo debe tomarse en base a
años anteriores. Siendo de esta forma una función de oferta que siempre depende
del tiempo pasado (Pt-1)

✓ No estacionalidad: en el caso de estos modelos que se ven afectados por el


tiempo, las variables no son estacionarias, por lo que su error tampoco lo será.
Siendo el valor que tome el error, el valor de la autocorrelación.

Autocorrelación Página 8
Consecuencias.
La consecuencia más grave de la autocorrelación de las perturbaciones es que la
estimación MCO deja de ser eficiente y la inferencia estadística también se verá afectada.
Las consecuencias dependen del tipo de autocorrelación (positiva o negativa):

1. Cuando se tiene autocorrelación positiva, la varianza y covarianza de los residuos


esta subestimada, si el tipo de autocorrelación es negativa, se tiene una
sobrestimación de la misma.
2. Cuando se tiene autocorrelación positiva, la varianza y covarianza de los
coeficientes (betas) esta subestimada, si el tipo de autocorrelación es negativa, se
tiene una sobrestimación de la misma.
3. Cuando se tiene autocorrelación positiva, los intervalos de confianza son
angostos, si el tipo de autocorrelación es negativa, se tienen intervalos de
confianza más amplios.
4. Cuando se tiene autocorrelación positiva, se tiende a cometer error tipo I (rechazar
la hipótesis nula cuando es verdadera), si el tipo de autocorrelación es negativa,
se tiende a cometer error tipo II (no rechazar la hipótesis nula cuando es falsa).
5. Los son lineales, insesgados, pero ineficientes (no tienen varianza mínima).
6. Las pruebas y pierden validez.

Autocorrelación Página 9
Estimación de MCO en presencia de
autocorrelación
Cuando los términos de error del modelo no son independientes entre sí aparece
la autocorrelación y los MCO obtenidos, en esta situación, dejan de ser eficientes. Lo
siguiente explica cómo cambian los estimadores de mínimos cuadrados ordinarios (MCO)
y sus varianzas si se usa la autocorrelación en las perturbaciones con el siguiente
supuesto:

Pero, conservemos todos los demás supuestos del modelo clásico.

Modelo de regresión simple o de dos variables. debemos suponer el mecanismo

que generan las ut,dado que E(utut+s S≠ es muy general como supuesto.

Ahora se debe suponer que la perturbación se genera de la siguiente forma:

Donde, ρ (rho) es conocido como “coeficiente de autocovarianza” y εt es una


perturbación estocástica y de esta manera satisface los supuestos típicos de MCO:

Un término de error con las propiedades anteriores es conocido como término de error
de ruido blanco. Lo que este postula es que el valor del término de perturbación en el
periodo t es igual a ρ multiplicada por su valor en el periodo anterior, más un término de
error puramente aleatorio.

Autocorrelación Página 10
Este esquema se conoce como “esquema autorregresivo de primer orden de Markov”
, o simplemente (y de ahora en adelante) esquema autorregresivo de primer orden, y
suele denotarse como AR (1).

CON AR(1) PODEMOS DEMOSTRAR:

Donde, cor(ut, ut+s) es la correlación entre los términos de error de s periodos distantes y
cov(ut, ut+s) es la covarianza entre los términos de error de s periodos distantes. El
estimador de C del coeficiente de pendiente está dado por la siguiente expresión

La varianza del estimador β2 con AR(1) es

Autocorrelación Página 11
Estimador MELI en presencia de
autocorrelación.
Al proseguir con el modelo de dos variables y considerar el proceso AR(1), es
posible señalar que el estimador ELI de β2 está dado por la siguiente expresión

Donde C es un factor de corrección que puede ignorarse en la práctica. Observe


que el subíndice t varía ahora de t= 2 a t=n. su varianza está expresada por

Donde D también es un factor de corrección, el cual puede ignorarse en la práctica.

El estimador βˆ CG, como lo indica el superíndice, se obtiene por el método de


MCG, se integra directamente cualquier información adicional que se tenga en el proceso
de estimación mediante la transformación de variables, mientras que en MCO tal
información adicional no se considera directamente. El estimador de CG de β2 incorpora
el parámetro de autocorrelación ρ en la fórmula de estimación, mientras que la fórmula de
MCO lo ignora. La intuición indica que por esta razón el estimador de MCG es MELI y el
estimador de MCO no lo es; el estimador de MCG utiliza al máximo la información
disponible. No es preciso mencionar que si ρ = 0, no hay información adicional que deba
considerarse y, por lo cual, los estimadores de MCG y MCO son idénticos.
Sintetizando, el estimador de MCG es MELI y la varianza mínima está dada por la
Autocorrelación Página 12
varianza expresada anteriormente y no por estimador de MCO del coeficiente de
pendiente ni la varianza de este último.

Estimación por MCO tomando en


cuenta la autocorrelación
Anteriormente se muestra que βˆ 2 no es MELI, y esto aunque se fuera a usar var(βˆ
2)AR1, es muy factible que los interludios de confianza derivados de este sean más grandes que
los fundamentados en el método MCG. Kmenta nos señala que, es posible que éste sea el
producto, no obstante el tamaño de la muestra aumente incesantemente. Esto quiere decir que,
βˆ 2 no es asintóticamente eficaz. La implicación de este descubrimiento para evaluaciones de
hipótesis es clara:
Es probable que se dé a conocer un coeficiente estadísticamente no significativo (es decir,
no distinto de cero) ,en realidad pueda serlo (es decir, si se basa en el MCG acertado). En ella se
muestran intervalos de confianza a 95% de MCO y MCG implicando que el verdadero β2= 0.
Teniendo en cuenta una estimación en específico de β2, por ejemplo, b2.:
Como b2 disminuye en el intervalo de confianza de MCO, podemos concluir en aceptar la
hipótesis de que el fidedigno β2 es cero con 95% de confianza. Pero si utilizáramos el intervalo de
confianza de MCG (correcto), podríamos rechazar la hipótesis nula de que el verdadero β2 es cero,
pues b2 cae en la región de rechazo. El mensaje es: para establecer intervalos de confianza y
probar hipótesis, debe utilizarse MCG y no MCO, aunque los estimadores derivados de este último
sean insesgados y consistentes.

Autocorrelación Página 13
Estimación ignorando MCO en la
autocorrelación
Existiendo la autocorrelación, se produce un evento el cual de una magnitud
gravísima siempre y cuando se utilice β2, al igual que var (β2) =σ^2/∑x^2t, debido a esto
se ignora la presencia de autocorrelación, entonces, se cree que los errores de los
supuestos del modelo clásico se mantienen. En consecuencia, se generarían errores
distintas razones, las cuales principalmente son:

(1) Posiblemente los restos o residuos de la varianza, subestimen la verdadera


varianza.
(2) En relación a lo mencionado anteriormente el producto puede ser que subestime
a R^2.
(3) No obstante la varianza fidedigna no esté subestimada,(𝛽 2) puede subestimar
𝑣𝑎𝑟(𝛽2)𝐴𝑅1, siendo así a que esta última sea infructuosa comparada con 𝑣𝑎𝑟𝛽 2
𝑀𝐶𝐺.
(4) En conclusión las evaluaciones de significancia t y F dejan de ser legítimo, de que
estas puedan ser aplicadas, se obtendrán resultados erróneas sobre la
significancia estadística de los coeficientes estimados de regresión.

Autocorrelación Página 14
Tipos de autocorrelación.
Existen dos tipos autocorrelación, una es la positiva y la otra la negativa:

1. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los


residuos esta subestimada, si el tipo de autocorrelación es negativa, se tiene una
sobrestimación de la misma.

2. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los


coeficientes (betas) esta subestimada, si el tipo de autocorrelación es negativa, se
tiene una sobrestimación de la misma.
3. Cuando se tiene autocorrelación positiva, los intervalos de confianza son
angostos, si el tipo de autocorrelación es negativa, se tienen intervalos de
confianza más amplios.

4. Cuando se tiene autocorrelación positiva, se tiende a cometer error tipo I (rechazar


la hipótesis nula cuando es verdadera), si el tipo de autocorrelación es negativa,
se tiende a cometer error tipo II (no rechazar la hipótesis nula cuando es falsa)

Autocorrelación Página 15
Detección de la Autocorrelación
Para poder detectar la presencia de autocorrelación se pueden utilizar variados métodos.
Uno de estos métodos es el de contrastes de hipótesis, los que permiten rechazar o aceptar la
hipótesis nula, a través de una regla de decisión y con un nivel de significancia específico. Se puede
señalar de forma general que las hipótesis de estos contrastes son de la siguiente forma:

H0: No existe autocorrelación

H1: Existe autocorrelación

En la hipótesis nula se considera que la perturbación de una observación es independiente


al de cualquier otra observación. Por otro lado, en la hipótesis alternativa se señala que el término
de error de un modelo econométrico esta autocorrelacionado a través del tiempo. En la hipótesis
alternativa, dependiendo del contraste que se vaya a utilizar, se puede especificar (considerando
la existencia de un patrón de comportamiento para los residuos) con procesos autorregresivos
AR(p), de medias móviles MA(q) o mixtos ARMA(p,q).Otro método para detectar la presencia de la
autocorrelación es el gráfico, en el que se intuye la autocorrelación cuando existen
comportamientos sistemáticos de los residuos. A continuación se presentarán distintos contrastes
que permiten determinar la autocorrelación entre las perturbaciones y su esquema.

Método Gráfico:

En el modelo clásico, el supuesto de autocorrelación se relaciona con las perturbaciones


poblacionales ut. Estas perturbaciones no pueden observarse directamente, por lo que se dispone
de valores sustitutos para los residuos, a través de MCO.

El método gráfico proporciona información muy útil con respecto a la autocorrelación. Hace
referencia al comportamiento de los residuos, puede examinarlos con respecto al tiempo (gráfica
secuencial de tiempo), en donde se grafica el residuo en tiempo t contra su valor en el tiempo. En
otro caso, se pueden graficar los residuos estandarizados con respecto al tiempo, en donde se
puede establecer si la autocorrelación es positiva o negativa.

Autocorrelación Página 16
Autocorrelación
Autocorrelación Positiva
Negativa

Contraste de Durbin-Watson:

La prueba más utilizada para detectar la presencia de Autocorrelación y que es calculada en la


mayoría de los modelos de regresión, es el “Contraste de Durbin-Watson”.

Permite verificar la hipótesis de no Autocorrelación frente a la de Autocorrelación bajo un


esquema autorregresivo.

Este contraste se especifica de la siguiente manera:

Formulación de Hipótesis:
No existe Autocorrelación AR(1)

Existe Autocorrelación AR(1)

Autocorrelación Página 17
Estadígrafo de prueba:

Donde et es el residuo estimado para el período “t”.

Este se define con un modelo de regresión que incluye término independiente y cuando la
matriz de variables explicativas no es aleatoria. Cuando el tamaño de la muestra es grande el
estadístico d se puede expresar como:

El rango de variación del estadístico de este contraste y el signo de la autocorrelación, se pueden


deducir teniendo en cuenta los límites de variación del coeficiente de correlación empírico
.

Existe Autocorrelación negativa.

Ausencia de Autocorrelación.

Existe Autocorrelación positiva.

El estadístico del contraste de Durbin-Watson


tomará valores entre 0 y 4. Estos valores son límites extremos, a los que se les debe establecer
regiones más amplias en las que se considere si existe o no autocorrelación y, en el caso de que
exista, si es positiva o negativa.

Se hallaron los límites superior (du) e inferior (dL) para la ayuda de la toma de la decisión que existe
o no autocorrelación. Se utiliza el límite superior para no rechazar la hipótesis de ausencia de
autocorrelación (autocorrelación positiva) y el inferior para no rechazar la hipótesis nula
(autocorrelación negativa). Estos límites se establecen en los puntos 4-du y 4-dL.
Autocorrelación Página 18
Se pueden señalar las regiones de contraste de la siguiente manera:

Donde,

0 < d < dL Se rechaza H0, existe autocorrelación positiva con un esquema AR(1)

4-dL < d < 4 Se rechaza H0, existe autocorrelación negativa con esquema AR(1)

du < d < 4-du No se rechaza H0, no existe autocorrelación

dL < d < du El contraste no es concluyente

4-du < d < 4-dL El contraste no es concluyente

Los límites dependen del tamaño de la muestra (n) y los regresores del modelo (k).

El contraste de Durbin-Watson requiere de las siguientes fases para su tratamiento empírico:

1. Estimación del modelo de regresión por método de mínimos cuadrados ordinarios (MCO)
2. Cálculo de los residuos MCO
3. Obtención del estadístico d (experimental) de Durbin-Watson
4. Búsqueda de los niveles críticos del contraste
5. Aplicación de la regla de decisión.
A veces este contraste puede no ser concluyente, por lo que se deben ampliar las regiones de
rechazo, considerando que existe autocorrelación positiva para valores del estadístico
experimental inferiores a du y autocorrelación negativa si los valores son superiores a 4-du.

Autocorrelación Página 19
Contraste de Wallis:

Este contraste presenta una modificación del estadístico de Durbin-Watson para modelos
que utilizan datos trimestrales. En este caso se espera que la perturbación de una observación en
específico se relacione con la del mismo trimestre, pero del año anterior, no como en el caso
original que se relaciona con la perturbación del período inmediatamente anterior.

La estructura de autocorrelación es la siguiente:

Donde,
No existe autocorrelación

Existe autocorrelación

Wallis propuso una modificación del estadístico


experimental de Durbin-Watson, que denominó d4.

Al igual que en el contraste de Durbin-Watson, el estadístico experimental se define


suponiendo que la matriz de regresores no es aleatoria y que el modelo tiene término
independiente. Wallis también tabuló para el caso de regresiones que incluyan variables ficticias
estacionales (trimestrales).

Autocorrelación Página 20
Prueba de las Rachas:

La prueba de rachas se utiliza para poder observar un patrón cuando las perturbaciones de
los residuos tienen un comportamiento aleatorio. Se explica anotando los signos (+ o -),
dependiendo de los residuos obtenidos en el método de regresión. Una racha se define por la
sucesión de signos que no es interrumpida por el otro, la que posee una longitud correspondiente
al número de elementos que contiene. Para realizar esta prueba se deben plantear las siguientes
hipótesis:

Ho: Perturbaciones idénticas e independientes

H1: Perturbaciones no idénticas ni independientes

Con una región de rechazo de esta forma:

Para poder calcular esta Prueba de Rachas:

Dónde:

u: Media

σ2: Varianza

n1: número de residuos positivos (+)

n2: número de residuos negativos (-)

Como regla general, si hay autocorrelación positiva, el número de rachas será reducido. Por otro
lado, si existe autocorrelación negativa, el número de rachas será grande.

Autocorrelación Página 21
¿Qué hacer cuando existe
autocorrelación?
Para modificar la autocorrelación tras emplear uno o más de los test de
diagnóstico, existen 4 opciones:

1) Indagar si existe autocorrelación pura y no un producto de una mala


especificación del modelo, esto sucede ya que se descartaron las variables de gran
importancia o porque su forma funcional no es correcta.

2) Si existe un problema de una autocorrelación pura, se puede utilizar una


transformación del modelo original de tal manera de que en el modelo transformado ya no
exista autocorrelación pura.

𝒀𝒕=𝜷𝒐+𝜷𝟏𝑿𝒕+𝝁𝒕

𝜇𝑡=𝜌𝜇𝑡−1+𝛼𝑡 -1 < 𝜌 < 1

En este caso se pueden dar dos situaciones.

a) Cuando 𝝆 es conocida:

En esta situación, la autocorrelación se desarrolla transformando el modelo:

𝒀𝒕 − 𝝆𝒀𝒕−𝟏 = 𝜷𝒐(𝟏 − 𝝆) + 𝜷𝟏(𝑿𝒕 − 𝝆𝑿𝒕−𝟏) + 𝜶𝒕

𝒀𝒕∗ = 𝜷𝒐∗ + 𝜷𝟏∗𝑿𝒕∗ +∝𝒕

Donde ∝𝑡= 𝜇𝑡 − 𝜌𝜇𝑡−1

El concepto mencionado error ya no presenta autocorrelación, por lo que luego es


inevitable estimar por MCO el modelo transformado.

b) Cuando 𝝆 es desconocida:

Se puede considerar 𝜌 a través de los residuos. Si 𝜇𝑡 sigue una estructura,


entonces:

𝝁𝒕 = 𝝆𝝁𝒕−𝟏 + 𝜶𝒕

Inicialmente, se tiene que estimar el modelo original para luego adquirir los
residuos de 𝜇𝑡; tomando en cuenta que 𝜇𝑡 = 𝜌𝜇𝑡−1 + 𝛼𝑡 para luego obtener 𝜌.Para
continuar, es importante utilizar 𝜌 para conseguir el modelo alterado, en otros términos:

Autocorrelación Página 22
𝒀𝒕∗ = 𝜷𝟎∗ + 𝜷𝟏∗ + 𝑿𝒕∗ + 𝜶𝒕

*Cuando se desconoce 𝜌, se puede realizar otras técnicas tales como:

El procedimiento iterativo de Cochrane-Orcutt y en métodos basados en el


estadístico d de Durbin-Watson.

3) En muestras de gran tamaño es posible utilizar el método Newey-West, con la


finalidad de conseguir los errores estándar de los estimadores MCO corregidos para
autocorrelación.

4) En algunos casos se puede mantener el método MCO, lo cual es aplicable en


muestras pequeñas cuando el método MCG y NeweyWest presentan peores resultados
en comparación al MCO, en relación con las propiedades de los estimadores.

Autocorrelación Página 23
Ejercicio explicado
Se dispone de la serie de datos anuales desde 1980 hasta 2009 sobre tasas de
pobreza (POB) y de desempleo (D). La relación entre ambas tasas queda especificada en
el siguiente modelo P B D u t t = β0 1 + + β t Los datos (en porcentaje) correspondientes
a los 30 años son los que se muestran a continuación:

Autocorrelación Página 24
a) Contraste la existencia de autocorrelación con un nivel de significación del 5%.

b) En caso de que se hubiese planteado el modelo

¿con qué test hubiese contrastado la


presencia de autocorrelación?

Solución:

a) El contraste de hipótesis en este caso es:

A partir de los residuos obtenidos es posible calcular el estadístico de DurbinWatson:

Autocorrelación Página 25
Para n=30 y k=1 se tiene que dL=1,352 y dU=1,489. Como d= 0,364< dL=1,352 ⇒ Se
rechaza la hipótesis nula, existiendo autocorrelación positiva.

b) Dado que el nuevo modelo planteado cuenta con la variable endógena


retardada como explicativa, para contrastar la presencia de autocorrelación se emplearía
el test h de Durbin

Conclusión
En este trabajo aprendimos sobre la autocorrelación, un fenómeno que viola uno
de los supuestos sobre la regresión simple y múltiple, debido a las variables
independientes que fluyen a través del tiempo como son las variables económicas como
lo son: el PNB, PIB, desempleo, producción, entre otras.

Presentamos las causas de este fenómeno, tales como la inercia de los datos, su
falta de estacionalidad, manipulación de la información, fenómeno de telaraña, entre
otros; sus consecuencias; los tipos de autocorrelación como lo son la positiva y la
negativa; como detectar si tenemos autocorrelación; su modelación gráfica; qué hacer
cuando tenemos autocorrelación; sus estimadores algunos métodos como lo son Durbin-
Watson, pruebas de racha y contraste de Wallis.

También aprendimos que debido a su razón de variabilidad temporal la


autocorrelación no es útil para medir y controlar el riesgo financiero de las pequeñas y
grandes empresas o negocios.

Autocorrelación Página 26
Bibliografía
“Econometría”; Autores Damodar N. Gujarati & Dawn C. Porter
https://scalleruizunp.files.wordpress.com/2015/04/econometria_-_damodar_n-
_gujarati.pdf

J.M. Arranz , M.M. Zamora, Autocorrelación:

http://www.ciberconta.unizar.es/Leccion/autocorrelacion/analisis%20de%20autocor
relacion.PDF
Universitat de les Illes Balears:
http://www.uib.cat/depart/deaweb/webpersonal/hdeawni/en/archivos/Autocorrelacio
n.pdf

BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales:


http://www.eumed.net/libros-gratis/2010c/720/AUTOCORRELACION.htm

Universidad Autónoma de Madrid:


https://www.uam.es/docencia/predysim/prediccion_unidad3/3_5_we1.htm

Guía multimedia para la elaboración de un modelo econométrico


(GUIME),Universidad de Granada:
http://www.ugr.es/~jchica/Pagina2/Modelo/Otros%20ejercicios%20gretl.htm

“AUTOCORRELACIÓN” Eco. Douglas C. Ramírez V.:

http://webdelprofesor.ula.ve/economia/dramirez/MICRO/FORMATO_PDF/Material
econometria/Autocorrelacion.pdf

Autocorrelación Página 27

Você também pode gostar