Você está na página 1de 73

Resumen y Notas de Clase Econometrı́a III

Universidad Nacional de Córdoba - Facultad de Ciencias Económicas

Año 2018
Capı́tulo 1

Introducción

Las series de tiempo están sumamente relacionadas con la estimación de ecuaciones en


diferencia estocásticas. Dichas estimaciones pueden ser utilizadas para interpretar datos
y para realizar pruebas de hipótesis.

1.1. Modelos de series de tiempo


Si estamos frente a una serie de tiempo nuestro objetivo será desarrollar modelos simples
capaces de predecir, interpretar y testear hipótesis sobre datos económicos. Tal es ası́
que se ha creado una metodologı́a para descomponer una serie en cuatro componentes:
tendencia, estacionalidad, ciclos y un componente irregular. Supongamos una figura como
la siguiente, con 50 observaciones:

1
Es posible descomponer esa serie en: tendencia, estacionalidad y componente irregular. La
tendencia cambia la media de la serie, mientras que la estacionalidad muestra un patrón
cı́clico con picos cada 12 observaciones. Si nos detenemos en el componente irregular,
vemos que si bien no tiene un patrón de comportamiento bien definido, es posible realizar
alguna predicción sobre el mismo. Podemos notar que los valores positivos y negativos
ocurren en “rachas”. A largo plazo, el componente irregular tiende a acercarse al cero.
Las ecuaciones de cada componente pueden expresarse como:

Tendencia: Tt = 1 + 0,1t
Estacional: St = 1,6 sin(tπ/2)
Irregular: It = 0,7It−1 + εt

donde:
Tt es el valor del componente tendencia en el momento t
St es el valor del componente estacional en el momento t
It es el valor del componente irregular en el momento t
εt es un término estocástico en el momento t

Las tres son distintos casos de ecuaciones en diferencia. Una ecuación en diferencia ex-
presa el valor de una variable como función de la misma variable rezagada, del término
estocástico o del tiempo t. En las dos primeras la variable depende del tiempo, mientras
que el componente irregular depende de su valor rezagado y del término estocástico.
En la tercera ecuación, el coeficiente que precede al rezago (en este caso 0,7) nos va a
indicar si la ecuación es estable o no. En caso de serlo, esto nos dice que, a largo plazo, la
ecuación va a tener una media. Como 0, 7 < 1 entonces esta ecuación es estable.
La estacionalidad puede definirse, dentro de la estadı́stica, como un correlato de estabili-
dad.
Si bien, en los comienzos, el principal objetivo del análisis de series de tiempo era la pre-
dicción, la teorı́a económica ha ido evolucionando a tal punto que hoy tenemos modelos
cuya representación básica se da gracias a ecuaciones en diferencia estocásticas. Veamos
algunos ejemplos:

Hipótesis del paseo aleatorio en el mercado de capitales

Se le dice paseo aleatorio ya que el modelo representa el recorrido de alguien que no tiene
rumbo. El modelo de random walk supone que los cambios diarios en el precio de una
acción tienen media cero. De lo contrario, podrán realizarse operaciones de compra o venta

2
que equilibren esas variaciones en los precios. El precio de la acción está representado por
siguiente ecuación en diferencia:

yt+1 = yt + εt+1

O lo que es lo mismo:
∆yt+1 = t+1

Et (t+1 ) = 0

Los cambios esperados de los precios de los activos financieros en el largo plazo tienen
esperanza cero. Si la esperanza fuese positiva, voy a tener incentivos a comprar y el
mercado ajustará hasta que sea nula, y viceversa. Ahora consideremos esta ecuación en
diferencias más general:
yt+1 = a0 + a1 yt + t+1

yt+1 − yt = a0 + a1 yt − yt + t+1

∆yt+1 = a0 + (a1 − 1)yt + t+1

∆yt+1 = a0 + γyt + t+1

En el modelo random walk suponemos que a0 = γ = 0 ya que los cambios son impredeci-
bles.

Forma estructural vs Forma reducida

A veces es conveniente colapsar un sistema de ecuaciones en diferencia en distintas ecua-


ciones separadas. Consideremos el modelo clásico de Samuelson:

yt = ct + it

ct = αyt−1 + ct

it = β(ct − ct−1 ) + it

Además, suponemos que 0 < α < 1 y β > 0. En este modelo keynesiano, yt , ct , it son
variables endógenas. Las variables predeterminadas son yt−1 , ct−1 y las perturbaciones
son ct , it . Estos términos estocásticos lógicamente tienen media cero. Las ecuaciones
del producto y de la inversión son ecuaciones estructurales, ya que expresan el valor de
una variable endógena como función de otra variable endógena. Por su parte, la ecuación
del consumo es una ecuación reducida, ya que expresa una endógena en función de una
predeterminada. Vamos a derivar la forma reducida de la ecuación de la inversión. Primero
reemplazamos al consumo presente por su igual:

it = β(αyt−1 + ct − ct−1 ) + it

3
it = βαyt−1 + βct − βct−1 + it

Esta última expresión es la forma reducida de la inversión (puede haber más de una forma
reducida). Busquemos otra, retrasando la ecuación del consumo un perı́odo:

ct−1 = αyt−2 + ct−1

Reemplazando:
it = βαyt−1 + βct − β(αyt−2 + ct−1 ) + it

it = βαyt−1 + βct − βαyt−2 − βct−1 + it

it = βα(yt−1 − yt−2 ) + β(ct − ct−1 ) + it

Ahora vamos a buscar una forma reducida univariada para el producto.

y t = ct + i t

yt = αyt−1 + ct + βα(yt−1 − yt−2 ) + β(ct − ct−1 ) + it

yt = α(1 + β)yt−1 − βαyt−2 + (1 + β)ct − βct−1 + it

Esta es la forma reducida univariada del producto ya que depende solamente de sus
propios valores rezagados y de las perturbaciones. Una vez que estimamos los valores
de los parámetros α, β podremos utilizar los valores observados desde y1 hasta yt para
predecir todos los valores futuros en la serie.

Correlación de los errores: precios forward y spot

Ciertos commodities e instrumentos financieros pueden ser negociados en el mercado a


precios de contado o en el de futuros. Supongamos que el precio de contado de una divisa
extranjera es st y el precio futuro es ft . Consideramos un inversor especulador que compra
al precio ft . Al comienzo del perı́odo t+1 el inversor recibe la moneda y paga ft por unidad
recibida. Dado que la divisa puede ser vendida en st+1 el inversor ganará o perderá st+1 −ft
por unidad. El modelo explicita la siguiente ecuación:

st+1 = ft + t+1

Donde por hipótesis tiene que ocurrir que Et (t+1 ) = 0. También lo podemos expresar
como:
st+1 − ft = t+1

Consideremos el siguiente proceso de ajuste o VAR (sistema de vectores autoregresivos):

st+2 = a11 st+1 + a12 ft + st+2

4
ft+1 = a21 st+1 + a22 ft + ft+1

Ambas son formas reducidas de cada variable. Podemos expresar el VAR en términos de
un modelo de corrección del error, denominado VEC:

st+2 − st+1 = −α(st+1 − ft ) + st+2

ft+1 − ft = βst+1 − ft ) + ft+1

Si las ganancias por especular suben (st+1 −ft ) el precio de la divisa debe caer (st+2 −st+1 ).

5
Capı́tulo 2

Ecuaciones en diferencia estocásticas

2.1. Ecuaciones en diferencias y sus soluciones


Vamos a analizar los tipos de ecuaciones en diferencias utilizadas en el análisis econométri-
co y explicar qué significa ?resolver? estas ecuaciones. Consideremos la función y = f (t).
Si evaluamos la misma cuando la variable independiente toma el valor especı́fico t = t∗
tenemos que yt∗ = f (t∗ ). Si seguimos esta notación, en el campo infinitesimal tendremos
que y(t∗ +h) representa el valor de la función cuando la variable t asume el valor t∗ + h. La
primera diferencia de y está definida como el valor de la función evaluada en t∗ + h menos
el valor de la función en t∗ :

∆y(t∗ +h) = f (t∗ + h) − f (t∗ ) = y(t∗ +h) − yt∗

Siendo h un valor tan pequeño como uno desee. En ecuaciones en diferencia y series de
tiempo, normalizamos ese valor h = 1. Ası́ podremos obtener la primera diferencia de la
variable yt :
∆yt+1 = f (t + 1) − f (t)

∆yt+1 = yt+1 − yt

A veces es conveniente expresar la serie completa de valores {. . . yt−2 , yt−1 , yt , yt+1 , yt+2 ,
. . .} como {yt }. Del mismo modo podemos obtener la segunda diferencia de la variable:

∆2 yt+1 = ∆(∆yt+1 ) = ∆(yt+1 − yt )

∆2 yt+1 = ∆yt+1 − ∆yt

∆2 yt+1 = (yt+1 − yt ) − (yt − yt−1 )

∆2 yt+1 = yt+1 − 2yt + yt−1

6
2.2. Modelos lineales de series de tiempo
Vamos a analizar el caso de ecuaciones en diferencia de orden n, con coeficientes constan-
tes. La forma algebraica es la siguiente:
n
X
yt = a0 + ai yt−i + xt
i=1

La ecuación en diferencias anterior es lineal porque todos los valores de la variable depen-
diente están elevados a la primera potencia. Además, es estocástica, por la existencia del
término xt . Dicho término xt se denomina “forcing process” y puede ser cualquier función
de: tiempo, valores actuales o rezagados de otras variables o de la perturbación. Un caso
especial de este forcing process es el siguiente:

X
xt = βi t−i
i=0

xt = β0 t + β1 t−1 + . . .
Donde los βi son constantes y los valores de t no dependen de yt .

A) EJEMPLO 1

Si suponemos:

t es un término de error aleatorio.

β1 = 1
β2 = β3 = . . . = 0
Obtenemos un proceso autoregresivo de orden n, o AR(n):
n
X
y t = a0 + ai yt−i + t
i=1

yt = a0 + a1 yt−1 + a2 yt−2 + . . . + an yt−n + t


Volviendo a la primera ecuación:
n
X
y t = a0 + ai yt−i + xt
i=1

Si la expresamos en diferencias:

yt − yt−1 = a0 + a1 yt−1 − yt−1 + a2 yt−2 + . . . + an yt−n + xt

∆yt = a0 + (a1 − 1)yt−1 + a2 yt−2 + . . . + an yt−n + xt


Si la serie es explosiva, es decir, no tiene valor de largo plazo, nos conviene expresarla
en primera diferencia. Si no es explosiva, otro método posible es expresarla en niveles. El
término xt puede representar un proceso de medias móviles o “moving average´´.

7
B) EJEMPLO 2

Consideremos la ecuación en diferencias:

yt = yt−1 + 2

La solución, si iteramos, será la siguiente:

yt = 2t + c

Para comprobar si esa solución es correcta o no, reemplazamos en la ecuación inicial y


debemos obtener una identidad.

2t + c = 2(t − 1) + c + 2

2t + c = 2t − 2 + c + 2

2t + c = 2t + c

Se cumple la igualdad por lo cual podemos afirmar que la solución propuesta es correcta.

C) EJEMPLO 3

Si usamos la ecuación del término irregular (principio de la unidad 1):

It = 0, 7It−1 + t

Ese coeficiente 0, 7 que precede al rezago, se denomina “costo de ajuste?Ṡi buscamos una
solución particular:
It = 0, 7It L + t

(1 − 0, 7L)It = t
1
It = t
1 − 0, 7L
1
El término 1−O,7L
es una serie, podemos descomponerlo:

It = [(0, 7L)0 + (0, 7L)1 + (0, 7L)2 + . . .]t

It = [1 + 0, 7L + 0, 72 L2 + . . .]t

It = t + 0, 7Lt + 0, 72 L2 t + . . .

It = t + 0, 7t−1 + 0, 72 t−2 + . . .
X∞
It = (0, 7)i t−i
i=0

Si suponemos un shock de productividad y graficamos la función impulso-respuesta ob-


servamos:

8
Si el coeficiente de ajuste, en este caso 0, 7, es menor a la unidad, la serie converge. Para
obtener la función impulso-respuesta de la inversión debemos derivar:
δIt
δt
δIt+1
δt
δIt+2
δt
Y ası́ sucesivamente. Vamos a comprobar si la solución que obtuvimos anteriormente es
realmente solución o no. ∞
X
It = (0, 7)i t−i
i=0

X
It−1 = (0, 7)i t−1−i
i=0

Reemplazamos en la ecuación inicial:



X ∞
X
(0, 7)i t−i = 0, 7 (0, 7)i t−1−i + t
i=0 i=0


X ∞
X
(0, 7)i t−i = (0, 7)i+1 t−1−i + t
i=0 i=0

X
(0, 7)i t−i = 0, 7t−1 + 0, 72 t−2 + 0, 73 t−3 + . . . + t
i=0

Se cumple la identidad, es solución.

2.3. Solución por iteración


Si conocemos el valor de y en algún perı́odo especı́fico, un método directo de solución
es iterar hacia adelante para ası́ obtener la trayectoria a lo largo del tiempo. Ese valor

9
conocido de la variable será denominado “condición inicial”. Partiendo de una ecuación
en diferencias de primer orden:

yt = a0 + a1 yt−1 + t

Dada la condición inicial y0 podemos obtener y1 :

y1 = a0 + a1 y0 + 1

Iterando hacia adelante:


y2 = a0 + a1 y1 + 2

y2 = a0 + a1 (a0 + a1 y0 + 1 ) + 2

y2 = a0 + a0 a1 + a21 y0 + a1 1 + 2

Generalizando para todo t > 0:


t−1
X t−1
X
y t = a0 ai1 + at1 y0 + ai1 t−i
i=0 i=0

A) SERIE CONVERGENTE SIN CONDICIÓN INICIAL

Partiendo de:
yt = a0 + a1 yt−1 + t

No podemos aplicar iteración hacia adelante porque desconocemos el valor de la condición


inicial. Iteramos hacia atrás hasta yt−2 :

yt = a0 + a1 (a0 + a1 yt−2 + t−1 ) + t

yt = a0 (a1 + 1) + a21 yt−2 + a1 t−1 + t


1
X 1
X
y t = a0 ai1 + a21 yt−2 + ai1 t−i
i=0 i=0

Si me voy m − 1 perı́odos hacia atrás:


m−1
X m−1
X
y t = a0 ai1 + am
1 yt−m + ai1 t−i
i=0 i=0

Si me voy t + m perı́odos hacia atrás:


t+m
X t+m
X
yt = a0 ai1 + at+m+1
1 y−m−1 + ai1 t−i
i=0 i=0

Si |a1 | < 1, cuando m tiende a ∞ tenemos que:


t+m
X 1
ai1 = 1 + a1 + a21 + . . . =
i=0
1 − a1

10
at+m+1
1 =0

Entonces: ∞
a0 X
yt = + ai1 t−i
1 − a1 i=0
De todos modos, esta solución no es única. Para cualquier valor arbitrario de A podemos
encontrar una solución del tipo:

a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1

El primer término surge de proponer una solución del tipo yth = Aαt y reemplazar en la
ecuación homogénea:
yt = a1 yt−1

Aαt = a1 Aαt−1

α = a1

Entonces la solución homogénea es:

yth = Aat1

yt = yth + ytp

a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1

B) SERIE CONVERGENTE CON CONDICIÓN INICIAL

Supongamos que tenemos una condición inicial para y en el perı́odo t = 0. Por lo tanto:

a0 X
y0 = A + + ai −i
1 − a1 i=0 1


a0 X
A = y0 − − ai1 −i
1 − a1 i=0

Este es el valor de A que nos dará una solución a la ecuación en diferencias, ya que y0
está dado. Por lo tanto, la presencia de una condición inicial elimina la arbitrariedad de
A. Sustituyendo:

a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1
  ∞ ∞
a0 X a0 X
yt = y0 − − ai1 −i at1 + + ai t−i
1 − a1 i=0
1 − a1 i=0 1

11
∞ ∞
a0 at1 − a0 X i−t X
yt = y0 at1 − − a1 −i + ai1 t−i
1 − a1 i=0 i=0
∞ ∞
a0 (1 − at1 ) X i X
yt = y0 at1 + − a1 −i + ai1 t−i
1 − a1 i=t i=0
t−1
X t−1
X
yt = y0 at1 + a0 ai1 + ai1 t−i
i=0 i=0

Obtenemos la solución que mencionamos anteriormente. Si iteramos hacia adelante desde


y0 :
y1 = a0 + a1 y0 + 1

y2 = a0 + a1 y1 + 2

y2 = a0 + a1 (a0 + a1 y0 + 1 ) + 2

y2 = a0 + a0 a1 + a21 y0 + a1 1 + 2
1
X
y2 = a0 (1 + a1 ) + a21 y0 + ai1 2−i
i=0

Generalizando:
t−1
X t−1
X
yt = y0 at1 + a0 ai1 + ai1 t−i
i=0 i=0

Por lo tanto, concluimos que iterar hacia adelante desde y0 es exactamente lo mismo que
iterar hacia atrás con condición inicial en y0 .

C) SERIE NO CONVERGENTE

En el caso que |a1 | > 1 el término at+m+1


1 crece indefinidamente siempre que m tiende a
∞. En el caso de tener una condición inicial, no se necesita obtener la sumatoria infinita,
iteramos hacia adelante y obtenemos la solución:
t−1
X t−1
X
yt = y0 at1 + a0 ai1 + ai1 t−i
i=0 i=0

A pesar de que los valores de la trayectoria yt van a ir creciendo, todos serán finitos. En
el caso que a1 = 1 tenemos un random walk:

yt = a0 + yt−1 + t

∆yt = a0 + t

Si reemplazamos en la solución anterior tenemos:


t
X
yt = at0 + i + y0
i=1

12
Es decir, en cada perı́odo de tiempo, el valor de y cambia en a0 + t unidades. Cuando
|a1 | < 1 los efectos de las perturbaciones pasadas se van reduciendo a medida que pasa el
tiempo.

En el primer gráfico, la lı́nea gruesa es la tendencia determinı́stica, es decir, la que no


es estocástica. Se han generado t = 25 . Esos errores se van haciendo cada vez más
pequeños. Si comparamos los dos primeros paneles vemos que al reducir la magnitud de
|a1 | incrementa la tasa de convergencia. Reducir el valor de a1 significa que las realizaciones
de t−i tienen una influencia menor en el valor de yt . Las oscilaciones se deben al valor
negativo de a1 . Si |a1 | < 1 esas oscilaciones serán convergentes.

2.4. Forma alternativa de solución


En ecuaciones de orden n, el método de iteración no es aplicable debido a su complejidad
algebraica. Consideremos solo la parte homogénea de la siguiente ecuación en diferencias:

yt = a0 + a1 yt−1 + t

yt = a1 yt−1

La solución a esta ecuación homogénea se denomina solución homogénea. Lógicamente la


solución trivial yt = yt−1 = . . . = 0 debe satisfacer la igualdad, aunque esta solución no
es única. Si suponemos a0 = 0 y todos los valores de t = 0 obtenemos yt = at1 y0 . Esta
tampoco constituye todo el set de soluciones, ya que si multiplicamos por una constante
arbitraria A también satisfacemos la igualdad. Podemos clasificar las propiedades de la
solución homogénea de la siguiente forma:

13
Si |a1 | < 1 la expresión at1 converge a cero cuando t tiende a ∞.

Si |a1 | > 1 la solución homogénea no es estable.

Si a1 = 1 cualquier constante arbitraria A satisface la solución yt = yt−1 . Si a1 = −1


es cuasi estable (at1 = 1 para valores pares y at1 = −1 para valores impares).

Si ahora consideramos la ecuación en diferencias completa:

yt = a0 + a1 yt−1 + t

Anteriormente observamos que la siguiente es una solución:



a0 X
yt = + ai t−i
1 − a1 i=0 1

Se denomina solución particular. Finalmente, la solución general será la suma de la solu-


ción particular y todas las soluciones homogéneas. Una vez que la obtenemos, podemos
eliminar la constante arbitraria A mediante condiciones iniciales. Resumiendo, podemos
establecer cuatro pasos para resolver una ecuación en diferencias:

1. Encontrar las n soluciones homogéneas desde la ecuación homogénea.

2. Encontrar una solución particular.

3. Obtener la solución general como la suma de las anteriores.

4. Eliminar la constante A imponiendo condiciones iniciales en la solución general.

A) GENERALIZANDO EL MODELO

Para mostrar que el método es aplicable para ecuaciones de orden superior, consideramos
la parte homogénea de:
n
X
yt = a0 + ai yt−i + xt
i=1
n
X
yt = ai yt−i
i=1

Como vimos, hay n soluciones homogéneas que satisfacen la igualdad anterior. Nos interesa
probar que: si yth es una solución homogénea, entonces Ayth es una solución homogénea
también, para cualquier valor arbitrario de A.
n
X
yth = h
ai yt−i
i=1

14
n
X
Ayth = h
ai Ayt−i
i=1

Si dividimos cada término por A vemos que la igualdad anterior se sigue cumpliendo.
h h
Ahora supongamos que existen dos soluciones homogéneas denominadas y1t y y2t . Si te-
h h
nemos dos constantes arbitrarias A1 y A2 vemos que la combinación lineal A1 y1t + A2 y2t
es también una solución para la ecuación homogénea, por lo tanto, debe satisfacer:

h h h h h h h h
A1 y1t +A2 y2t = a1 (A1 y1t−1 +A2 y2t−1 )+a2 (A1 y1t−2 +A2 y2t−2 )+. . . +an (A1 y1t−n +A2 y2t−n )

Reordenando:
n
! n
!
X X
h h h h
A1 y1t − A1 ai y1t−i + A2 y2t − A2 ai y2t−i =0
i=1 i=1

h h
Como A1 y1t y A2 y2t son soluciones separadas para la ecuación, las expresiones entre
paréntesis son ambos iguales a cero, por lo tanto, se cumple la igualdad anterior. Por
último, para verificar que “la suma de cualquier solución particular y cualquier com-
binación lineal de todas las soluciones homogéneas es también una solución? debemos
sustituir:
yt = ytp + yth
n
X
y t = a0 + ai yt−i + xt
i=1
n
X
ytp + yth = a0 + p
ai (yt−1 h
+ yt−1 ) + xt
i=1

Reordenando: ! !
n
X n
X
ytp − a0 − p
ai yt−i − xt + yth − h
ai yt−i
i=1 i=1

Ambas expresiones entre paréntesis son iguales a cero, por lo tanto, comprobamos la
proposición anterior.

2.5. Solución de ecuaciones en diferencia homogéneas


Consideremos la ecuación en diferencias de segundo orden:

yt − a1 yt−1 − a2 yt−2 = 0

Podemos tomar la solución que vimos anteriormente y reemplazar:

Aαt − a1 Aαt−1 − a2 Aαt−2 = 0

A(αt − a1 αt−1 − a2 αt−2 ) = 0

15
αt − a1 αt−1 − a2 αt−2 = 0

Dividiendo por αt−2 :


α 2 − a1 α − a2 = 0

La anterior se denomina “ecuación caracterı́stica”. Si resolvemos por Baskara obtendremos


las dos raı́ces caracterı́sticas.

a1 ± a21 +4a2
α1 , α2 = 2

a1 ± d
α1 , α2 = 2

Esas dos raı́ces son soluciones, pero tampoco son únicas. Para cualquier constante arbi-
traria A1 y A2 la combinación lineal A1 α1t + A2 α2t . Si desconocemos los valores de a1 y a2
no podemos hallar las raı́ces.

A) CASO 1

Si a21 +4a2 > 0 tendremos dos raı́ces reales y distintas. Por lo tanto, la solución homogénea
será la combinación lineal de ambas:

yth = A1 α1t + A2 α2t

Si alguna de las raı́ces supera en valor absoluto a la unidad, la solución homogénea será
explosiva. De lo contrario, la solución será convergente.

B) CASO 2

Si a21 + 4a2 = 0 tendremos dos raı́ces reales e iguales, α1 = α2 = a21 . En este caso, existirá
t
una segunda solución homogénea dada por t a21 . Por lo tanto, la solución homogénea
ahora será:  a t  a t
1 1
yth = A1
+ A2 t
2 2
a1 t

Para ver si esto es cierto, vamos a sustituir t 2 en la ecuación original:

yt − a1 yt−1 − a2 yt−2 = 0
 a t  a t−1  a t−2
1 1 1
t − a1 (t − 1) − a2 (t − 2) =0
2 2 2
t−2
Dividimos por a21 :
 a 2 a1
1
t − a1 (t − 1) − a2 (t − 2) = 0
2 2
 a 2
1 a21 (t − 1)
t − − a2 t + 2a2 = 0
2 2

16
 a 2
1 ta21 a21
t − + − a2 t + 2a2 = 0
2 2 2
ta21 ta21 a21
− + − a2 t + 2a2 = 0
4 2 2
1 2 a2
(ta1 − 2ta21 ) + 1 − a2 t + 2a2 = 0
4 2
2 2
−ta1 a1
+ − a2 t + 2a2 = 0
4 2
 2   2 
−a1 a1
t − a2 + + 2a2 = 0
4 2
Dado que a21 + 4a2 = 0 ambas expresiones entre paréntesis son iguales a cero, y com-
probamos que la solución es correcta. El sistema será explosivo si |a1 | > 2. Si |a1 | < 2
podremos pensar que el efecto del término t a21 t será ambiguo. Si 0 < a1 < 2 la solución
homogénea parece ser explosiva pero finalmente converge. Si −2 < a1 < 0 la solución
homogénea parece oscilar y explotar, pero finalmente las oscilaciones se amortiguan y la
solución converge.

C) CASO 3

Si a21 +4a2 < 0 tendremos dos raı́ces imaginarias conjugadas. Si a21 debe ocurrir que a2 < 0
(Condición necesaria pero no suficiente). Podemos utilizar las coordenadas polares para
expresar las raı́ces en una expresión trigonométrica más sencilla de comprender.

a1 + i −d
α1 =
2

a1 − i −d
α2 =
2

Donde i = −1. Lo primero que debemos hacer es expresar estos números imaginarios
en un plano. En la siguiente figura representamos en el eje horizontal los números reales,
y en el eje vertical los imaginarios. El número complejo a + bi puede ubicarse como vemos
a continuación:

17
Si consideramos el ángulo θ, podemos expresar:
a
cos(θ) =
r
b
sin(θ) =
r
Despejando:
a = rcos(θ)

b = rsin(θ)

En términos de nuestra expresión, podemos definir:


a1
a=
2

d
b=
2
Por lo tanto, las raı́ces caracterı́sticas serán:

α1 = a + bi = r[cos(θ) + isin(θ)]

α2 = a − bi = r[cos(θ) − isin(θ)]

Como sabemos, la solución homogénea tiene la forma yth = A1 α1t + A2 α2t entonces, por
Teorema de De Moivre:
α1t = rt [cos(tθ) + isin(tθ)]

α2t = rt [cos(tθ) − isin(tθ)]

Como yth es un número real y las raı́ces son complejas, los coeficientes A1 y A2 serán
complejos y deberán tener la forma:

A1 = B1 [cos(B2 ) + isin(B2 )]

A2 = B1 [cos(B2 ) − isin(B2 )]

Donde B1 y B2 son números reales arbitrarios medidos en radianes. Ahora calculamos


Ai αit :
A1 α1t = B1 [cos(B2 ) − isin(B2 )]rt [cos(tθ) + isin(tθ)]

A2 α2t = B1 [cos(B2 ) − isin(B2 )]rt [cos(tθ) − isin(tθ)]

Vale aclarar algunas propiedades trigonométricas antes de continuar:

sin(θ1 + θ2 ) = sin(θ1 ) + cos(θ2 ) + cos(θ1 )sin(θ2 )

cos(θ1 + θ2 ) = cos(θ1 ) − cos(θ2 ) − sin(θ1 )sin(θ2 )

18
Si θ1 = θ2 :
sin(2θ) = 2sin(θ)cos(θ)

cos(2θ) = cos(θ)cos(θ) − sin(θ)sin(θ)

Utilizando estas propiedades:

A1 α1t = B1 rt [cos(rθ + B2 ) + isin(rθ + B2 )]

A2 α2t = B1 rt [cos(rθ + B2 ) − isin(rθ + B2 )]

La solución homogénea será:

yth = B1 rt [cos(rθ + B2 ) + isin(rθ + B2 )] + B1 rt [cos(rθ + B2 ) − isin(rθ + B2 )]

Como el B1 es arbitrario, podemos reexpresar la solución en términos de B2 y B3 :

yth = B3 rt cos(θt + B2 )

Donde r = −a2 La frecuencia de la oscilación está determinada por θ que será determi-
nado por cos(θ) = √a1 .
Como sabemos que cos(θt) = cos(2φ + θt) la estabilidad estará
2 −a2

determinada por el término r = −a2 . Si |a2 | = 1 la solución no se dispara ni tampoco
converge. Será explosiva si |a2 | > 1 y será convergente si |a2 | < 1.

D) CONDICIONES DE ESTABILIDAD

Las condiciones de estabilidad pueden generalizarse mediante el triángulo ABC de la


siguiente figura. En el caso de raı́ces reales y distintas, la estabilidad requiere que la raı́z
más grande sea menor a la unidad, mientras que la más pequeña sea mayor a −1. Si
suponemos que α1 es la raı́z mayor:
p
a1 + a21 + 4a2
α1 = <1
2
q
a1 + a21 + 4a2 < 2
q
a21 + 4a2 < 2 − a1

a21 + 4a2 < (2 − a1 )2

a21 + 4a2 < 4 − 4a1 + (a1 )2

4a2 < 4 − 4a1

a2 < 1 − a1

a1 + a2 < 1

La última desigualdad se conoce como “regla de la suma”. Si generalizamos:

19
Pn
i=1 ai < 1 → condición necesaria

Ahora analizamos la raı́z pequeña:


p
a1 − a21 + 4a2
α2 = > −1
2
q
a1 − a21 + 4a2 > −2
q
a21 + 4a2 < 2 + a1
a21 + 4a2 < (2 + a1 )2
a21 + 4a2 < 4 + 4a1 + (a1 )2
4a2 < 4 + 4a1
a2 < 1 + a1
a2 − a1 < 1
Generalizando:
Pn
i=1 |ai | < 1 → condición suficiente

En el caso de raı́ces reales e iguales:


p
a1 ± a21 + 4a2
−1 < <1
2

a1 ± 0
−1 < ( )<1
2
a1
−1 < <1
2
−2 < a1 < 2
|a1 | < 2
Si a21 + 4a2 = 0:
−a21 = 4a2
−a21
= a2
4
En el caso de raı́ces complejas:

r= −a2 < 1
−a2 < 1
a2 > −1
Y además debemos agregar que:
a2 < 0
Resumimos todas estas condiciones en el siguiente gráfico:

20
Una forma de unificar estas condiciones es diciendo que “todas las raı́ces de la ecuación
caracterı́sticas deben estar dentro del cı́rculo unitario?. Considerando el semicı́rculo a
continuación, vemos que en el eje horizontal se encuentran los números reales, mientras
que, en el eje vertical, los complejos. Si ambas raı́ces son reales, se graficarán en el eje
horizontal. Si las raı́ces son complejas, las podemos dibujar como se ve a continuación:

Usando la fórmula de distancia, podemos obtener:

√ !2
v
u
u a 2 d
1
r=t + i
2 2
v !2
u p
2
u a 2
1 a 1 + 4a 2
r=t + i
2 2
r
a21 a2 + 4a2
r= + (−1) 1
4 4
r
a21 a21 + 4a2
r= −
4 4

21

r= −a2

La estabilidad requiere que r < 1 por lo tanto, requiere que las raı́ces estén dentro del
cı́rculo unitario.

2.6. Solución particular en procesos determinı́sticos


La técnica apropiada para hallar una solución particular dependerá de la forma del for-
cing process xt . Para comenzar, supondremos que este forcing process contiene solamente
componentes determinı́sticos.

A) CASO 1

Cuando todos los elementos del forcing process se anulan, xt = 0, estamos ante un proceso
dinámico pero determinı́stico.
n
X
yt = a0 + ai yt−i + xt
i=1

yt = a0 + a1 yt−1 + a2 yt−2 + . . . + an yt−n

Podemos probar una solución del tipo ytp = c:

c = a0 + a1 c + a2 c + . . . + an c

a0 = c − a1 c − a2 c − . . . − an c

a0 = c(1 − a1 − a2 − . . . − an )
a0
c=
(1 − a1 − a2 −? − an )
Pn
Siempre que i=1 ai 6= 1. En el caso que ese sumatorio sea igual a la unidad, tendremos
al menos una raı́z unitaria, por lo tanto, probamos la siguiente solución ytp = tc:

tc = a0 + a1 (t − 1)c + a2 (t − 2)c + . . . + an (t − n)c

a0 = tc − a1 (t − 1)c − a2 (t − 2)c − . . . − an (t − n)c

a0 = c[t − a1 (t − 1) − a2 (t − 2) − . . . − an (t − n)]

a0 = ct(1 − a1 − a2 − . . . − an ) + c(a1 + 2a2 +? + nan )

Como sabemos que ni=1 ai = 1:


P

a0 = c(a1 + 2a2 + . . . + nan )


a0
c=
(a1 + 2a2 +? + nan )
Si la solución falla nuevamente, probamos ytp = t2 c, ytp = t3 c y ası́ sucesivamente.

22
B) CASO 2

Si el forcing process tiene una forma exponencial del tipo xt = bdrt , el valor de r se
interpreta como la tasa de crecimiento de la variable.

yt = a0 + a1 yt−1 + bdrt

Probamos una solución del tipo ytp = c0 + c1 drt . Tendremos dos casos, primero analicemos
si a0 = 0. En este caso no pondremos la constante c0 ya que, si a0 = 0 entonces debe
darse que c0 = 0; c = Pan0 :
(1− i=1 ai )

yt = a1 yt−1 + bdrt

c1 drt = a1 c1 dr(t−1) + bdrt


a1 c 1
c1 = r + b
d
a1 c 1
c1 − r = b
d
 a1 
c1 1 − r = b
d
 r 
d − a1
c1 =b
dr
dr
 
c1 = b
dr − a1
En el caso que b = 0:
yt = a0 + a1 yt−1

c 0 = a0 + a1 c 0

a0 = c 0 − a1 c 0

a0 = c0 (1 − a1 )
a0
c0 =
1 − a1
Sumando amas soluciones:
dr
 
a0
ytp = + b r drt
1 − a1 d − a1
a0
Va a ser estable si |dr | < 1, converge a 1−a1
. Si a1 = 1 entonces c0 = ct. Además, si a1 = dr
entonces c1 = ct. La solución será igual a la anterior pero multiplicada por t.

C) CASO 3

23
El forcing process en este caso tendrá una tendencia determinı́stica, de la forma xt = btd :
Vamos a probar una solución del tipo ytp = c0 + c1 t + . . . + cd td . Además, suponemos d = 1:

yt = a0 + a1 yt−1 + a2 yt−2 + bt

c0 + c1 t = a0 + a1 [c0 + c1 (t − 1)] + a2 [c0 + c1 (t − 2)] + bt

Si operamos algebraicamente:
b
c1 =
1 − a1 − a2
a0 − (2a2 + a1 )c1
c0 =
(1 − a1 − a2 )
Si 1 = a1 + a2 probamos la siguiente solución:

ytp = (c0 + c1 t)t

2.7. El método de coeficientes indeterminados


Vamos a introducir el primero de los dos métodos útiles para encontrar soluciones parti-
culares cuando existen componentes estocásticos en el proceso yt . Este método establece
que la solución particular de una ecuación en diferencia lineal es necesariamente lineal.
Además, dicha solución puede depender únicamente del tiempo, una constante y los ele-
mentos del forcing process xt . En ciertos casos es posible conocer la forma exacta de la
solución, aunque sus coeficientes sean desconocidos. El método consiste en proponer una
solución que sea una función lineal de todos los términos que anteriormente mencionamos
como posibles. Una vez realizado esto, el problema es hallar todo el set de valores de
estos coeficientes indeterminados para resolver la ecuación en diferencia. Primero debe-
mos sustituir la solución propuesta en la ecuación original y resolver para los valores de
los coeficientes desconocidos que satisfagan la igualdad para todos los valores posibles de
las variables incluidas. Si no es posible obtener una identidad, la forma de la solución
propuesta es incorrecta. Probamos una nueva solución y repetimos el proceso.

A) EJEMPLO 1

Supongamos la siguiente ecuación:

yt = a0 + a1 yt−1 + t

La naturaleza del proceso yt es tal que la solución particular dependerá solamente de una
constante, del tiempo y de los elementos de la secuencia t . Como el tiempo no aparece

24
en el forcing process, el mismo podrá estar en la solución particular solamente si la raı́z
caracterı́stica es igual a la unidad.

X
yt = b0 + b1 t + αi t−i
i=0

Sustituyendo en la ecuación original:

b0 + b1 t + α0 t + α1 t−1 + α2 t−2 + . . . = a0 + a1 [b0 + b1 (t − 1) + α0 t−1 + α1 t−2 + . . .] + t

Reordenando:

b0 +b1 t+α0 t +α1 t−1 +α2 t−2 +. . . = a0 +a1 b0 +a1 b1 t−a1 b1 +a1 α0 t−1 +a1 α1 t−2 +. . .+t

(b0 −a0 −a1 b0 +a1 b1 )+b1 t−a1 b1 t+α0 t −t +α1 t−1 −a1 α0 t−1 +α2 t−2 −a1 α1 t−2 +. . . = 0

(b0 − a0 − a1 b0 + a1 b1 ) + b1 t(1 − a1 ) + t (α0 − 1) + t−1 (α1 − a1 α0 ) + t−2 (α2 − a1 α1 ) + . . . = 0

Esta ecuación debe cumplirse para todos los valores de t y todos los posibles valores de
la secuencia t . Por lo tanto, cada una de estas condiciones deben satisfacerse:

α0 − 1 = 0

α1 − a1 α0 = 0

α2 − a1 α1 = 0

b0 − a0 − a1 b0 + a1 b1 = 0

b 1 − a1 b 1 = 0

Las primeras tres ecuaciones pueden resolverse de forma recursiva para α0 . La primera nos
indica que α0 = 1. Si reemplazamos esto en la segunda ecuación obtenemos que α1 = a1 .
En la tercera tenemos que α2 = a21 . Si continuamos este proceso podemos deducir que
αt = at1 . Ahora veremos las dos últimas ecuaciones. Tenemos dos posibles casos, si a1 6= 1
a0
entonces debe darse que b1 = 0 y b0 = 1−a1
.

a0 X
yt = + αi t−i
1 − a1 i 0

Podemos observar que obtenemos la misma solución que mediante el método de iteración.
Por tanto, la solución general será:

a0 X
yt = + αi t−i + Aα1t
1 − a1 i=0

Si tenemos una condición inicial para y0 :



a0 X
y0 = + αi t−i + A
1 − a1 i=0

25

a0 X
A = y0 − − αi t−i
1 − a1 i=0

Reemplazando, para eliminar la constante:


∞ ∞
!
a0 X a0 X
yt = + αi t−i + y0 − − αi t−i α1t
1 − a1 i=0 1 − a1 i=0

t−1  
a0 X a0
yt = + αi t−i + y0 − α1t
1 − a1 i=0 1 − a1
Si a1 = 1 entonces tenemos que b1 = a0 y b0 puede ser cualquier constante arbitraria. La
solución será: ∞
X
y t = b 0 + a0 t + t−i
i=0

La forma de la solución es incorrecta ya que el sumatorio no será finito. Por eso es necesario
imponer una condición inicial, por ejemplo y0 :

X
y 0 = b0 + −i
i=0

Si reemplazamos en la solución:
t
X
y t = y 0 + a0 t + i
i=1

B) EJEMPLO 2

yt = a0 + a1 yt−1 + t + β1 t−1

Si suponemos la misma solución que antes, y reemplazamos:



X
yt = b0 + b1 t + αi t−i
i=0


X ∞
X
b0 + b1 t + αi t−i = a0 + a1 [b0 + b1 (t − 1) + αi t−1−i ] + t + β1 t−1
i=0 i=0

Las condiciones que deben cumplirse son:

α0 = 1

α1 = a1 α0 + β1

α2 = a1 α1

Por lo tanto, debe ocurrir que αi = a1i−1 (a1 + β1 ).

b0 − a0 − a1 b0 + a1 b1 = 0

26
b 1 − a1 b 1 = 0
a0
De nuevo tenemos dos casos posibles: si a1 6= 1 entonces debe darse que b1 = 0 y b0 = 1−a1
.
La solución particular será:

a0 X
yt = + t + (a1 + β1 ) α1i−1 t−i
1 − a1 i=1

Ahora consideremos el caso en que a1 = 1, entonces b1 = a0 y b0 puede ser cualquier


constante arbitraria. La solución será:

X
yt = b0 + a0 t + t + (1 + β1 ) t−i
i=1

Si tenemos una condición inicial:



X
y0 = b0 + t + (1 + β1 ) −i
i=1

Entonces:
t−1
X
yt = y0 + a0 t + t + (1 + β1 ) t−i
i=1

C) ECUACIONES DE ORDEN SUPERIOR

El mismo procedimiento se utiliza para ecuaciones de orden superior. Consideremos la de


segundo orden:
yt = a0 + a1 yt−1 + a2 yt−2 + t
Usaremos la siguiente solución:

yt = b0 + b1 t + b2 t2 + α0 t + α1 t−1 + α2 t−2 + . . .

Sustituyendo en la ecuación original y sacando factor común como hicimos anteriormente,


obtenemos las siguientes condiciones:

α0 = 1

α 1 = a1 α 0
α 2 = a1 α 1 + a2 α 0
α 3 = a1 α 2 + a2 α 1
Las condiciones necesarias para la convergencia son que |a1 | < 1, a1 +a2 < 1 y a2 −a1 < 1.
Esto implica que los efectos de los errores pasados tienen una influencia cada vez menor en
el valor de yt . Si los coeficientes convergen, la serie será estable si a21 +4a2 > 0. La condición
de estabilidad para la ecuación homogénea es precisamente la condición de convergencia
para la solución particular. Si las raı́ces caracterı́sticas de la ecuación homogénea son
iguales a la unidad, aparecerá un polinomio t en la solución particular. El orden de dicho
polinomio es el número de raı́ces caracterı́sticas unitarias.

27
D) PROBLEMA RESUELTO

Partimos de:
yt = 3 + 0, 9yt−1 − 0, 2yt−2 + t

Si resolvemos, obtendremos que las raı́ces de la ecuación homogénea son 0, 5 y 0, 4, mien-


tras que la solución particular determinı́stica es igual a 10. Para hallar la porción es-
tocástica de la solución particular, probamos la siguiente solución:

X
yt = αi t−i
i=0

Se excluye el término b0 porque ya obtuvimos la parte determinı́stica de la solución parti-


cular y también excluimos el término b1 t porque ambas raı́ces son menores a la unidad. Si
desarrollamos la solución y sacamos factor común, obtenemos las siguientes condiciones:

α0 = 1

α1 = 0, 9α0

α2 = 0, 9α1 − 0, 2α0

Para todo i ≥ 2:
αi = 0, 9αi−1 − 0, 2αi−2

Esta última es una nueva ecuación en diferencias, resolviendo:

αi = 5(0, 5)i − 4(0, 4)i

Las constantes arbitrarias se obtuvieron mediante las condiciones anteriores. La solución


general será:

X
t t
yt = 10 + A1 (0, 5) + A2 (0, 4) + αi t−i
i=0

Finalmente, podemos eliminar las constantes arbitrarias mediante condiciones iniciales.

2.8. Operador de rezago


Si no es necesario conocer los valores actuales de los coeficientes de la solución particular,
será más conveniente utilizar el operador de rezago antes que el método de coeficientes
indeterminados. Definimos a este operador como un operador lineal tal que para cualquier
valor de yt :
Li yt = yt−i

Las propiedades de este operador son las siguientes:

28
El rezago de una constante es la constante misma: Li c = c

Propiedad distributiva: (Li + Lj )yt = Li yt + Lj yt = yt−i + yt−j

Propiedad asociativa: Li Lj yt = Li (Lj yt ) = Li yt−j = yt−j−i

El operador de rezago elevado a una potencia negativa se convierte en un operador


de liderazgo. Si definimos j = −i : Lj yt = yt−j = yt+i
yt
Si tenemos |a| < 1, la suma infinita (1 + aL + a2 L2 + a3 L3 + . . .)yt = 1−aL

Si tenemos |a| > 1, la suma infinita (1 + aL + a( − 2)L( − 2) + a( − 3)L( − 3) + . . .)yt =


aLyt
− 1−aL
(aL) −1
yt
Partimos de 1−aL
. Multiplico y divido por − (aL) −1

1
(aL)( − 1) yt
1 − (aL)−1

X
−(aL)−1 (aL)−i yt
i=0

X
−1
−(aL) a−i yt−i
i=0

La expresión anterior es convergente porque trabajamos con el operador de liderazgo.


Modelo forward looking. Los operadores de rezagos proveen una notación más sencilla a
la hora de trabajar con ecuaciones en diferencia. Si tenemos la siguiente ecuación:

yt = a0 + a1 yt−1 + . . . + ap yt−p + t

Mediante operadores de rezagos, la podemos reescribir como:

(1 − a1 L − a2 L2 − . . . − ap Lp )yt = a0 + t

A(L)yt = a0 + t

Ese polinomio A(L) se denomina ecuación caracterı́stica inversa. Las raı́ces de dicho poli-
nomio deben estar fuera del cı́rculo unitario, para cumplir con la estabilidad. Por lo tanto,
la notación A(1) se utiliza para la suma de coeficientes:

A(1) = 1 − a1 − a2 − . . . − ap

Si ahora tenemos la siguiente ecuación:

yt = a0 + a1 yt−1 + . . . + ap yt−p + t + β1 t−1 + . . . + βq t−q

29
Podemos escribirla como:
A(L)yt = a0 + B(L)t

También podemos utilizar los operadores de rezagos para resolver ecuaciones en diferencia.
Si partimos de:
yt = a0 + a1 yt−1 + t

Si además sabemos que |a1 | < 1:

yt = a0 + a1 Lyt + t
a0 − t
yt =
1 − a1 L
Por la propiedad 1, sabemos que:
a0 a0
=
1 − a1 L 1 − a1
Por la propiedad 5, sabemos que:
t
= t + a1 t−1 + a1 t−2 + . . .
1 − a1 L
Combinando, obtenemos la solución:

a0 X
yt = + ai t−i
1 − a1 i=0 1

Ahora suponemos que |a1 | > 1. El uso de la propiedad 5 es inapropiado, debemos utilizar
la propiedad 6, entonces:

a0 X
yt = − (a1 L)−1 + (a1 L)−i t
1 − a1 i=0


a0 1 X
yt = − + (a1 L)−i t+1
1 − a1 a1 i=0

a0 1 X
yt = − + a−i t+1+i
1 − a1 a1 i=0 1

2.9. Soluciones forward looking y backward looking


Obtener soluciones forward looking a veces es útil para resolver modelos de expectativas
racionales. Si partimos de
yt = a0 + a1 yt−1 + t

Resolviendo para yt−1 :


a0 + t yt
yt−1 = − +
a1 a1

30
Adelantando un perı́odo:
a0 + t+1 yt+1
yt = − +
a1 a1
Adelantando n perı́odos:
n n
X X yt+n
yt = −a0 a−i
1 − a−i
1 t+i +
i=1 i=1
an1

En el caso de las soluciones forward looking, si |a1 | < 1 la misma será divergente. Si
|a1 | > 1 la misma converge. En este caso, los valores futuros de los errores afectan al
presente. Dada una condición inicial, una ecuación en diferencias estocástica tendrá una
solución forward looking y una backward looking. Cualquier combinación lineal de ambas
será solución también, siempre que la ecuación original sea lineal.

31
Capı́tulo 3

Modelos de series de tiempo


estacionarios

3.1. Introducción
Ahora le permitiremos al forcing process ser estocástico. Las ecuaciones serán de la forma:

yt = a0 + a1 yt−1 + . . . + ap yt−p + t + β1 t−1 + . . . βq t−q

Tales modelos son denominados ARIM A.

3.2. Modelos de ecuaciones en diferencia estocásticos


Una variable discreta y será una variable aleatoria (estocástica) si para cualquier número
real r, existe una probabilidad p(y ≤ r), es decir, que la variable asuma un valor menor
o igual a r. También podemos expresarlo de esta forma: si existe al menos un valor de r
para el cual 0 < p(y = r) < 1. Si hay algún r para el cual p(y = r) = 1 entonces estamos
ante una variable determinı́stica.
Para variables discretas, la distribución de probabilidad de y está dada por una fórmula o
tabla que especifica cada valor posible de y, y cada una de sus probabilidades asociadas.
Si esas realizaciones están relacionadas a lo largo del tiempo, existirá una distribución de
probabilidad conjunta p(y1 = r1 , y2 = r2 , . . . , yT = rT ).
Habiendo observado las primeras t realizaciones, podemos formar el valor esperado de
yt+1 ,yt+2 . . . condicionado a los valores observados de y. Por ejemplo, la esperanza condi-
cional de yt+i se denota Et (yt+i |yt , yt−1 , . . . , y1 ) o simplemente Et yt+i .
Decimos que una secuencia t es un proceso de ruido blanco si cada valor de la secuencia
tiene una media cero, varianza constante y sus elementos estás incorrelacionados. Es decir,
debe cumplir estas tres condiciones:

32
E(t ) = E(t−1 ) = . . . = 0

E(2t ) = E(2t−1 ) = . . . = σ 2

E(t t−s ) = E(t−j t−j−s ) = 0

Ahora, a partir de esto, vamos a tomar un proceso con ruido blanco y vamos a construir
una secuencia llamada “medias móviles”de orden q y que se denota como M A(q).
q
X
xt = βi t−i
i=0

Una curiosidad es que, por más que la secuencia {t } sea un ruido blanco, el forcing
process {xt } no será un ruido blanco si dos o más βi son distintos a cero.

3.3. Modelos ARMA


Es posible combinar un proceso de medias móviles con una ecuación en diferencias lineal
y obtener un modelo ARM A. Consideremos la ecuación de orden p:
p
X
yt = a0 + ai yt−i + xt
i=1

Sea {xt } un M A(q) como el visto anteriormente, entonces:


p q
X X
y t = a0 + ai yt−i + βi t−i
i=1 i=0

Suponemos β0 = 0. Si las raı́ces caracterı́sticas de la ecuación anterior están dentro del


cı́rculo unitario, {yt } será un modelo ARM A de yt . La ecuación en diferencia es la parte
AR, mientras que el forcing process es el M A. Si la parte homogénea de la ecuación en dife-
rencias contiene p rezagos, y el forcing process contiene q, el modelo será un ARM A(p, q).
Si una o más raı́ces son igual o más grandes que la unidad, estaremos ante un modelo
integrado ARIM A.
Si q = 0 tenemos un AR(p), mientras que si p = 0 tenemos un M A(q). Es totalmente
válido que p o q asuman el valor infinito.
La solución de un modelo ARM A(p, q) expresa la variable y en términos de la secuencia
{t } y se denomina representación en medias móviles de yt . Si tenemos un modelo AR(1):

yt = a0 + a1 yt−1 + t

La solución será: ∞
a0 X
yt = + ai t−i
1 − a1 i=0 1

33
Para un modelo general ARM A(p, q), podemos expresarlo mediante operadores de rezago:
p q
!
X X
1− ai L i y t = a0 + βi t−i
i=1 i=0

La solución particular será:


a0 + qi=0 βi t−i
P
yt =
1 − pi=1 ai Li
P

Si desarrollamos los sumatorios, obtendremos un proceso M A(∞). La cuestión es que,


si esta expansión es convergente, la ecuación en diferencias estocástica será estable. La
estabilidad nos indica que las raı́ces caracterı́sticas del polinomio 1 − pi=1 ai Li deben
P

estar fuera del cı́rculo unitario. Además, si yt es una ecuación en diferencias lineal y
estocástica, la condición de estabilidad es una condición necesaria para que la serie {yt }
sea estacionaria.

3.4. Estacionariedad
Normalmente, nosotros observamos solo un set de realizaciones para cada serie en parti-
cular. Si {yt } es una serie estacionaria, la media, varianza y autocorrelaciones pueden ser
aproximadas por medias de largo plazo basadas en ese solo set de realizaciones. Formal-
mente, un proceso estocástico es estacionario si:

E(yt ) = E(yt−s ) = . . . = µ

E((yt − µ)2 ) = E((yt−s − µ)2 ) = . . . = σy2

E((yt − µ)(yt−s − µ)) = E((yt−j − µ)(yt−j−s − µ)) = γs

Si hacemos s = 0, γs será igual a la varianza de yt . Es decir, una serie será estacionaria si


su media y todas las autocorrelaciones no varı́an ante un cambio en el origen del tiempo.
Podemos definir la autocorrelación entre yt y yt−s como:
γs
ρs =
γ0
Como γs y γ0 son independientes del tiempo, la autocorrelación también lo será. La
autocorrelación entre yt y yt−1 debe ser idéntica a la autocorrelación entre yt−s y yt−s−1 .
Obviamente ρ0 = 1.

A) RESTRICCIONES DE ESTACIONARIEDAD PARA PROCESOS AR(1)

Partimos de:
yt = a0 + a1 yt−1 + t

34
Siendo t un ruido blanco. El proceso inicia en el perı́odo 0, por lo tanto y0 es una condición
inicial determinı́stica. Anteriormente vimos que la solución para esta ecuación es:
t−1
X t−1
X
yt = a0 ai1 + at1 y0 + ai1 t−i
i=0 i=0

Si tomamos el valor esperado:


t−1
X
Eyt = a0 ai1 + at1 y0
i=0

Adelantando s perı́odos:
t+s−1
X
Eyt+s = a0 ai1 + at+s
1 y0
i=0

Vemos que ambas esperanzas dependen del tiempo, entonces, ya que ambas no son iguales,
no podrı́a ser estacionario. Pero, si el t es lo suficientemente grande, podemos considerar
el lı́mite de yt . Si |a1 | < 1:

a0 X
lı́m yt = + ai t−i
t→∞ 1 − a1 i=0 1

Ahora volvemos a verificar las condiciones de estacionariedad:


a0
Eyt = Eyt−s = µ =
1 − a1
La esperanza es finita e independiente del tiempo.

E((yt − µ)2 ) = E[(t + a1 t−1 + a21 t−2 + . . .)2 ]

E((yt − µ)2 ) = σ 2 (1 + a21 + a41 + . . .)


σ2
E((yt − µ)2 ) =
1 − a21
Vemos que la varianza es finita e independiente del tiempo también. Lo mismo ocurre con
las autocovarianzas:

E((yt − µ)(yt−s − µ)) = E[(t + a1 t−1 + a21 t−2 + . . .)(t−s + a1 t−s−1 + a21 t−s−2 + . . .)]

E((yt − µ)(yt−s − µ)) = σ 2 as1 (1 + a21 + a41 + . . .)


σ 2 as1
E((yt − µ)2 ) =
1 − a21
Resumiendo, si podemos utilizar el lı́mite de yt , la secuencia {yt } será estacionaria. Si
tenemos un y0 dado y además |a1 | < 1, el t deberá ser lo suficientemente grande. Entonces,

35
si una muestra es generada por un proceso que recién ha comenzado, las realizaciones
pueden no ser estacionarias. Si no tenemos la condición inicial y0 , la solución será:

a0 X
lı́m yt = + ai1 t−i + Aat1
t→∞ 1 − a1 i=0

Si tomamos esperanza, vemos que la serie no será estacionaria a menos que la expresión
Aat1 sea igual a cero, ya sea porque la seria haya comenzado hace mucho tiempo (at1 = 0)
o porque la constante arbitraria A sea cero. Resumiendo, tenemos dos condiciones para
la estacionariedad:

Que la solución homogénea sea cero, ya sea porque el proceso comenzó hace mucho
tiempo o porque el mismo ha estado siempre en equilibrio.

Que la raı́z caracterı́stica a1 sea menor a la unidad, en valor absoluto.

Estas dos caracterı́sticas aplican para todos los modelos ARM A(p, q). Si tenemos un
proceso M A(q):
p q
X X
y t = a0 + ai yt−i + βi t−i
i=1 i=0

La solución homogénea será:


p
X
Ai αit
i=1

Si las raı́ces son repetidas:


m p
X X
i
α Ai t + Ai αit
i=1 i=m+1

Para cualquier modelo ARM A(p, q) la estacionariedad requiere que la solución homogénea
sea igual a cero.

3.5. Restricciones de estacionariedad para procesos


ARMA(p,q)
Primero consideremos un modelo ARM A(2, 1), suponiendo a0 = 0:

yt = a1 yt−1 + a2 yt−2 + t + β1 t−1

Como sabemos que la solución homogénea debe ser cero, solo nos resta encontrar la
solución particular:

X
yt = αi t−i
i=0

36
Si resolvemos por medio de coeficientes indeterminados, obtenemos las siguientes condi-
ciones:
α0 = 1

α1 = a1 α0 + β1

αi = a1 αi−1 + a2 αi−2

Para i ≥ 2 los coeficientes satisfacen la siguiente ecuación:

αi = a1 αi−1 + a2 αi−2

Si las raı́ces caracterı́sticas están dentro del cı́rculo unitario, αi será una secuencia conver-
gente. Para verificar que la solución particular es estacionaria, tomamos esperanza para
obtener Eyt = Eyt−1 = 0, ∀t y ∀i. Por lo tanto, la esperanza será finita e independiente
del tiempo. Dado que se asumió a la secuencia {t } como un ruido blanco, la varianza
será constante e independiente del tiempo:

V ar(yt ) = E[(α0 t + α1 t−1 + α2 t−2 + . . .)2 ]



X
V ar(yt ) = σ 2 αi2
i=0

Finalmente la covarianza entre yt y yt−s será constante e independiente del tiempo tam-
bién:

Cov(yt ; yt−1 ) = E[(t + α1 t−1 + α2 t−2 + . . .)(t−1 + α1 t−2 + α2 t−3 + . . .)]

Cov(yt ; yt−2 ) = E[(t + α1 t−1 + α2 t−2 + . . .)(t−2 + α1 t−3 + α2 t−4 + . . .)]

Entonces:
Cov(yt ; yt−s ) = σ 2 (αs + αs+1 α1 + αs+2 α2 + . . .)

Generalizando estas condiciones, comenzamos por un modelo M A(∞). Si restringimos los


βi podemos considerar los siguientes M A(q) finitos:

X
xt = βi t−i
i=0

donde t es un proceso de ruido blanco con varianza σ 2 . Ya hemos determinado que xt no


es un proceso de ruido blanco, ahora, este {xt }, ¿es estacionario? Consideremos los tres
puntos siguientes:

Esperanza finita a independiente del tiempo

37
Ext = E(t + β1 t−1 + β2 t−2 + . . .)

Ext = Et + β1 Et−1 + β2 t−2 + . . . = 0

Repitiendo el proceso:

Ext−s = E(t−s + β1 t−s−1 + β2 t−s−2 + . . .) = 0

Por lo tanto, todos los elementos de {xt } tienen media finita e igual a cero (µ = 0).

Varianza finita e independiente del tiempo

V ar(xt ) = E[(t + β1 t−1 + β2 t−2 + . . .)2 ]

Sabiendo que Et t−s , ∀s 6= 0:

V ar(xt ) = E(t )2 + (β1 )2 E(t−1 )2 + (β2 )2 E(t−2 )2 + . . .

V ar(xt ) = σ 2 [1 + (β1 )2 + (β2 )2 + . . .]

(βi )2 es finita, la V ar(xt ) será finita. Por lo tanto, que el sumatorio sea finito es una
P
Si
condición necesaria para que exista estacionariedad en el proceso {xt }. Además:

V ar(xt−s ) = E[(t−s + β1 t−s−1 + β2 t−s−2 + . . .)2 ]

V ar(xt ) = σ 2 [1 + (β1 )2 + (β2 )2 + . . .]

Es independiente del tiempo.

Autocovarianzas finitas e independientes del tiempo

E(xt ; xt−s ) = E[(t + β1 t−1 + β2 t−2 + . . .)(t−s + β1 t−s−1 + β2 t−s−2 + . . .)]

Sabiendo que Et t−s , ∀s 6= 0:

E(xt ; xt−s ) = σ 2 [βs + β1 βs+1 + β2 βs+2 + . . .]

Suponiendo que la suma βs + β1 βs+1 + β2 βs+2 + . . . es finita, la covarianza será finita.


Ahı́ tenemos la segunda condición necesaria para estacionariedad. Además vemos que la
misma no depende del tiempo t. Resumiendo, las dos condiciones necesarias y suficientes
para que exista estacionariedad son las siguientes:

(βi )2 finita
P

βs + β1 βs+1 + β2 βs+2 + . . . finita

Si la segunda restricción se cumple ∀s y para β0 = 1 entonces la primer condición será


redundante. Esto implica que un proceso M A de orden finito será siempre estacionario.
Para procesos M A infinitos, la segunda condición se cumple ∀s ≥ 0

38
CONDICIONES PARA COEFICIENTES AUTOREGRESIVOS

Partimos de: p
X
y t = a0 + ai yt−i + t
i=1

Si las raı́ces caracterı́sticas están dentro del cı́rculo unitario, podemos escribir la solución
particular como:

a
P0p
X
yt = + αi t−i
1− i=1 ai i=0

Donde αi son los coeficientes indeterminados. Sabemos que {yt } es una secuencia conver-
gente ya que las raı́ces pertenecen al cı́rculo unitario. Además sabemos que los coeficientes
satisfacen:
αi + a1 αi−1 + a2 αi−2 + . . . + ap αi−p = 0

Si las raı́ces están en el cı́rculo unitario, la secuencia será convergente. Como estamos ante
un proceso M A(∞) sabemos que αi2 es finita. Ahora vamos a comprobar las condiciones
P

para estacionariedad, suponiendo α0 = 1:

a
1. Eyt = Eyt−s = P0
1− αi

2. V ar(yt ) = E[(t + α1 t−1 + α2 t−2 + . . .)2 ] = σ 2 αi2


P

3. Cov(yt ; yt−s ) = E[(t + α1 t−1 + α2 t−2 + . . .)(t−s + α1 t−s−1 + α2 t−s−2 + . . .)] =


σ 2 [αs + α1 αs+1 + α2 αs+2 + . . .]

αi2 es finita, será estacionario. Si ahora combinamos un


P P
Por lo tanto, si 1 − αi 6= 0 y
proceso AR(p) con uno M A(q) tenemos un ARM A(p, q):
p
X
y t = a0 + αi yt−i + xt
i=1

q
X
xt = βi t−i
i=0

Si las raı́ces de la ecuación caracterı́stica inversa están fuera del cı́rculo unitario y además
xt es estacionario, entonces yt es estacionario también:
a  β β
yt = P0p + Ppt + P1 pt−1 i + P2 pt−2 i + . . .
1− i=1 αi 1− i=1 αi Li 1 − i=1 αi L 1 − i=1 αi L

La misma cumple las tres condiciones de estacionariedad. Entonces, si {xt } es estacionario,


solo las raı́ces de la parte AR determinan si {yt } es estacionario.

39
3.6. La función de autocorrelación
Las autocovarianzas y autocorrelaciones que vimos anteriormente son de utilidad para
la aproximación de Box-Jenkins para identificar y estimar modelos de series de tiempo.
Vamos a considerar cuatro ejemplos importantes:

A) MA(1)

yt = a0 + a1 yt−1 + t

Operando:

E((yt − µ)(yt−s − µ)) = E[(t + a1 t−1 + a21 t−2 + . . .)(t−s + a1 t−s−1 + a21 t−s−2 + . . .)]

E((yt − µ)(yt−s − µ)) = σ 2 as1 (1 + a21 + a41 + . . .)


σ 2 as1
E((yt − µ)2 ) =
1 − a21
Por lo tanto:
σ2
γ0 =
1 − a21
σ 2 a1
γ1 =
1 − a21
Dividimos cada una por γ0 y obtenemos las autocorrelaciones:

ρ0 = 1

ρ 1 = a1

ρ2 = a21

Generalizando:
ρs = as1

Por lo tanto, para procesos AR(1) una condición necesaria para la estacionariedad es que
|a1 | < 1. Luego, el gráfico de la ACF (Función de autocorrelación o correlograma) converge
a cero si la serie es estacionaria. Si a1 es positivo lo hará de forma directa, mientras que
si a1 es negativo, lo hará oscilando.

40
B) AR(2)

yt = a0 + a1 yt−1 + a2 yt−2 + t

Omitimos el intercepto a0 ya que no tiene relevancia en la ACF.

yt = a1 yt−1 + a2 yt−2 + t

Vamos a obtener las autocovarianzas por medio de la ecuaciones de Yule-Walker. Mul-


tiplicamos la ecuación original por un retardador yt−s para s = 0, s = 1, s = 2 y ası́
sucesivamente y luego tomamos esperanza:

Eyt yt = a1 Eyt−1 yt + a2 Eyt−2 yt + Et yt

Eyt yt−1 = a1 Eyt−1 yt−1 + a2 Eyt−2 yt−1 + Et yt−1

Eyt yt−2 = a1 Eyt−1 yt−2 + a2 Eyt−2 yt−2 + Et yt−2

Generalizando:
Eyt yt−s = a1 Eyt−1 yt−s + a2 Eyt−2 yt−s + Et yt−s

Por definición de autocovarianza de series estacionarias, sabemos que:

Eyt yt−s = Eyt−s yt = Eyt−k yt−k−s = γs

Además sabemos que el coeficiente de t es igual a la unidadpor lo tanto:

Et yt = σ 2

Como sabemos que Eyt yt−s = 0 podemos usar la ecuación anterior para formar:

γ0 = a1 γ1 + a2 γ2 + σ 2

41
γ1 = a1 γ0 + a2 γ1

γs = a1 γs−1 + a2 γs−2

Dividiendo estas dos últimas por γ0 :

ρ 1 = a1 ρ 0 + a2 ρ 1

ρs = a1 ρs−1 + a2 ρs−2

Sabemos que ρ0 = 1 entonces:


a1
ρ1 =
1 − a2
Para los s ≥ 2:
a21
ρ2 =
(1 − a1 ) + a2
a21 a2 a1
ρ 3 = a1
(1 − a1 ) + a2 1 − a2
La condición de estacionariedad indica que las raı́ces de ρs = a1 ρs−1 + a2 ρs−2 deben
estar dentro del cı́rculo unitario, por lo tanto la secuencia {ρs } será convergente. Esto lo
podemos ver en el siguiente gráfico:

Finalmente si queremos encontrar las covarianzas en lugar de las autocorrelaciones, por


γi
ejemplo γ0 , podemos usar ρi = γ0
entonces:

σ2
  
1 − a2
γ0 = var(yt ) =
1 + a2 (a1 + a2 − 1)(a2 − a1 − 1)

C) MA(1)

Partimos de:
yt = t + βt−1

Obtenemos la ecuaciones de Yule-Walker multiplicando yt por cada yt−s y luego tomamos


esperanza:
γ0 = Eyt yt = E[(t + βt−1 )(t + βt−1 )] = (1 + β 2 )σ 2

γ1 = Eyt yt−1 = E[(t + βt−1 )(t−1 + βt−2 )] = βσ 2

42
Generalizando:

γs = Eyt yt−s = E[(t + βt−1 )(t−s + βt−s−1 )] = 0

para todo s > 1. Luego, si dividimos cada γs por γ0 obtenemos la ACF que tiene la forma:

ρ0 = 1
β
ρ1 =
1 + β2
ρs = 0

D) ARMA(1,1)

Partimos de:
yt = a1 yt−1 + t + β! t−1

Encontramos la ecuaciones de Yule-Walker:

Eyt yt = a1 Eyt−1 yt + Et yt + β1 Et−1 yt → γ0 = a1 γ1 + σ 2 + β1 (a1 + β1 )σ 2

Eyt yt−1 = a1 Eyt−1 yt−1 + Et yt−1 + β1 Et−1 yt−1 → γ1 = a1 γ0 + β1 σ 2

Eyt yt−2 = a1 Eyt−1 yt−2 + Et yt−2 + β1 Et−1 yt−2 → γ2 = a1 γ1

Generalizando:

Eyt yt−s = a1 Eyt−1 yt−s + Et yt−s + β1 Et−1 yt−s → γs = a1 γs−1

Resolviendo las dos primeras ecuaciones:


1 + β12 + 2a1 β1 2
γ0 = σ
1 − a21
(1 + a1 β1 )(a1 + β1 ) 2
γ1 = σ
1 − a21
Por lo tanto:
(1 + a1 β1 )(a1 + β1 )
ρ1 =
(1 + β12 + 2a1 β1 )
Además ρs = a1 ρs−1 para todo s ≥ 2. La magnitud de ρ1 depende de a1 y β1 . La ACF de
un ARM A(1, 1) se parece a la de un AR(1). Si 0 < a1 < 1 la convergencia será directa
mientras que si −1 < a1 < 0 la convergencia será oscilatoria.

43
3.7. La función de autocorrelación parcial
En un proceso AR(1) yt y yt−2 están correlacionados aunque yt−2 no aparece directamente
en el modelo. La correlación entre yt y yt−2 es igual a la correlación entre yt y yt−1
multiplicado por la correlación entre yt−1 y yt−2 . Todas estas correlaciones “indirectas”
están presentes en la función de autocorrelación (ACF). La función de autocorrelación
parcial (PACF) entre yt y yt−s elimina los efectos que intervienen entre yt−1 y yt−s+1 .
Para encontrar la PACF primeros eliminamos la media de cada observación de yt∗ , es decir
yt∗ = yt − µ. Luego formamos la ecuación autorregresiva de primer orden:

yt∗ = φ11 yt−1



+ et

Usamos la simbologı́a {et } ya que es un término de error que podrı́a no ser un ruido
blanco.
Dado que no hay valores intermedios, φ11 es tanto la autocorrelación como la autocorre-
lación parcial entre yt y yt−1 .
φ11 = ρ1

Para la ecuación de segundo orden:

yt∗ = φ21 yt−1


∗ ∗
+ φ22 yt−2 + et

En este caso, φ22 es el coeficiente de autocorrelación parcial entre yt y yt−2 .


Hacemos los siguientes pasos algebraicos: multiplicamos por yt−1 y divido por γ0 , luego
tomo esperanza. Esto nos da la primer ecuación a continuación. En la segunda, hacemos
lo mismo solo que multiplicando por yt−2 .

ρ1 = φ21 ρ0 + φ22 ρ1

ρ2 = φ21 ρ1 + φ22 ρ0

Nuestro objetivo es hallar φ22 . También desconocemos el valor de φ21 pero no nos intere-
sa. Sabiendo que ρ0 = 1 armamos un sistema de ecuaciones y lo expresamos en forma
matricial:

44
! ! !
1 ρ1 φ21 ρ1
=
ρ1 1 φ22 ρ2

Resolviendo por Kramer:


 
 1 ρ1 
det
 

ρ1 ρ2
φ22 = 1−ρ21

ρ2 − ρ21
φ22 =
1 − ρ21
Si repetimos para todos los s obtenemos la PACF.

ρs − s−1
P
j=1 φs−1,j ρs−j
φss = Ps−1
1 − j=1 φs−1,j ρj

Donde:
φsj = φs−1,j − φss φs−1,s−j

∀j = 1, 2, 3, . . . , s − 1.
En un AR(p) no hay correlación directa entre yt y yt−s para s > p. Por lo tanto, todos
los φss para s > p serán nulos y la PACF se hará nula también a partir del momento
siguiente a p. Entonces, si tenemos un AR(1):

φ11 = ρ1 = a1

ρ2 − ρ21 a21 − a21


φ22 = = =0
1 − ρ21 1 − a21

En el caso de un AR(2) el gráfico será como el siguiente:

45
En cambio, si tenemos un M A(1) de la forma yt = t +βt−1 . Si se da que β 6= −1 entonces
yt
podremos escribir 1+βL
= t . Desarrollando:

yt − βyt−1 + β 2 yt−2 − β 3 yt−3 + . . . = t

La PACF no se irá a cero abruptamente sino que irá decayendo paulatinamente. Si β < 0
lo hará de forma directa, mientras que si β > 0 lo hará oscilando.
β1
φ11 = ρ1 =
1 + β12
β12
ρ2 − ρ21 0− (1+β12 )2
φ22 = = β12
6= 0
1 − ρ21 1− (1+β12 )2

φ33 6= 0

A) EJEMPLO NUMÉRICO

Suponemos un proceso ARM A(1, 1) como el siguiente:

yt = −0, 7yt−1 + t − 0, 7t−1

Primero vamos a calcular las autocorrelaciones:

ρ0 = 1

(1 + a1 β1 )(a1 + β1 ) (1 + 0, 49)(−0, 7 − 0, 7)
ρ1 = 2
= = −0, 8445
(1 + β1 + 2a1 β1 ) 1 + 0, 49 + 2(0, 49)
Además sabemos que ρs = a1 ρs−1 por lo que las correlaciones siguientes se pueden calcular
como ρi = −0, 7ρi−1 :
ρ2 = 0, 591

46
ρ3 = −0, 414

ρ4 = 0, 290

ρ5 = −0, 203

ρ6 = 0, 142

ρ7 = −0, 010

ρ8 = 0, 070

ρ9 = −0, 049

Un segundo paso es calcular las autocorrelaciones parciales:

φ11 = ρ1 = −0, 8445

ρ2 − ρ21 0, 591 − (−0, 8445)2


φ22 = = = −0, 425
1 − ρ21 1 − (−0, 8445)2
Para encontrar las autocorrelaciones parciales siguientes, usamos la fórmula que derivamos
antes: Ps−1
ρs − j=1 φs−1,j ρs−j
φss = Ps−1
1 − j=1 φs−1,j ρj
Por ejemplo, para encontrar φ33 usamos:
P2
ρ3 − j=1 φ2,j ρ3−j
φ33 = P2
1− j=1 φ2,j ρj

Pero debemos encontrar algunas correlaciones cruzadas mediante φsj = φs−1,j −φss φs−1,s−j .
Para el caso de φ21 :
φ21 = φ11 − φ22 φ11 = −1, 204

Ahora si, calcuamos φ33

−0, 414 − (−1, 204)(0, 591) − (−0, 425)(−0, 8445)


φ33 = = −0, 262
1 − (−1, 204)(−0, 8445) − (−0, 425)(0, 591)

Repetimos el mismo proceso para obtener φ44 recordando que antes debemos buscar φ31
y φ32 . Lo mismo para los demás.
φ44 = −0, 173

φ55 = −0, 117

φ66 = −0, 081

φ77 = −0, 056

φ88 = −0, 039

47
Resumiendo en una tabla todo lo que vimos anteriormente:

Procesos ACF PACF

Ruido blanco Todos ρs = 0 Todos φss = 0

AR(1) con a1 > 0 Cae directamente: ρs = as1 φ11 = ρ1 ; φss = 0 para s ≥ 2


AR(1) con a1 < 0 Cae oscilando: ρs = as1 φ11 = ρ1 ; φss = 0 para s ≥ 2
AR(p) Cae hacı́a cero. Los coeficientes van oscilando Cae en el lag siguiente a p. Todos los φss = 0 para s > p

M A(1) con β > 0 Pico positivo en el lag 1, ρs = 0 para s ≥ 2 Decae oscilando φ11 > 0
M A(1) con β < 0 Pico negativo en el lag 1, ρs = 0 para s ≥ 2 Decae directamente φ11 < 0

ARM A(1, 1) con a1 > 0 Cae directamente desde lag 1. Signo ρ1 = signo a1 + β Cae oscilando desde lag 1, φ11 = ρ1
ARM A(1, 1) con a1 < 0 Cae oscilando desde lag 1. Signo ρ1 = signo a1 + β Cae desde lag 1, φ11 = ρ1 y signo φss = signo φ11
ARM A(p, q) Cae (dir. u osc.) desde lag q Cae (dir. u osc.) desde lag p

La PACF de un ARM A(p, q) comenzará a decaer a partir del lag p. El patrón de caı́da
dependerá de los coeficientes del polinomio (1 + β1 L + β2 L2 + . . . + βq Lq ). A partir de este
lag, los coeficientes de la PACF imitarán a los coeficientes de la ACF.
La ACF de un ARM A(p, q) comenzará a decaer a partir del lag q. A partir de allı́ los
coeficientes de la ACF satisfacen la ecuación ρi = a1 ρi−1 + a2 ρi−2 + . . . + ap ρp .

3.8. Autocorrelaciones muestrales para series esta-


cionarias
En la práctica, la media, varianza y las autocorrelaciones de una serie de tiempo son valores
desconocidos. Por eso si suponemos que una serie es estacionaria, podemos usar la media
muestral, varianza muestral y autocorrelaciones muestrales para estimar los verdaderos
parámetros que dieron origen al proceso.
Sea T el número de observaciones, podemos utilizar ȳ, σ̂ 2 y rs como estimadores de µ, σ 2
y ρs respectivamente: PT
t=1 yt
ȳ =
T
PT
t=1 (yt − ȳ)2
σ̂ 2 =
T
PT
t=s+1 (yt − ȳ)(yt−s − ȳ)
rs = PT 2
t=1 (yt − ȳ)

48
Box y Jenkins analizaron la distribución de los valores muestrales de rs bajo la hipótesis
nula de que yt es estacionario y los errores están normalmente distribuidos. Definiendo
var(rs ) como la varianza muestral de rs obtuvieron los siguientes resultados (si rs = 0):

var(rs ) = T −1 para s = 1
 
var(rs ) = 1 + 2 s−1 2 −1
P
j=1 j T
r para s > 1

Es muestras grandes rs estará normalmente distribuido con media igual a cero. Para los
coeficientes PACF, bajo la hipótesis nula de que se trata de un proceso AR(p) podemos
decir que la varianza de los φp+1,p+i será aproximadamente T −1 . Resumiendo, podemos
encontrar las ACF y PACF y luego hacer un test de significancia con la siguiente hipótesis
nula:

H0 = la autocorrelación de orden s es igual a cero (rs = 0). El proceso M A(s − 1) es


igual a M A(0) (q = 0).

Utilizamos un intervalo de confianza del 95 %, por lo tanto para rechazar la hipótesis nula
el estadı́stico calculado debe exceder al valor de dos desviaciones estándar.
1
En el caso de s = 1 si el valor de rs calculado supera a 2t− 2 rechazamos la hipótesis nula
de que la correlación de primer orden es cero. Por lo tanto q > 0.
En el caso de s = 2 si suponemos r1 = 0, 5 y T = 100 tenemos que:
s−1
!
X
rj2 T −1 = 1 + 2r12 T −1 = 0, 015

var(rs ) = 1 + 2
j=1
p p
var(rs ) = 0, 015 = 0, 123

Por lo tanto, si el valor de rs supera a 2(0, 123) rechazamos la hipótesis de que r2 = 0 y


aceptamos que q > 1.
También podemos utilizar el estadı́stico Q de Box Pierce para testear si un grupo de au-
tocorrelaaciones es significativamente distinto de cero. El mismo tiene la forma siguiente:
s
X
Q=T rk2
k=1

Si se trata de un proceso estacionario ARM A entonces el estadı́stico Q se distribuye χ2


con s grados de libertad. Para mayores autocorrelaciones muestrales, mayores valores de
Q. Si se trata de un proceso de ruido blanco tendremos un Q = 0. El criterio de aceptación
es igual al anterior, solo que ahora la hipótesis son:

H0 = todas las autocorrelaciones son cero

H1 = al menos una autocorrelacion es distinta de cero

49
Este estadı́stico tiene algunos problemas incluso cuando se trata de muestras grandes, por
lo que Ljung y Box desarrollaron otro estadı́stico Q modificado:
s
X rk2
Q = T (T + 2)
k=1
T −k

Donde los criterios de aceptación y las hipótesis son iguales a las anteriores.
Además, estos dos estadı́sticos Q nos permiten para testear si los residuos de un modelo
ARM A(p, q) estimado se comportan como un proceso de ruido blanco. En este caso, el
estadı́stico Q se distribuye χ2 con s − p − q grados de libertad. Si incluimos la constante
o intercepto, los grados de libertad serán s − p − q − 1.

3.9. Criterios de selección de Akaike y Schwarz


Una pregunta que normalmente nos hacemos es: ¿Cuan bien se adapta el modelo a la
información?. Agregar rezagos tiene una parte buena y una mala, es decir existe un trade
off. La buena es que reduce la suma de cuadrados de los residuos estimados, mientras que
la mala es que reduce los grados de libertad ya que debemos estimar una cantidad mayor
de coeficientes. Para esto existen los criterios de selección, donde los más conocidos son
los de Akaike (AIC) y Schwartz (SBC):

AIC = T ln(RSS) + 2n

SBC = T ln(RSS) + nln(T )

donde:

RSS = suma de cuadrados de los residuos (residual sum of squares).

n = número de parámetros estimados (p + q + constante).

T = observaciones

Crear nuevas variables rezagadas trae aparejado una pérdida de observaciones. Por lo
tanto, para comparar modelos, T debe permanecer fijo.
Siempre buscaremos que el AIC o el SBC sean lo más pequeños posibles. Es decir, si
tenemos que elegir entre dos modelos, utilizaremos aquel cuyo valor AIC/SBC sea menor.
Incrementar el número de variables regresoras hace aumentar n y también tiene el efecto
de reducir RSS. Si incluimos en el modelo una variable que no tiene poder explicativo,
haremos aumentar el valor de AIC y de SBC.
Generalmente, ln(T ) > 2 por lo que el costo marginal de agregar regresores es mayor en
SBC. El criterio de SBC elegirá modelos más parsimoniosos que el AIC.

50
Capı́tulo 4

Procesos autorregresivos y raı́ces


unitarias

Partimos de un AR(p):
yt = a1 yt−1 + . . . + ap yt−p + µt

yt − a1 yt−1 − . . . − ap yt−p = µt

yt (1 − a1 L − . . . − ap Lp ) = µp

yt A(L) = µt

A(L) es estable si A(L∗ ) 6= 0 para |L∗ | ≤ 1. Esto equivale a decir que las raı́ces están
fuera del cı́rculo unitario.
Existe un caso especial cuando L∗ = 1 y ocurre que A(L∗ ) = 0.

4.1. Transformación de un proceso de raı́z unitaria


en otro estacionario
Si tenemos un proceso con raı́z unitaria inestable debemos transformarlo para que sea
estable. Lo haremos mediante diferenciación

A(L) = (1 − a∗1 L − . . . − a∗p−1 Lp−1 )(1 − L)

A(L) = A∗ (L)(1 − L)

Siempre que a1 6= a∗1 . Además, el polinomio A∗ (L) es de orden p − 1.


Si reemplazamos en la primer ecuación de este capı́tulo:

yt A∗ (L)(1 − L) = µt

A∗ (L)∆yt = µt

51
¿A∗ (L) es estable? Sabemos que A(L) no lo era porque L∗ = 1. Ahora debemos ver las
restantes p − 1 raı́ces. En caso de que el modelo siga siendo inestable, debemos repetir el
proceso para sacar otra raı́z unitaria y ası́ sucesivamente hasta lograr la estabilidad.
Si A∗ (L) 6= 0 para |L∗ | ≤ 1 entonces ∆yt es estacionario.
Una forma de decir que yt es estacionario es:

yt ∼ I(1)

Lo cual significa que yt es un proceso integrado de orden 1, o estacionario. La integración


es la opuesta a la diferenciación. En general:

yt ∼ I(d)

A) EJEMPLO 1

Partimos de un AR(2):
yt = 1, 5yt−1 − 0, 5yt−2 + µt
P
No es estacionario porque ai = 1, es decir, hay al menos una raı́z unitaria.
Buscamos las raı́ces, para lo cual trabajamos con la inversa:

1 − 1, 5L + 0, 5L2

Hacemos Baskara: √
∗ −b ± b2 − 4ac
L =
2a

∗ 1, 5 ± 0, 25
L =
1
L∗ = 1, 5 ± 0, 5 → L1 = 2 y L2 = 1

Entonces:
(1 − 1, 5L + 0, 5L2 )yt = µt

Lo ponemos en términos de las raı́ces que obtuvimos antes:


1
(2 − L)(1 − L)yt = µt
2
L
(1 − )yt − yt−1 = µt
2
(1 − 0, 5L)∆yt = µt

La raı́z del nuevo polinomio es L∗ = 2 → yt ∼ I(1).


La ACF y P ACF son buenas si el proceso es estacionario, pero no para ver si es es-
tacionario o no. Por otra parte, Box Jenkins tiene problemas en casos marginales entre
estacionarios y no estacionarios.

52
B) EJEMPLO 2

Vamos a ver el problema de la ACF . Partimos de un proceso Random Walk:

yt = a1 yt−1 + t

Si a1 = 1 estamos ante un proceso de raı́z unitaria. Por lo tanto, no se cumple:

E(yt ) = µ

E(yt2 ) = σ 2

Cov(yt , yt−s ) solo depende de la distancia.

Suponemos que la media es y0 :

E(yt − y0 )(yt−1 − y0 )
ρ1 = p p
E(yt − y0 )2 E(yt−1 − y0 )2

cov(yt , yt−1 )
ρ1 =
σyt σyt−1
Vamos a probar que σy2t 6= σy2t−1 . La solución homogénea es:

yt − yt−1 = 0

yth = Aαt

α=1

yth = A

La solución particular es:


t
ytp =
1−L

X
ytp = t−i
i=0

La solución general:

X
ytg =A+ t−i
i=0

Dada una condición inicial y0 :



X
y0 = A + t−i
i=0

X
A = y0 − t−i
i=0

53
Reemplazando en la solución general:
" ∞
# ∞
X X
yt = y0 − t−i + t−i
i=0 i=0

t
X
yt = y0 + i
i=1

Esto nos permite calcular la varianza:

var(yt ) = E[(yt − y0 )2 ]
" t
#2
X
var(yt ) = E i
i=1

var(yt ) = tσ 2

Por otra parte: " t−s #2


X
var(yt−s ) = E i
i=1

var(yt ) = (t − s)σ 2

Vemos que las varianzas no son iguales.


Ahora vemos la ACF:
γs = E[(yt − y0 )(yt−s − y0 )]
" t ! t−s !#
X X
γs = E i i
i=1 i=1
2
γs = (t − s)σ

Entonces:
γs
ρs =
σyt σyt−s
(t − s)σ 2
ρs = √ p
tσ 2 (t − s)σ 2
r
t−s
ρs =
t
A medida que aumenta s cae la ACF , lo que confunde a Box-Jenkins. Por lo tanto queda
comprobado que en este caso no sirve la ACF .

C) EJEMPLO 3

54
Partimos de:
yt = yt−1 + t

a! = 1

¿Cómo estimamos a1 ? Puedo usar ρ1 .


r
t−1
ρ1 =
t
ρ1 < 1

Es un estimador sesgado. Ajustamos un modelo estacionario que no lo es, los métodos de


estimación tradicionales no nos sirven.
Por eso nacen los test de raı́z unitaria (Dickey-Fuller).

4.2. Test de Dickey Fuller


El test de Dickey Fuller supone una raı́z unitaria a1 = 1.

yt = a1 yt−1 + t

yt − yt−1 = a1 yt−1 − yt−1 + t

∆yt = (a1 − 1)yt−1 + t

∆yt = γyt−1 + t

Es un proceso Random Walk puro (le puedo agregar una constante).


La hipótesis nula nos dice:
H0 )γ = 0

Existen tres posibles ecuaciones a las cuales le podemos aplicar el test:

∆yt = γyt−1 + t → Random Walk puro

∆yt = a0 + γyt−1 + t → Random Walk con constante o drift

∆yt = a0 + γyt−1 + a2 t + t → Random Walk con constante y tendencia

El test consiste en estimar la ecuación mediante MCO y obtener el valor de γ con su co-
rrespondiente error estándar. Comparando el valor del estadı́stico t con el valor apropiado
en la tabla de Dickey Fuller vamos a aceptar o rechazar la hipótesis nula. El estadı́stico t
es:
γ
t=
σγ
Si tenemos que |t| es mayor que el valor correspondiente en la tabla, rechazamos la hipóte-
sis nula. La tabla es la siguiente:

55
Si en las tres ecuaciones reemplazamos los valores de los respectivos procesos, los valores
crı́ticos no varı́an.
Dickey Fuller nos provee otros estadı́sticos F para probar la hipótesis conjunta, es decir,
si tenemos un Random Walk con drift la hipótesis nula será a0 = γ = 0 y la podremos
comprobar mediante φ1 . Si tenemos un Random Walk con drift y tendencia podremos
probar la hipótesis conjunta a0 = γ = a2 = 0 mediante φ2 y la hipótesis γ = a2 = 0
mediante φ3 .
RSS(Restricted)−RSS(U nrestricted)
r
φi = RSS(U nrestricted)
(T −k)

Donde:

r = número de restricciones

T = observaciones

k = parámetros estimados en el modelo no restringido.

Si el valor observado es mayor al estadı́stico, rechazo la hipótesis nula, lo que quiere decir
que las restricciones impuestas son muy fuertes.

56
4.3. Extensión del test de Dickey Fuller
Suponemos un proceso AR(p):

yt = a0 + a1 yt−1 + . . . + ap−2 yt−p+2 + ap−1 yt−p+1 + ap yt−p + t

Hacemos una transformación para expresarlo en primera diferencia. Tratamos de juntar


todos los coeficientes, para ello sumamos y restamos ap yt−p+1 :

yt = a0 + a1 yt−1 + . . . + ap−2 yt−p+2 + ap yt−p+1 + ap−1 yt−p+1 + ap yt−p − ap yt−p+1 + t

yt = a0 + a1 yt−1 + . . . + ap−2 yt−p+2 + (ap−1 + ap )yt−p+1 − ap ∆yt−p+1 + t

Sumamos y restamos (ap−1 + ap )yt−p+2 :

yt = a0 + a1 yt−1 + . . . + (ap−2 + ap−1 + ap )yt−p+2 − (ap−1 + ap )∆yt−p+2 + ap ∆yt−p+1 + t

Al hacer esto perdimos un rezago, de p a p − 1 ya que le sacamos una raı́z. Por lo tanto:

βp = −ap
p
X
βp−1 = −(ap−1 + ap ) = aj
j=p−1

Entonces: p
X
∆yt = a0 + γyt−1 + βi ∆yt−i+1 + t
i=2

Que es la ecuación aumentada, donde:


p
!
X
γ =− 1− ai
i=1

p
X
βi = aj
j=i

Si γ = 0 quiere decir que hay al menos una raı́z unitaria. Hemos visto que esto se expande
para un polinomio de orden r donde puede haber más de una raı́z unitaria.
La práctica económica nos dice que no deberı́amos encontrar más de dos raı́ces unitarias
generalmente.

4.4. Problemas que pueden hacer fallar el test


El test de Dickey Fuller asume que los errores son independientes y tienen varianza cons-
tante. Esto nos releva cuatro problemas que surgen de desconocer el verdadero proceso
que originó la información.

57
Primero, el proceso puede contener tanto un componente autorregresivo como un compo-
nente de media móvil. Necesitamos saber como realizar el test en caso que el componente
de media móvil sea desconocido.
Segundo, no podremos estimar γ y su error estándar a no ser que todos los términos
autorregresivos estén incluidos en la ecuación estimada. Es decir, la regresión ∆yt =
a0 + γyt−1 + t es inadecuada si el proceso es un AR(p). Normalmente, el orden del pro-
ceso AR es desconocido por lo que el problema es seleccionar la cantidad de rezagos.
El tercer problema surge de que el test de Dickey Fuller considera una raı́z unitaria simple.
Sin embargo, un AR(p) tiene p raı́ces caracterı́sticas. Si hay m ≤ p raı́ces unitarias, la
serie necesita diferenciarse m veces para alcanzar la estacionariedad.
El cuarto problema surge de que puede no ser conocido el término constante o tendencia,
en caso de que exista.

¿Qué sucede con un ARM A? Si este proceso es invertible, la prueba sirve. Lo expresamos
en términos de rezagos:
A(L)yt = C(L)t

Donde A(L) es un polinomio de orden p y C(L) es un polinomio de orden q.


Si las raı́ces de C(L) están fuera del cı́rculo unitario, esto será aplicable y decimos que el
proceso es invertible y se transforma en un AR convergente.
A(L)yt
= t
C(L)
O podemos definir D(L):
D(L)yt = t

Aunque este nuevo polinomio generalmente sea de orden infinito, podremos utilizar la
técnica vista anteriormente para formar el modelo autorregresivo de orden infinito:

X
∆yt = γyt−1 + βi ∆yt−i+1 + t
i=2

Como es de orden infinito, no podremos estimarla con un conjunto de datos finito. Por eso,
Said y Dickey establecieron que un ARIM A(p, 1, q) desconocido puede ser aproximado
1
por un ARIM A(n, 1, 0) de orden no mayor a T 3 . Donde T es la cota superior del número
de rezagos.
Incluir muchos rezagos implica estimar más parámetros y en consecuencia perder grados
de libertad, ya que el número de observaciones disponibles cae. Pero incluir muy pocos
rezagos nos hacen obtener no tan buenas estimaciones de γ y su error estándar.
En este caso podemos comenzar con una cantidad de rezagos alta e ir disminuyendo a
medida que las pruebas t o F nos lo requieran. Por ejemplo, si estimamos una ecuación

58
con n∗ rezagos y tenemos que ante una prueba t el estadı́stico es insignificante para algún
valor crı́tico, reestimaremos la ecuación con n∗ − 1 rezagos y ası́ sucesivamente.
Graficar los residuos es una herramienta más interesante. No deben mostrar ninguna
evidencia de cambio estructural ni de correlación. La función ACF debe darnos un proceso
de ruido blanco.
El problema de raı́z unitaria viene dado por el Error Tipo II (probabilidad de aceptar la
hipótesis falsa), ya que puede aceptar la hipótesis de raı́z unitaria cuando no lo es. En
definitiva, quiere decir que el test no tiene potencia. Para ello hay que cuidar el número
de rezagos a la hora de especificar el modelo. Esto se soluciona con un estadı́stico t o F .

59
Capı́tulo 5

Series de tiempo multivariadas

5.1. Modelo de vectores autorregresivos (VAR)


Para un vector con K variables aleatorias yt = (y1t , . . . , ykt ) el modelo V AR captura sus
interacciones. El modelo básico V AR(p) tiene la forma:

yt = A1 yt−1 + . . . + Ap yt−p + µt

Donde los Ai son matrices de orden KxK y el término de error µt = (µ1t , . . . , µkt ).
Se asume que el error tiene media cero, es un proceso de ruido blanco y la matriz de
covarianzas es definida positiva, independiente del tiempo y tiene la forma:
! !
2
X µ 1t
  σ 1 σ 1k
E(µt , µ0t ) = µ=E µ1t µkt =
µkt σk1 σk2

En otras palabras, estos µt son vectores estocásticos independientes que se distribuyen


P
µt ∼ (0, µ)
El proceso es estable si:

Det(IK − A1 z − . . . − Ap z p ) 6= 0

para |z| ≤ 1.
Esto nos dice que las raı́ces están fuera del cı́rculo unitario. Si Det = 0 para z = 1 tenemos
al menos una raı́z unitaria. Esto nos dice que algunas o todas las variables son integradas.
Primero asumimos que son a lo sumo I(1). Si existe un término de tendencia estocástica,
es posible que haya combinaciones lineales que sean I(0). En este caso se dice que son
cointegradas. En otras palabras, un conjunto de variables I(1) es cointegrado si existe una
combinación lineal que sea I(0).

A) EJEMPLO VAR (1) CON K = 2

60
y1t = a10 + a11 y1,t−1 + a12 y1,t−2 + µ1t

y2t = a20 + a21 y2,t−1 + a22 y2,t−2 + µ2t

Matricialmente: ! ! ! !
y1t a10 a11 a12 y1,t−1
= +
y2t a20 a21 a22 y2,t−1
Ecuación homogénea: ! ! !
y1t a11 a12 Ly1t
=
y2t a21 a22 Ly2t
! ! ! !
1 0 y1t a11 a12 y1t
=L
0 1 y2t a21 a22 y2t
" ! !# !
1 0 a11 a12 y1t
− =0
0 1 a21 a22 y2t

(IK − A1 L)yt = 0

Comprobamos la estabilidad:

Det(I2 − A1 L) 6= 0 para |L| ≤ 1

Mutiplicamos por A−1


1 :
[A−1 − LI2 ]yt = 0

[A − λI]u = 0

Esto último nos da los valores propios.

B) EJEMPLO NUMÉRICO

!
0, 7 0, 2
A1 =
0, 2 0, 7
" ! !#
1 0 L0, 7 L0, 2
Det −
0 1 L0, 2 L0, 7
!
1 − L0, 7 −L0, 2
Det
−L0, 2 1 − L0, 7

0, 45L2 − 1, 4L + 1 = 0

61
Resolviendo por Baskara:
L1 = 2

L2 = 1, 1

Ambas están fuera del cı́rculo unitario por lo tanto el modelo es estable. Si me hubiese dado
una raı́z unitaria, al menos una de las variables es integrada de orden uno. Recordemos
que el supuesto es que a lo sumo es I(1).

5.2. Modelo de corrección de errores (VECM)


Anteriormente definimos el modelo:

yt = A1 yt−1 + . . . + Ap yt−p + µt

Pero esta no es la mejor forma de expresarlo si queremos ver las relaciones de cointegración
ya que no aparecen explı́citamente. Usamos la forma V ECM :

∆yt = Πyt−1 + Γ1 ∆yt−1 + . . . + Γp−1 ∆yt−p+1 + µt

Donde:
Π = (IK − A1 − . . . − Ap )

Γi = −(Ai+1 + . . . + Ap )

Para i = 1, 2, . . . , p − 1. El V ECM se obtiene tomando primera diferencia del V AR. El


término Πyt−1 es el único que contiene variables I(1) ya que ∆yt no contiene ninguna
tendencia estocástica. Por lo tanto Πyt−1 debe ser I(0), y además multiplica variables que
pueden estar cointegradas, es decir, netea el efecto. Se dice que Π representa los términos
de largo plazo, mientras que Γ los de corto plazo.
Es posible calcular los Ai a partir de los Γ:

A1 = Γ1 + Π + IK

Ai = Γi − Γi−1

para i = 2, . . . , p − 1.
Ap = −Γp−1

Si el V AR(p) tiene raı́ces unitarias, es decir, si Det(IK − A1 z − . . . − Ap z p ) = 0 para


|z| = 1 entonces Det(Π) = 0 y por lo tanto la matriz Π es singular.
Suponemos que el rango de Π es el rango de cointegración r(Π) = r. Luego Π puede ser
escrita como un producto de matrices α y β como:

rk(α) = rk(β) = r

62
Π = αβ 0

El rango nos indica cuantas relaciones existen entre las variables. La matriz β es la matriz
de cointegración, mientras que α es la loading matrix.

A) CASOS ESPECIALES

Si todas las variables son I(0) entonces r = K y el proceso es estacionario. Si r = 0 el


término Πyt−1 desaparece. En este caso ∆yt tiene una representación V AR estable.
Hay otros casos en los cuales no hay cointegración presente en el modelo original a pesar
de que éste tiene un rango de cointegración estrictamente entre 0 y K. Supongamos que
todas las variables son I(0) salvo una que es I(1), luego el rango de cointegración será
K − 1 a pesar de que la variable I(1) no está cointegrada con las demás. También puede
haber K − r variables I(1) y r variables I(0). Generalmente, por cada variable I(0) habrá
dentro de la matriz β una columna con un valor igual a 1 y el resto ceros.
En nuestro caso vemos que para un rango de cointegración r > 0 el vector de primeras
diferencias ∆yt no tiene una representación V AR de orden finito.

5.3. Estimaciones
Suponemos que la cantidad de rezagos y el rango de cointegración son conocidos. Dado
el modelo V AR:
t
X
yt = Ai yt−i + µt
i=1

Primero expresamos el V AR en forma reducida y luego estimamos por mı́nimos cuadrados


ordinarios.
Por su parte, en un modelo V EC el rango de integración mide la cantidad de variables
correlacionadas, k − r shocks permanentes. Tenemos valores muestrales:

y1 , y2 , . . . , yT

Y valores premuestrales:
yi , y−p+1 , . . . , y0

Donde P está asociado a los rezagos.

Variables

y−(p−1) , y−(p−2) , . . . , y−1 , y0 , y1 , y2 , . . .

Entonces:
p−1
X
∆yt = Πyt−1 + yt−i + µt
i=1

63
∆yt = (∆y1 , . . . , ∆yT )

Matricialmente: !
∆y11 ∆y1T
∆Y =
∆yk1 ∆ykt
Y−1 = yt−1 = (y0 , . . . , yT −1 )

Es de orden KxT . !
y10 y1,T −1
Y−1 =
yk0 yk,T −1
El error:
U = (u1 , . . . , uT )

Es de orden KxT .

Parámetros

Γ = (Γ1 , . . . , Γp−1 )

Es de orden K[(P − 1)K]. La matriz X, que es de orden (p − 1)xT multiplica a Γ.

X = [X0 , . . . , XT ]

Cada elemento es un vector:  


∆yt−1
 
 ∆yt−2 
Xt−1 =
 ... 

 
∆t−p+1
Lo que hicimos es apilar las variables para incorporar los rezagos.
 
∆y0
 
 ∆y−1 
X0 =  
 ... 

∆y−p+2

Entonces, para p valores premuestrales y T observaciones, podemos escribir el V EC como:

∆Y = ΠY−1 + ΓX + U
     
∆y11 , . . . , ∆y1T y10 , . . . , y1,T −1  0y , . . . , yT −1
     
 ...  = Π . . . + Γ−1 . . . Γp−1  . . . +U
     
∆yk1 , . . . , ∆ykT yk0 , . . . , yk,T −1 y−p+2 , . . . , yT −p+1
∆Y − ΠY−1 = ΓX + U

64
El estimador de MCO es el siguiente:

Γ̂ = (∆Y − ΠY−1 )X 0 (XX 0 )−1

Sustituyendo en la ecuación anterior obtenemos:

∆Y M = ΠY−1 M + Û

Donde M = I − X 0 (XX 0 )−1 X la cual es simétrica e idempotente. Esto nos dice que
limpiamos los efectos de corto plazo sobre ∆Y . Reflejan el efecto de largo plazo.

∆Y M → residuos de la regresión ∆Y contra X.

ΠY−1 M → residuos de la regresión ∆Y−1 contra X.

Hasta ahora supusimos que el rango de cointegración r está dado y 0 < r < K. Esto
significa que no es de rango completo y decimos que es singular. Por lo tanto tendremos
cuantas α y β queramos.
Ahora buscamos Π̂ donde rk(Π̂) = r.

Suponemos que conocemos β. Derivamos un estimador de α̂:

βY−1 M

Son los residuos obtenidos luego de limpiar los efectos de corto plazo. Es una variable
conocida.
Siguiendo a Johansen debemos definir:

S00 = T −1 ∆Y M ∆Y 0

S01 = T −1 ∆Y M Y−1
0

S11 = T −1 Y−1 M Y−1


0

Resolviendo el problema de valores propios:

0 −1
Det(λS11 − S01 S00 S01 ) = 0

Ordenamos los valores propios λ1 ≥ . . . ≥ λk y su correspondiente matriz de vectores


propios V = [b1 , . . . , bk ] tal que se satisface:

0 −1
λi S11 bi = S01 S00 S01 bi

y normalizado tal que:


V 0 S11 V = IK

65
El estimador de rango reducido de Π = αβ 0 se obtiene utilizando los primeros r vectores
caracterı́sticos:
β̂ = [b1 , . . . , br ]
0
α̂ = ∆Y M Y−1 β̂(β̂ 0 Y−1 M Y−1
0
β̂)−1

El estimador α̂ puede ser visto como el de M CO donde:

∆Y M = αM = αβ̂ 0 Y−1 M + Û

Entonces el estimador de Π es Π̂ = α̂β̂ 0 . Finalmente podemos encontrar un estimador


para Γ:
Γ̂ = (∆Y − Π̂Y−1 )X 0 (XX 0 )−1

Bajo ciertas restricciones (Gaussianas) podemos afirmar que estos son estimadores máxi-
mo verosı́miles condicionados a los valores premuestrales.

Ω̂(α, β) = λ−1 (∆Y M − αβ 0 Y−1 M )(∆Y M − αβY−1 M )

Ω̂(α, β) = S00 − S01 βα − αβ 0 S10 + αβ 0 S11 βα0

Si reemplazamos los valores de Sii obtenemos:

Ω̂(β)

El β estimado maximiza la función de verosimilitud.


¿Qué nos indican los valores propios λ? Cuanto mayor el λ mayor es la estacionalidad. La
regresión de rango reducido nos muestra que cuanto mayor sean los valores propios mayor
será la probabilidad de que sea estacionario.

5.4. Otro análisis


Como Π es singular tenemos cuantas α y β queramos.

Π = αQQ−1 β 0

Donde α es de orden kxr, β es de orden rxk y Q de orden rxr.


0
Π = αQ(βQ−1 )0 = α̃β̃

0
Por ejemplo, defino Q = βrxr y buscamos la submatriz de β.

0 0 0
βrk = [βrxr ; β2r(k−r) ]

66
Entonces:
αβ 0 = α̃β̃ 0
0
αβ 0 = (αQ)(βQ−1 )
0
αβ 0 = αβ10 β2−1 β
0
αβ 0 = α̃β1−1 [β10 ; β20 ]
0
αβ 0 = α̃Ir ; β1−1 ; β20

αβ 0 = α̃Ir ; β̃ 0

De esta forma identificamos β de una forma especial. Intentamos que quede una matriz
identidad IK :
0 0
βrxk = [Ir ; βk−r ]

A) EJEMPLO

! ! !
∆cct α11   cc
t−1
= β11 β21
∆ttt α21 ttt−1
Donde k = 2 y r = 1.
0
β1x2 = [I; β1x(2−1) ]
!
  cc
t−1
β 0 yt−1 = I β12
ttt−1
βyt−1 = cct−1 + β12 ttt−1 = cct−1

cct−1 ∼ I(0)

cct−1 = −β12 ttt−1 + cct−1

Donde β12 debe ser negativa para que sea definida positiva.

67
Capı́tulo 6

Análisis impulso-respuesta para un


VAR estacionario

6.1. Forma estructural (SVAR)

Ayt = A∗1 yt−1 + A∗2 yt−2 + . . . + A∗p yt−p + vt


La diferencia entre el estructural y el reducido son los coeficientes, la matriz A que es
kxk, mide las relaciones instantáneas entre las variables endógenas y es invertible. Otra
diferencia yace en el error vt = Bt .

t = (11 , 21 , . . . , k1 )

Estos shocks son estructurales ya que reflejan las variables económicas y además son
ortogonales entre si, lo cual nos dice que están incorrelacionados.

6.2. Forma reducida (VAR)


Premultiplico A−1 en ambos lados:

yt = A−1 A∗1 yt−1 + A−1 A∗2 yt−2 + . . . + A−1 A∗p yt−p + A−1 vt

yt = A1 yt−1 + A2 yt−2 + . . . + Ap yt−p + µt


Donde µt = A−1 Bt . El vector µt es observado ya que lo podemos estimar, mientras que t
es no observable. Para ir de lo observado a lo no observado hay métodos de identificación
econométrica.
Todo esto se supone con un sistema estable. Condición de estacionariedad:

|IK − A1 Z − A2 Z 2 − . . . − Ap Z p | =
6 0

para |z| ≤ 1.

68
6.3. Forma final del VAR (Función impulso-respuesta)
Partimos de:
yt = A1 yt−1 + A2 yt−2 + . . . + Ap yt−p + µt

Le aplicamos rezagos:

yt = (A1 L + A2 L2 + . . . + Ap Lp )yt + µt

A(L)yt = µt

Para hallar la forma final, definimos:



X
Φ(L) = Φs Ls
s=0

tal que:
Φ(L)A(L) = IK

Multiplico A(L)yt = µt por Φ(L):


yt = Φ(L)µt

X
yt = Φs µt−s
s=0

Esta es la forma final. Los coeficientes me dan la respuesta de yt ante un shock. Es decir,
Φs me da la respuesta yi,t+s ante un shock en yit .

¿Cómo obtengo los coeficientes? Por método de coeficientes indeterminados.

IK = Φ(L)A(L)

Desarrollo los polinomios:

IK = (Φ0 + Φ1 L + Φ2 L2 + . . .)(IK − A1 L − . . . − Ap Lp )
s
X
2
IK = Φ0 + (Φ1 − Φ0 A1 )L + (Φ2 − Φ1 A1 − Φ0 A2 )L + . . . + (Φs − Φs−j Aj )Ls
j=1

Para que eso se iguale debe ocurrir que:

Φ0 = IK

Φ1 = Φ0 A1
Xs
Φs = Φs−j Aj
j=1

69
Los coeficientes se determinan de manera recursiva.

La respuesta acumulada es:



X
Φ= Φs = A(1)−1 = (IK − A1 − . . . − Ap )−1
s=0

También podemos expresar la forma final como:



X
yt = Ψs t−s
s=0

Ψs = A−1 BΦs

Por lo tanto tengo que identificar A y B para ir de un shock observado a uno estructural.

A) EJEMPLO

! ! ! ! ! !
y1t −0, 4 0, 3 y1,t−1 0, 1 0, 2 y1,t−1 µ1t
= +
y2t 0, 3 −0, 2 y2,t−2 −0, 15 −0, 2 y2,t−2 µ2t
Donde K = 2 y p = 2. La condición de estabilidad es:
! ! !
1 0 −0, 4 0, 3 0, 1 0, 2
2
− Z− Z 6= 0


0 1 0, 3 −0, 2 −0, 15 −0, 2

Para |z| ≤ 1. El determinante es:

1 + 0, 6Z − 0, 01Z 2 + 0, 005Z 3 + 0, 02Z 4

Las raı́ces son:


Z1 = −2, 08 + 0, 28i

Z2 = −0, 28i

Z3 = 1, 95 + 0, 79i

Z4 = 1, 95 + 2, 74i

Las normas de los vectores:


|Z1 | = |Z2 | = 2, 1

|Z3 | = |Z4 | = 2, 33

El sistema es estable. Además:


Φ0 = IK = I2
!
−0, 4 0, 3
Φ1 =
0, 3 −0, 2

70
!2 ! !
−0, 4 0, 3 0, 1 0, 2 0, 35 0, 02
Φ2 = =
0, 3 −0, 2 −0, 15 −0, 2 −0, 33 −0, 03
!3 ! ! !
−0, 4 0, 3 −0, 4 0, 3 0, 1 0, 2 −0, 114 0, 091
Φ3 = +2 =
0, 3 −0, 2 0, 3 −0, 2 −0, 15 −0, 2 0, 171 −0, 73

6.4. Identificación del VAR


Imponemos restricciones de corto plazo:

Aµt = Bt

Para ir de µt a t necesitamos k 2 + k 2 parámetros estructurales (2k 2 ). Pero tengo dispo-


k(k+1)
nibles (por la matriz de covarianzas del error) 2
elementos no redundantes, ya que la
matriz es simétrica y definida positiva.

A) EJEMPLO

Si tengo:  
9 4 3
X  
=
 4 8 7

3 7 1
Entonces:
k(k + 1) 3(3 + 1)
= =6
2 2
La cantidad de restricciones a imponer es:
k(k + 1) k(k + 1)
2k 2 − = k2 +
2 2

6.5. Descomposición de Cholesky


Una matriz A puede ser factorizada de la forma:

A = LL0

Donde L es una matriz triangular inferior, por ejemplo:


!
L11 0
L=
L21 L22

Veamos un ejemplo con K = 2. La descomposición implica que:

A = I2

71
B → es triangular inferior

Entonces:
Aµt = Bt
! ! !
µ1t b11 0 1t
=
µ2t b21 b22 2t
µ1t = b11 1t

µ2t = b21 1t + b22 2t

El shock 1t influye solo en µ1t en el momento del impacto, mientras que el shock 1t + 2t
influye sobre la segunda variable.
También podriamos haber supuesto, sin pérdida de generalidad:

c1t = shock especı́fico


w
2t = shock global
µcc
1t = cuenta corriente
µI2t = inversión

72