Escolar Documentos
Profissional Documentos
Cultura Documentos
Preliminares
1.
Introducci
on al an
alisis de series de tiempo
1.1.
M
etodos de analizar una serie temporal
1.1.1.
M
etodos de descomposici
on de series
El esquema basico del que se parte es supones que una serie temporal tiene cuatro componentes,
pudiendose escribir:
Yt = Tt + Ct + St + ut
(1)
donde:
Tt : Componente de Tendencia: Es aquella parte de la serie que mantiene una pauta de comportamiento estable en largos perodos de tiempo, esta puede ser creciente o
decreciente.
Ct : Componente Cclico: es aquella parte de la serie que, conforme pasan los perodos
mantiene una cierta regularidad en su comportamiento, pero sin que pueda hablarse de
una pauta estable y repetida. La longitud del periodo en que se observa la regularidad no
es uniforme.
St : Componente Estacional: Aparece en aquellas series observadas en perodos con
una duracion inferior a un a
no. La aportacion de este fenomeno va asociada a fenomenos
meteorologicos o institucionales.
ut : Componente Aleatorio: no tiene ning
un comportamiento sistematico que pueda
tipificarse a lo largo de los diferentes perodos.
Para el componente de tendencia distinguiremos dos grandes enfoques que llamaremos tendencia
determinista y tendencia estocastica.
En el enfoque determinista, la tendencia es una funcion de la variable tiempo, la cual puede ser
lineal, cuadratica, etc.
(2)
M
etodo relacionado con Procesos estoc
asticos
(Metodologa Box - Jenkins): Presenta algunas ventajas sobre la metodologa expuesta anteriormente
Gran flexibilidad para representar un gran n
umero de fenomenos reales mediante una sola
clase de modelos.
Facilidad y precision al realizar pronosticos.
Posibilidad de generalizacion de metodos univariantes a modelos multivariantes (modelos
VAR)
1.2.
Procesos Estoc
asticos
Definici
on 1 : Un procesos estoc
asticos es una familia de variables aleatorias {Yt }, t {, +},
representa el tiempo, tal que, para cada serie finita de elecciones de t, es decir, t1 , t2 , . . . , tn se
define una distribuci
on de probabilidad conjunta para las correspondientes variables aleatorias
Yt1 , Yt2 , . . . , Ytn .
Definici
on 2 : Un procesos estoc
asticos es una familia de variables aleatorias asociadas a un
conjunto ndice de n
umeros reales {Y (t), t T } donde T es el conjunto ndice y {Yt } es una
variable aleatoria correspondiente a t, donde
- Si T es un intervalo de n
umeros reales, el proceso estoc
astico es continuo
- Si T es un conjunto finito o infinito numerable, el proceso estoc
astico es discreto.
1.3.
Serie de Tiempo
Definici
on 3 : Una serie de tiempo es un conjunto de valores observados de distintas variables
aleatorias correspondientes a perodos de tiempo consecutivos, dichos perodos tienen la misma
amplitud y la serie tiene un car
acter discreto.
Definici
on 4 : Es una sucesi
on de observaciones generadas por un proceso estoc
astico indizado
con relaci
on al tiempo.
Luego, la inferencia acerca de la caracterstica del proceso estoc
astico se puede realizar basados
en la funci
on de distribuci
on del mismo, as.
- Si Y es una variable aleatoria, puede caracterizarse a traves de su funci
on de distribuci
on
f (Y ).
- Si Y1 y Y2 son variables aleatorias, se caracterizan por f (Y1 , Y2 ) su funci
on de distribuci
on
bivariante.
- Si Y1 , Y2 , . . . , Yn son variables aleatorias, la caracterizaci
on de estas puede hacerse por
medio de f (Y1 , Y2 , . . . , Yn ) su funci
on de distribuci
on conjunta.
2.
Procesos estoc
asticos estacionarios
Para definir la estacionariedad de un proceso estocastico puede utilizarse, bien sea, la funci
on
de distribucion de la(s) variable(s) o los primeros momentos de las mismas.
Definici
on 5 : Estacionariedad en el Sentido estricto o fuerte
Diremos que un proceso estoc
astico {Yt } es estacionario en el sentido estricto cuando su funci
on
de distribuci
on conjunta es invariante respecto a un desplazamiento en el tiempo.
Es decir, considerando que t1 , t2 , . . . , tk corresponden a periodos sucesivos de tiempo que denominamos como t, t + 1, . . . , t + k, entonces
f (Yt , Yt+1 , . . . , Yt+k ) = f (Yt+m , Yt+1+m , . . . , Yt+k+m )
para cualquier t, k y m.
(3)
De esta expresi
on, y si los primeros momentos existen, se sigue que
E(Yt ) = E(Ytm ) =
E[(Yt )2 ] = E[(Ytm )2 ] = 0
(4)
3.
(5)
t =
2.
(6)
Las covarianzas entre dos periodos de tiempo distintos solamente dependen del lapso de
tiempo transcurrido entre estos dos periodos, esto es
Cov(Yt , Yt0 ) = Cov(Yt+m , Yt0 +m )
t,s = |ts|
(7)
t, s
3.
3.1.
(8)
si j = 0 obtenemos
0 = E[(Yt )2 ] = V ar(Yt ) = 2
(9)
Al conjunto de Autocovarianzas obtenidas para los distintos valores de j se define como funci
on
de autocovarianza
Por tanto, en un proceso estocastico estacionario la funcion de autocovarianza cumple con las
propiedades
i.) |j | 0
ii.) j = j simetra
3.2.
Funci
on de Autocorrelaci
on
j = Corr(Yt , Ytj ) = p
(10)
3.3.
Funci
on de Autocorrelaci
on Parcial
Este concepto es similar al de autocorrelacion entre Yt y Ytj , salvo porque se mide dicha
correlacion ajustada por el efecto de los retardos intermedios
En la Corr(Yt , Ytj ) se elimina la influencia de las variables Yt1 , Yt2 , . . . , Yt(j1) , mientras que
en la funcion de autocorrelacion parcial denotada como (j ), la correlacion esta condicionada a
las variables Yt1 , Yt2 , . . . , Yt(j1) , luego definimos
Cov[(Yt Yt ), (Ytj Ytj )]
q
j = Corr[(Yt Yt ), Ytj Ytj ] = q
V ar(Yt Yt ) V ar(Ytj Ytj )
(11)
donde Yt y Ytj son las mejores predicciones lineales en el sentido de mnimo error cuadratico
medio de Yt y Ytj como funciones lineales de Yt1 , Yt2 , . . . , Yt(j1) .
Cumpliendose que
j =
j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1
(12)
(13)
1ij1
(14)
j1 = 1 j2 + 2 j3 + + j1 0
el sistema (14) puede expresarse genericamente como
i = 1 i1 + 2 i2 + + j1 ij+1
7
1ij1
(15)
1ij1
(16)
1
1
..
.
1
1
..
.
2
1
..
.
..
.
j2 j3 j4
j1
j2
j3
..
.
1
1
2
..
.
(17)
j1
(18)
1
1
..
.
1
1
..
.
2
1
..
.
..
.
j2 j3 j4
j1
j2
j3
..
.
1
1
2
..
.
(19)
j1
(20)
(21)
=
=
j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1
j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1
(22)
1
1
..
.
..
.
i1
i2
..
.
j1 j2
1
1
..
.
..
.
1
1
..
.
1
2
..
.
..
.
ji j1 ji2
i1
i2
..
.
j1 j2
i+1
i+2
..
.
i
i1
..
.
i+1
i+2
..
.
..
.
ji ji1 ji2
j2
j3
..
.
1
j2
j3
..
.
(23)
reemplazando (23) en (4) y multiplicando tanto numerador como denominador de (4) por
1
1
..
.
1
1
..
.
..
.
2
1
..
.
j1 j2 j3
j2 j1
j3 j2
..
..
.
.
1
1
se obtiene que
1
1
..
.
j =
1
1
..
.
2
1
..
.
..
.
j2 1
j3 2
..
..
.
.
1 j
j1 j2 j3
1
1
..
.
1
1
..
.
2
1
..
.
..
.
j2 j1
j3 j2
..
..
.
.
1
1
j1 j2 j3
Ejemplo 1 : Supongamos j = 3
3 =
3 1 2 2 1
1 1 1 2 2
De la ecuaci
on (16) se tiene que 1 i j 1
1 = 1 0 + 2 1
2 = 1 1 + 2 0
1
1 1
=
1
2
1 1
2
1 =
1 1
2 1
2 =
1 1
1 1
9
1 1
1 2
1 1
1 1
(24)
3 =
1 1
1 1
1 2
2 1
1 1
2
1
3
1 1
1 1
1 1
1 1
1 1
1 1
1 1
2 1
1 2
1 1
1
1
2
1 1
1 1
1 1
1 1
1 1
(25)
donde E(Yti ut ) = 0. Luego, multiplicando a ambos lados de (25) por Yti y tomando esperanza
matematica se obtiene
i = j1 i1 + j2 i2 + + jj ij
(26)
i = 1, 2, , j
(27)
1 = j1 0 + j2 1 + + jj j1
2 = j1 1 + j2 0 + + jj j2
(28)
= j1 j1 + j2 j2 + + jj 0
4.
Cuando un proceso estocastico es estacionario los parametros que caracterizan el mismo pueden
estimarse a partir de una sola realizacion de la serie.
Supongamos dada una serie temporal de T observaciones Y1 , Y2 , . . . , YT , luego
10
4.1.
Media muestral
(29)
t=1
Insesgamiento
E(Y ) =
Prueba
(30)
T
1X
1
E(Y ) =
E(Yt ) = T =
T
T
t=1
2.
T
X
(1
t=1
i
) i
T
(31)
es finito
esta condicion se cumplira siempre que el proceso estocastico, ademas de estacionario sea ergodico
Para demostrar esta propiedad basta probar
i.) Y asintoticamente es insesgado
ii.) lmT V ar(Y ) = 0
Demostracion de i.) identica a la demostracion de 1.)
Demostracion de ii.)
4.2.
Funci
on de Autocovarianza muestral
T
1 X
(Yt Y )(Ytj Y )
T
(32)
T
X
1
(Yt Y )(Ytj Y )
T j
(33)
t=j+1
Cj1
t=j+1
11
(Yt Y )(Ytj Y )
=
t=j+1
T
X
(34)
t=j+1
E(Cj )
=
T
1 X
E[(Yt )(Ytj ) (T j)(Y )2 ]
T
t=j+1
=
E(Cj1 )
=
j
T j
1
[(t j)j (T j)0 ] = j j
0
T
T
T
T
X
1
E[(Yt )(Ytj ) (T j)(Y )2 ]
T j
t=j+1
T
X
1
E[(Yt )(Ytj )] (T j)E[(Y )2 ]
T j
t=j+1
= j V ar(Yt )
Del resultado puede verse que ambos estimadores son sesgados, donde el de Cj1 tendra un sesgo
inferior
Si el proceso es estacionario y ergodico se cumple que
lm E(Cj ) = lm E(Cj1 ) = j
1
T
(i2 + i+j ij
i=inf ty
1
T j
(i2 + i+j ij
(35)
(36)
i=inf ty
T
1X
C0 =
(Yt Y )2
T
t=1
12
(37)
4.3.
Funci
on de Autocorrelaci
on muestral
PT
Y )
(38)
El conjunto de las autocorrelaciones muestrales obtenidas para distintos valores de j constituyen la funcion de autocorrelacion muestral. La representacion grafica de esta se conoce como
Correlograma muestral.
4.4.
Funci
on de Autocorrelaci
on parcial muestral
= r1
j+1,j+1 =
y continuar con
Pj
r1 i=1 ji rj+1i
P
1 j ji ri
(39)
i=1
i = 1, 2, . . . , j
13