Escolar Documentos
Profissional Documentos
Cultura Documentos
Yt = + jYt j + jk Yt j t k + t (1)
j =1
j =1 k =1
Este modelo se conoce como bilineal sin trmino de promedio mvil en donde {Yt } y
{ t } son sucesiones de variables aleatorias, , j y jk son parmetros que deben ser
estimados.
Este modelo tiene una parte lineal autoregresiva de orden p
p
representada por
jk Yt j t k , si jk = 0
j =1 k =1
( j , k ) entonces
jk Yt j t k + t
j =1 k =1
(2)
Si
jk = 0
subdiagonal y si
jk = 0
a)
Y = 0 X ii e
i
b) Y = 0 X i +
i =1
i =1
Y =e
a1)
0 +
i X i +
i =1
b1)
Y =e
0 +
i X i
i =1
a) ln Y = ln 0 + i ln X i +
i =1
a1) ln Y = 0 + i X i +
i =1
Al aplicar los mnimos cuadrados las ecuaciones normales obtenidas son lineales en los
parmetros.
No as los modelos b) y b1) pero se pueden linealizar mediante el empleo de la
expansin de Taylor.3 Si en estos modelos se aplica los mnimos cuadrados ordinarios,
las ecuaciones normales son no lineales en los parmetros.
Sea
f ( X ) = f ( X ) + f ( X )T ( X X ) +
Lim ( X ; X X ) 0
1
( X X ) T H ( X )( X X ) + X X
2
(X ; X X )
X X
Yi f ( X i ; ) + i = f ( X i ; ) + f ( X i ; ) T ( ) + i
entonces:
f ( X i ; )T = (f ( xi 0 ; ) / 0 , f ( xi1 ; ) / 1.f ( xi 2 ; ) / 2 .....f ( xip ; ) / P ) ; i = 1,2.....n
Luego podemos escribir Yi = f ( X i ; ) + i , empleando la expansin de Taylor como:
o
Yi f ( X i ; ) + f ( X i ; ) / j ( j j ) + i (3)
j =1
Yi f ( X i ; ) + j f ( X i ; ) / j j f ( X i ; ) / j + i (4)
j =1
j =1
Las derivadas evaluadas en para cada observacin la denotamos como Z o ij , esto es:
o
f ( X i ; )/ j = Z o ij ; j = 0,1,2... p; i = 1,2...n
Y f ( X i ; )/ j = Z ij ; j = 0,1,2... p; i = 1,2...n
El miembro derecho de la ecuacin (4) lo denotamos por Yi 0 :
o
Yi f ( X i ; ) + j f ( X i ; ) / j Yi f ( X i ; ) + Z io = Yi 0
j =1
j =1
Yi 0 = j Z ij + i
j =1
(5)
Y Z
p=2
Entonces, obtenemos como estimador mnimo cuadrtico dado el valor inicial , lo que
sigue:
= ( Z T Z ) 1 Z T Y (6)
La pregunta obligada es cul valor inicial? La repuesta est en la nota4
*2 = *T . * /( n p ) donde * = Y Z
f ( X i ; , ) = e x
f ( X i , , ) / = e X i
f ( X i , , ) / = X i e X i
o
o
X i
f ( X i , , ) / = e
f ( X i , , ) / = X i e X i
Con estos resultados podemos obtener:
p
Yi f ( X i ; ) + j f ( X i ; ) / j Yi f ( X i ; ) + Z io = Yi 0
j =1
Yi e x + X i e X i + X i e X i = Y 0
o
Ahora considerando f ( X i , , ) / = e X i y f ( X i , , ) / = X i e X i
entonces obtenemos:
4
El primer valor inicial nos dar una primera estimacin de los parmetros al resolver el problema (6),
este valor lo empleamos como nuevo valor inicial y resolvemos nuevamente el problema (6) y as
sucesivamente hasta que se estabilicen los estimadores. Esto se puede expresar como sigue: Sea j
( K +1)
( K )
el
un 0 , suficientemente pequeo:
( K +1)
j
( K )
)/
( K )
j
{X } ,
n
F X n ( x ; 1 , 2 ... k ) para toda variable aleatoria de la sucesin y, una variable aleatoria X con
funciones
de
distribuciones
la
funcin
de
j f ( X i ; ) / j = e X i + X i e X i
j =1
Al considerar la ecuacin:
o
Yi f ( X i ; ) + j f ( X i ; ) / j j f ( X i ; ) / j
j =1
j =1
Finalmente obtenemos:
o
Yi e x + X i e X i + X i e X i = e X i + X i e X i
p= 2
= (Yi f ( X i ; )) 2 = S ( )
i =1
S ( ) / = 2 (Yi f ( X i ; ))f ( X i ; ) /
(5)
i =1
S ( ) / j = 2 (Yi f ( X i ; ))f ( X i ; ) / j
j = 1,2,3... p
i =1
Las derivadas quedarn como funciones no lineales en los parmetros, por lo que habr
que emplear los algoritmos de optimizacin no lineal para resolver las ecuaciones
normales resultantes.
Igualando la ecuacin dada en 5) al vector nulo, obtenemos las siguientes ecuaciones
normales:
n
(Yi
i =1
f ( X i ; ))f ( X i ; ) / = 0 p +1
i =1
i =1
Yi f ( X i ; ) / = f ( X i ; ))f ( X i ; ) /
Que en notacin matricial es:
[f ( X , ) / ]T Y = [f ( X , ) / ]T f ( X ; ) (6)
(Yi e X i ) 2 ; j = 1,2
Yi = e X i + i ; i = 1,2...n
i =1
S ( , ) / = 2 (Yi e X i )e X i
i =1
S ( , ) / = 2 (Yi e X i ) X i e X i
i =1
2 (Yi e X i )e X i = 0
i =1
n
2 (Yi e X i ) X i e X i = 0
i =1
Puede observarse con este ejemplo que las ecuaciones son no lineales y no tienen
solucin inmediata.
Un procedimiento para resolver las ecuaciones normales anteriores es, si se cuenta con
un valor inicial 0 = t* , es el siguiente:
1
n
n
t*+1 = X i0 X i0T X i0 (Yi 0 f i 0 + X i0T t* )
i =1
i =1
*
t +1
n
n
= + X i0 X i0T X i0 (Yi 0 f i 0 )
i =1
i =1
*
t
t*+1 = t + ( X 0T X 0 ) 1 X 0T e 0
X n* , entonces:
1
( X X n ) T H ( X n )( X X n ) = G ( X )
2
Usando la primera condicin de existencia de un punto extremo :
f ( X ) f ( X n ) + f ( X n )T ( X X n ) +
G ( X ) / X = f ( X n ) T + H ( X n )( X X n ) = 0 n
*
*
*
f ( X 2 , ) / 0 f ( X 2 , ) / 1 . . f ( X 2 , ) / p
.
.
. .
.
esto es: X =
f ( X , ) /
0
n
*
. . f ( X n , ) / p
. .
f ( X n , * ) / 1
Entonces si:
T
1
P lim X T X = P lim f ( X i ; ) / f ( X i ; ) / = Q0
n
n n
i =1
Y adems, se verifica:
1
1 n
Xi i = 0 y
n n i =1
n
P lim
X i i N (0 n , 2 Q01 )
i =1
Entonces:
N ( ,
2
n
Q01 )
Ejemplo 4.
Consideremos el siguiente modelo: Yt = e X t + t y supongamos que se ha obtenido el
t
e
e Xt
Una sucesin de variables aleatorias n converge en probabilidad a una constante c si para cualquier
> 0 se verifica que: lim P( n c < ) = 1 . Esto quiere decir, que a partir de n > N
n
el suceso
Con ellos obtenemos la matriz Q0 .El estimador de la matriz de varianza covarianza es:
1
n 2 X t
e
2 n
2
T
f ( , ) f ( , ) = tn=1
X t e 2 X t
t =1
t =1
X t e2 Xt
t =1
2 2 Xt
X
e
t
t =1
n
(Yi f ( X i ; )2
exp
2
2
2
1
g
i =1
(Yi ; ; ) = (
Yi
1
) n exp
2
2
2
1
(Yi
n
i =1
2
f (Xi; )
Ln g (Yi ; ; ) = Ln(
i =1
Yi
1
)n +
2
2
2
2
1
(Yi
n
i =1
2
f (Xi; )
2
Ln g (Yi ; ; * ) / =
(Yi f ( X i ; * ) / = 0 p +1 (1)
2
i =1
Yi
2 i =1
Ln g ( xi ; ; ) / 2 = [ Ln(
i =1
Yi
1
) n +
2
2
2
1
(Yi
n
i =1
2
f ( X i ; ) ] / 2 = 0 (2)
10
2 = Yi f ( X i , / n
*
i =1
Ejemplo 5.
Veremos como ejemplo la estimacin de los parmetros de modelo logit. La variable
aleatoria discreta Yi tiene una ley de probabilidad de Bernoulli con probabilidad: Pi y Q1
tal que Pi = P (Yi = 1) = exp X i /(1 + exp X i ) y Qi = P(Yi = 0) = 1 /(1 + exp X i ) , i = 1,2...n
donde se tiene p regresores que explican el comportamiento de Yi , por tanto:
X i = (1, X i1 , X i 2 , X i 3 ,.. X ip ) y = ( 0 , 1 , 2 ,... p )T se desea estimar tanto Pi como . Se
toma una muestra de tamao n y definimos la funcin de verosimilitud como:
n
L(Y ; Pi ) = Pi Yi (1 Pi )1Yi
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
Este problema hay que resolverlo mediante el mtodo de Newton, una vez obtenido el
resultado se estima:
IIIc1.-Propiedades.
Las propiedades generales de los estimadores de mxima verosimilitud son:
*
} y sea el
1.- Dado una sucesin de estimadores de mxima verosimilitud { MV
parmetro a estimar de una poblacin con funcin de distribucin: G X ( X ; ) entonces:
11
{ }
3.- La distribucin de
*
MV
]9
N ( ; [I ( )] ) donde I ( ) = E ( 2 ln L / T ) = E ( ln L / )( ln L / ) T . Se puede
1
Cramer Rao11 bajo ciertos supuestos (ver nota 10): VAR( ) [I ( )]1 si E ( ) = y en
general VAR( ) E ( ) / [I ( )]1
Ejemplo 6.
Consideremos el mismo modelo del ejemplo 4: Yt = e X t + t y supongamos que el
n/2
2
1 n
(Yi e X i )
exp
2
2 i =1
(Yi e X i )
LnL = ln 2 ln 2 +
2
2
2
2 i=1
* *
Obtengamos las segundas derivadas evaluadas en: , , *2
2 LnL / 2 =
e
i =1
2 X i
*2
2 LnL / 2 =
*2
2 2 X i
i
2 X e
i =1
LnL / =
*2
X i e 2 X i
i =1
[I
*
( MV
)
*
*
*T
= 2 ln L( MV
) / MV
MV
(ver Greene. W, Theil .H).
10
Demostracin que: VAR( ln L / ) = I ( ) . Partimos de los siguientes supuestos generales:
1.-El rango de las variables aleatoria Yi , no depende del vector de parmetro . 2.-La funcin de
densidad g Y (.; ) posee derivadas de al menos de tercer orden con respecto a y estn acotadas.
{(
(LnL
W)
11
12
n
2 *4
Luego la estimacin de la
i
i =1
1
I ( , , *2 ) = *2
X i e2 Xi
i =1
2 X i2 e 2 X i
0
*2
0
n
IIId. - Parametrizacin,
Ahora veremos la aplicacin del mtodo de mxima verosimilitud aplicado al problema
de la parametrizacin de la variable dependiente en un modelo no lineal. Esta supone un
cambio de variable12. Veamos la funcin de produccin propuesto por Zellner et al
(1970) y visto en la pgina 2:
ln Yt + Yt = ln + (1 )Ct + ln Tt + t Esta funcin puede escribirse como la suma:
g (Yi ; ) = f ( X i ; ) + i
Donde: LnYi + Yi = g (Yi ; ) y f ( X i ; , , ) = Ln + (1 ) LnC i + LnTi
La funcin de densidad de Yi asumiendo que las perturbaciones aleatorias i se
1
2
[( g (Yi , ) f ( X i , , , )]2
i =1
i =1
1
[g (Yi , ) f ( X i , , , )]2 }
2 2
12
i =1
[g (Yi , )
2 i =1
n
f ( X i , , , )]
El cambio de variable consiste en el siguiente problema: Supongamos que tenemos dos variables
aleatorias:
(X1, X 2 )
Z / X 1
Z / X 2
W / X 1 W / X 2
P (a X 1 b; c X 2 d ) = f X 1, X 2 ( x1 , x2 ; )dx1dx2 =
a c
13
g (Y , ) f ( X , , , ) 1 / = 0
i
i
g (Y , ) f ( X , , , ) (1 ) LnC + LnT = 0
i
i
i
i
g (Y , ) f ( X , , , ) LnC + LnT = 0
i
i
i
i
i =1
LnL / =
LnL / =
2
i =1
LnL / =
i =1
2
LnL / == ln g (Yi , ) / YI / +
i =1
[g (Yi , )
2 i =1
n
f ( X i , , , )]g (Yi ; ) /
LnL / ==
(Yi /(1 + Yi )) + 2 2
i =1
i =1
g (Y , ) f ( X , , , ) = 0
i
i
LnL / 2 = n / 2 2 +
[g (Yi , )
n
f ( X i , , , )] = 0
2
2
Nuevamente estamos en presencia de un sistema de ecuaciones no lineales lo que obliga
emplear algunos de los algoritmos propuestos para este tipo de problemas.
4 i =1
Se cuenta con una base de datos mensual desde Enero de 1980 a Diciembre del 2002.
Para resolver el problema se emple el software SPSS . El paquete exige que se ingrese
un valor inicial para cada parmetro (Ver apndice SPSS). Estos valores se van
cambiando buscando mejorar el modelo, tomando como criterio que el cuadrado medio
de la regresin mejore y que se estabilicen las estimaciones de los parmetros. Para
aclarar esto veamos el siguiente cuadro:
RESULTADOS DE CINCO PRUEBAS
CAMBIANDO LOS VALORES INICIALES
Beta0
Beta1
Beta2
Beta3
0,5
0,4
0,5
1,0
0,5
0,4
0,5
0,5
0,01
0,4
0,5
0,5
0,5
0,4
0,5
0,05
0,5
0,1
0,2
0,1
SCR/gl
SCE/gl
R2
-289E+38
4,253E+36
-
120988,606
6327,17
-
120812
6329
-
550540,449
10,23
0,998
550540,49
10,233
0,998
14
El cuadro muestra los valores iniciales dados a los parmetros en cinco pruebas, se
podr notar que las dos ltimas son ms convincentes. En general, puede ocurrir que la
solucin ptima no sea nica o que se obtenga un ptimo local. A continuacin
presentamos dos resultados seleccionados. El primero, los valores iniciales de los
parmetros fueron beta0=0,05; beta1=0,2; beta2=0,1; beta3=0,1. Para el segundo estos
valores fueron: beta0=0,05; beta1=0,01; beta2=0,01; beta3=0,01
Parmetro
beta0
bata1
beta2
beta3
Estimacin
,003
,383
,657
,001
Error tpico
,001
,016
,012
,000
Intervalo de confianza al
95%
Lmite
superior
Lmite inferior
,002
,005
,351
,414
,633
,681
,000
,002
Parmetro
beta0
bata1
beta2
beta3
Estimacin
,003
,383
,657
,001
Error tpico
,001
,016
,012
,000
Intervalo de confianza al
95%
Lmite
superior
Lmite inferior
,002
,005
,351
,414
,633
,681
,000
,002
Se puede observar que las estimaciones obtenidas son idnticas. El modelo ajustado es:
IPM * = 0,03M 2M 0,383TCN 0 , 657 e 0, 001TIEMPO
Adems de lo indicado para seleccionar la estimacin del modelo, debe tenerse presente
los supuestos tericos del rea donde se est aplicando, puesto que puede ocurrir que las
estimaciones por ms que luzcan satisfactorias, debe verificarse si no contradice algn
supuesto importante, propio del fenmeno que se quiere modelar.
Correlaciones de las estimaciones de los parmetros
beta0
bata1
beta2
beta3
beta0
1,000
-,983
-,265
,829
bata1
-,983
1,000
,123
-,790
beta2
-,265
,123
1,000
-,652
beta3
,829
-,790
-,652
1,000
15
ANOVAa
Origen
Regresin
Residual
Total sin correccin
Total corregido
Suma de
cuadrados
2202161,8
2783,301
2204945,1
1494274,2
gl
4
272
276
275
Medias
cuadrticas
550540,449
10,233
Y = 0 + j f ( X j ) +
j =1
1
+ 1 , esto nos conduce a un modelo de regresin
Xj
lineal clsico, donde hay que tomar como regresores los inversos.
Si
= 1; f ( X j ) = ( X 1j 1) / 1
Si
= 0; lim f ( X j ) = lim( X j 1) / = 0 / 0 . Esta indeterminacin se resuelve mediante la
0
0
regla de Hospital, obteniendo lo siguiente:
lim df ( X j ) / d = lim d ( X j 1) / d /( d / d ) = lim1. X j log X j = LogX j
0
0
0
En los tres casos podemos escribir el modelo como:
p
Y = 0 + j Z j +
j =1
LogY = 0 + LogX j +
j =1
16
IV.-Contrastes Restringidos.
Tanto para modelos lineales como no lineales se proponen hiptesis restrictiva con
respecto a los parmetros. Puede darse uno de estos casos: a) el modelo es lineal y el
conjunto de restricciones tambin es lineal, este un caso frecuente en diseo de
experimento b) el modelo es lineal y el conjunto de restricciones al menos una
restriccin es no lineal c) el modelo es no lineal y el conjunto de restricciones es lineal,
un ejemplo el modelo de produccin de Cobb-Douglas donde se establece una o dos
restricciones lineales sobre los parmetros d) el modelo y las restricciones son no
lineales.
Como ejemplo del primer caso tenemos el siguiente modelo de consumo en funcin de
la renta con dos rezagos:
Yt = 0 + 1 X t + 2 X t 1 + t
Donde Yt es el consumo en el perodo t , X t y X t 1 corresponden a las rentas del
perodo t y t 1 respectivamente, t es la perturbacin aleatoria que asumimos normal
y 0 , 1 , 2 son los parmetros. Como puede observarse el modelo es lineal. Las
restricciones pueden ser: 1 2 y 1 + 2 = 1 , la primera restriccin podemos escribirla
como: 1 2 + h = 0
Esto ltimo permite escribir las restricciones en forma matricial como:
1
1 1 1 0
2 =
1
17
y asumiendo que las perturbaciones aleatorias son normales: t N (0, 2 ) entonces para
medir la discrepancia entre lo observado y la hiptesis nula, podemos emplear la prueba
t : que bajo la hiptesis nula es:
t = (v v ) / (v ( ( X T X ) 1 )v T = (v r ) / (v ( *2 ( X T X ) 1 )v T
*2
En el caso de que R es una matriz de l filas, esto es: l restricciones lineales entonces
podemos emplear la prueba F para tamao de muestras suficientemente grandes.
1
F = (n k ) R r (R( X T X ) 1 R T ) (R r ) / l *T
Bajo la hiptesis nula el estadstico se distribuye como una Fl ,:n k . En cualquiera de los
dos casos, bajo la hiptesis nula, la esperanza de la discrepancia d debe ser igual al
vector nulo, esto es en forma general:
E (d ) = E ( R R ) = 0 l
Sujeto a:
R r = 0 l
Empleando los multiplicadores de Lagrange13 obtenemos:
13
Es una tcnica que permite resolver problemas de programacin no lineal restringido, esto es, dada una
funcin: F ( x1 , x2 ,...xn )
la cual, por ejemplo,
quiere minimizar y, un conjunto de
Si las restricciones fuesen del tipo Gi ( x1 , x 2 ,...x n ) bi 0 , se restara a cada restriccin una nueva
variable no negativas llamadas variables de holguras hi obteniendo lo siguiente:
m
18
Min
,
L( , ) = (Y X ) T (Y X ) + 2 ( R r )
L( , ) / = 2 X T (Y X ML ) + 2R T = 0 p +1
L( , ) / = 2( R ML r ) = 0 l
R T ml X T Y
=
0 r
Simplificando la notacin:
SCE = Y X
p=2
SCE * = Y X ML
p=2
En efecto podemos descomponer el vector de los residuos del modelo restringido como
sigue:
*
e R* = Y X ML = Y X + X ( ML ) = e+ X ( ML )
e R*T e R* e T e
La igualdad se cumple si ML = .
Cuando el modelo es no lineal y las restricciones son lineales el procedimiento puede
partir de la linealizacin del modelo y proceder de forma similar como se ha indicado
para hacer el contraste, el problema se presenta en la situacin de no linealidad de las
restricciones.
IVa.-Prueba F asinttica.
Tomando en cuenta la relacin SCE * SCE , se pude construir el contraste F tomando
en cuenta que el tamao de la muestra es suficientemente grande como para que se
justifique la aplicacin de este test desde el punto de vista asinttico, tericamente esto
significa que se hace tan grande como se quiera:
Esta nueva funcin es la que emplearemos para encontrar la solucin ptima. Este mtodo tiene validez
cuando el nmero de restricciones m es menor al nmero de variables n.
19
IVb.-Prueba de Wald.
Esta prueba se usa indistintamente en el caso del modelo lineal o no lineal, la prueba se
W = ( R( ) r ) T Var ( R( ) r ) ( R( ) r )
W = *2 ( R r ) T ( R ( X T X ) 1 R T ) 1 ( R r )
Este estadstico se distribuye como una l2 con tantos grados de libertad como
restricciones estn presentes en: H 0 : R = r .
Cuando el modelo es lineal: Y = X + y las restricciones no lineales: H 0 : R( ) = r ,
R ( ) dada por:
R( ) = R( ) + [R( * ) / ]( )
Var ( R ( )) = R( * ) / Var ( ) R ( * ) /
Var ( R ( )) = *2 R ( * ) / ( X T X ) 1 R ( * ) /
Var ( R r ) = R Var ( ) R = R I ( ) R T
20
*
*
*
W = R r Var ( R ) R r
*
*
*
W = R ( ) / Var ( R ( )) R ( ) /
W sigue, bajo la hiptesis nula una distribucin l2 . La hiptesis nula se rechaza si:
P ( l2 W H 0 )
I ( , , *2 )
n 2 X*
e i
* ni =1
*
X e 2 X i
i
i =1
*2
=
n 2 X t
1
* *
e
2
I ( ; = tn=1
X t e 2 X t
t =1
*
Donde: R ( ) / = 2
X ie
i =1
2 X i2 e 2 X i
2 Xi
0
*2
0
n
X t e2 Xt
t =1
X t2 e 2 X t
t =1
R ( ) / = 2 por tanto:
n 2 X t
2
e
W = 2 ,2 tn=1
X e 2 X t
t
t =1
X te
t =1
2 n
2 2 Xt
Xt e
t =1
2 Xt
2 ,2
21
LnL( R ; ) R / = LnL( ; ) / + R T = 0 p
LnL( R ; ) R / = [R r ] = 0 l
*
LnL( R ; ) R / LnL( ; ) / 0 p
Es decir las dos funciones de mxima verosimilitud, la del modelo restringido y la del
modelo sin restriccin deben estar prximas. El estadstico tiene la forma
*
LnL( R ; ) R / = LnL( ; ) / + T R( ) / = 0 p
*
*
LnL( R ; ) R / = R( ) r = 0 l
con las
14
test consiste en elegir una regin crtica W R , tal que para un valor [0,1] , n para
n
n 0 equivalentemente si X S .
22
LnL( R ) LnL( )
Donde:
1 T
n
n
Ln(2 ) ln 2
2
2
2 2
El estimador Mximo verosmil *2 = e *T e / n
*
n
n
n
LnL( ) = Ja cov iano Ln(2 ) ln *2
2
2
2
*
n
n
n
LnL( R ) = Ja cov iano Ln(2 ) ln R*2
2
2
2
LnL ( ) = Ja cov iano
n
( Ln R*2 Ln *2 )
2
Bajo la Hiptesis nula 2 RMV se distribuye asintticamente como una l2 . La hiptesis
RMV = LnL ( R ) LnL ( ) =
Parmetro
beta0
beta1
beta2
beta3
Estimacin
,176
,402
,598
-4,029
Error tpico
3,9E+013
1,9E+009
1,5E+014
29217483
Intervalo de confianza al
95%
Lmite
Lmite inferior
superior
-7,674E+013
8E+013
-3704114643
4E+009
-2,985E+014
3E+014
-57521159,6
6E+007
beta0
1,000
,998
-1,000
-,997
beta1
,998
1,000
-,998
-1,000
beta2
-1,000
-,998
1,000
,997
beta3
-,997
-1,000
,997
1,000
23
ANOVAa
Origen
Regresin
Residual
Total sin correccin
Total corregido
Suma de
cuadrados
,501
2204944,6
2204945,1
1494274,2
gl
3
273
276
275
Medias
cuadrticas
,167
8076,720
R*2
)
*2
Esto es equivalente a 2 RMV nLn( SCE R* / SCE ) = 275 Ln( 2.204.944,6 / 2783,301) = 1846,263
P( 32gl 1846,263) = 0 . Esto implica rechazar la hiptesis nula: que los estimadores
obtenidos en el ejemplo 7 cumplen con todas las restricciones impuestas en dicha
hiptesis .
Es importante tomar en cuenta que el SPSS permite guardar las derivadas de los
parmetros evaluadas en cada observacin. Con los clculos necesarios se puede
entonces emplear los contrastes que requieren de la matriz de informacin.
Ejemplo 11
Ahora redefinamos el modelo IPM como:
IPM = 0 M 2 M 1 TCN 2
Parmetro
beta0
beta1
beta2
Estimacin
,006
,327
,739
Error tpico
,001
,011
,011
Intervalo de confianza al
95%
Lmite
Lmite inferior
superior
,005
,008
,304
,349
,717
,760
24
beta0
1,000
-,956
,655
beta1
-,956
1,000
-,847
beta2
,655
-,847
1,000
ANOVAa
Origen
Regresin
Residual
Total sin correccin
Total corregido
Suma de
cuadrados
2201115,4
3829,658
2204945,1
1494274,2
gl
3
273
276
275
Medias
cuadrticas
733705,146
14,028
Parmetro
beta0
beta1
beta2
Estimacin
,007
,356
,644
Error tpico
,001
,014
,014
Intervalo de confianza al
95%
Lmite
superior
Lmite inferior
,005
,010
,328
,385
,616
,671
beta0
1,000
-,956
,674
beta1
-,956
1,000
-,861
beta2
,674
-,861
1,000
ANOVAa
Origen
Regresin
Residual
Total sin correccin
Total corregido
Suma de
cuadrados
2198643,6
6301,476
2204945,1
1494274,2
gl
2
274
276
275
Medias
cuadrticas
1099321,810
22,998
25
Se puede observar en el grfico que la relacin entre los tres contrastes es: el estadstico
de Wald siempre dar un valor mayor a los otros dos contrastes auque los tres tienen las
mismas propiedades asntoticas, es decir: son equivalentes asintticamente. El contraste
de Wald solo requiere estimar mediante el mtodo de mxima verosimilitud el
parmetro del modelo sin restricciones, el contraste de los multiplicadores de Lagrange
necesita solamente la estimacin del parmetro del modelo reducido, mientras que el
contraste de mxima verosimilitud parte de la estimacin del parmetro del modelo sin
restricciones y con restricciones requiriendo por tanto de dos estimadores.
V.-Contrastes de Hiptesis de linealidad:
Hay varios test que permiten decidir en trminos estadstico si un fenmeno responde a
un comportamiento no lineal, bien sea en el caso de un modelo de regresin o de serie
de tiempo, algunos de estos test no estn disponibles en las versiones de los software
ms usados en estadstica tales como el SAS o SPSS por ser de desarrollo muy
recientes. En este punto veremos algunos de estos test, el primero est basado en la
descomposicin de la variacin total, conduciendo a una prueba F el segundo es el test
Pd , y finalmente el test propuesto por Samorov, A.; Spokoiny, V. ;Vial, C (2005).
26
Va.-Prueba F15
Partimos de la descomposicin de la variacin total en tres componentes, bajo la
hiptesis nula que el modelo que mejor se adecua a los datos es un modelo de regresin
lineal H 0 : Y = X + . Adems, asumimos que existen E (Y / X ) , E (Y ) , y el ajuste de
dada por: Y E (Y )
p= 2
la
descomponemos como:
Y E (Y )
p=2
= (Y E (Y )) + (( E (Y / X ) Y ) + (Y E (Y / X ))
p=2
Y E (Y )
p=2
= Y E (Y )
+ E (Y / X ) Y
p= 2
+ Y E (Y / X )
p= 2
p=2
De donde:
*2 = R *2 + Y E (Y / X )
p= 2
/ Y E (Y )
p=2
Vb.-Contraste de PE
Consideremos dos funciones no lineales: G0 ( X ; ) y G1 ( X ; ) entonces las hiptesis
son:
H 0 : y = G0 ( X ; ) + 0
H 1 : f ( y ) = G1 ( Z ; ) + 1
Apliquemos la idea del contraste J 16, y consideremos que Y se puede expresar como
una combinacin lineal convexa de G0 ( X ; ) y G1 ( Z ; ) , esto es:
Y = (1 )G0 ( X ; ) + G1 ( Z ; ) +
0 1 (1)
El conjunto de hiptesis anterior se modifica por la hiptesis: H 0 : = 0 , entonces hay
que estimar el conjunto de parmetros: , , . Una forma de proceder es estimar uno
de los vectores de parmetros por mnimos cuadrados no lineales y luego utilizarlo en la
ecuacin (1) para estimar por mnimos cuadrados no lineales tanto el otro vector de
parmetro y con la restriccin: 0 1 el siguiente paso hacer el contraste de la
hiptesis nula: H 0 : = 0 , empleando el estadstico: / Var ( * ) que sigue una
15
27
28
t 1
17
Luego:
VAR ( Y t ) = 2 (1 12 ) 1
X 2 es: E ( X 1 / X 2 ) =
1 = E ( X 1 ) = x1 f X1 ( x1 ; )dx1 =
S
x1 f X , X 2 ( x1 , x2 ; )dx1dx2 = x1 f X / X 2 ( x1 / x2 ; ) f X 2 ( x2 ; )dx1dx2 =
S S
S S
f X 2 ( x2 ; )( x1 f X / X 2 ( x1 / x2 ; )dx1 )dx2
= E ( E ( X 1 / X 2 ))
18
29
Pero se puede preguntar que ocurre cuando el proceso autoregresivo tiene una varianza
heteroscedstica. De ah surge la primera repuesta que da R. F. Engle (1982) con el
modelo ARCH y la generalizacin de Bollerslev (1986) el GARCH. De estos trabajos
pioneros han surgido nuevas consideraciones expresadas en los aportes de Andrew A.
Weiss (1986), Ruey S Tsay (1987), James Rochon (1992) y mucho ms, recientes estn
los de Medeiros M el al (2003), Audrini F (2005) Chandra el al (2006) Cline(2006),
Ferlan R (2006) . Lo interesante de estos ltimos trabajos es que giran en torno a nuevas
metodologas que incluyen mtodos no paramtricos y redes neurales para ampliar las
posibilidades de los modelos propuestos por ambos pioneros.
VIa.-ARCH
Veremos en primer lugar la propuesta planteada por R. F. Engle (1982), parte de un
modelo cuasilineal dado por:
Yt = t ht1 / 2 y ht = 0 + 1Yt 21 (1)
Donde Var ( t ) = 1 , y 0 , 1 parmetros desconocidos. Este es el modelo ARCH ms
sencillo. Asumiendo normalidad dado el conjunto de informacin disponible Yt 1 la
distribucin condicional de Yt / t 1 tiene una distribucin normal N (0, ht ) . La varianza
condicional ht puede expresarse ms generalmente como:
ht = h (Yt 1 , Yt 2 ,..., Yt p ; 0 , 1 , 2 ... p ) (2)
Yt / t 1 N ( Z t t , g t ) con:
g t = g ( t 1 , t 2 ,..., t p ; 0 , 1 , 2 ... p ) (3)
t = Yt Z t
Un caso particular es g t = 0 + 1 t21 como varianza condicional Var ( t / t 1 ) , la
varianza no condicional es Var ( t ) = E (Var ( t / t 1 )) = 0 + 1 E ( t21 ) = 0 + 1Var ( t 1 )
si { t } es un proceso estacionario en varianza entonces Var ( t ) = 0 /(1 1 )
Este caso es el modelo de regresin ARCH.
Considerando (1) y (2) se puede generalizar escribiendo:
h
30
Para el caso que solo se emplean solamente variables endgenas Ruey S. Tsay (1987)
propone lo siguiente:
d
Yt / t 1 D (rt ; g t )
rt = r (Yt 1 , Yt 2 ,..., Yt p ; 0 , 1 , 2 ... p ) = 1Yt 1 + 2 Yt 2 .... p Yt p
2
2
g t = g ( t 1 , t 2 ,..., t p ; 0 , 1 , 2 ... p ) = 0 + 1 t 1 + 2 t 2 + ... + p t p
t = Yt t Yt i
i =1
VIa1.-Estimacin.
Las tcnicas de estimacin de los parmetros son: el de mxima verosimilitud
paramtrico y no paramtrico de Audrino F (2005), mnima divergencia de Ajay
Chandra et al (2006), mnimos cuadrados generalizados factibles Green (1999). El
estimador de mxima verosimilitud siguiendo a Engle (1982) se emplea para estimar
los parmetros de ht = h (Yt 1 , Yt 2 ,..., Yt p ; 0 , 1 , 2 ... p ) o de la regresin ARCH dado
como
E (Yt / t 1 ) = Z t
g t = g ( t 1 , t 2 ,..., t p ; 0 , 1 , 2 ... p ) ,
en este ltimo
Yt 2
1
exp
(2ht )1 / 2
2ht
t =1
t =1
ln f Yt ( yt ;0, ht ) = ln (2h)1 / 2 +
t =1
Yt 2
2ht
n
Yt 2
1 n
n
=
+
ln
(
;
0
,
)
ln(
2
)
f
y
h
ln
h
Yt t t
t 2h
2
2 t =1
t =1
t =1
t
n
t =1
t =1
Y2
/ = 0
t
ln f Yt ( yt ;0, ht ) / =
t =1
n
Yt 2
1 n 1
l
h
2 h / = 0
t
2 t =1 ht
t =1
t
zT = (1, Yt 21 , Yt 2 2 ,...Yt 2 p ) y
1 n T
( z t z t / ht )
2n t =1
t = Yt Z t
d
f Yt ( yt ; Z t , g t ) =
exp
exp
=
1/ 2
( 2g t )1 / 2
2gt
(2g t )
2gt
n
t =1
t =1
f Yt ( yt ; Z t , g t ) =
t2
1
exp
(2g t )1 / 2
2gt
Ln
t =1
n
t2
n
1 n
f Yt ( yt ; Z t , g t ) = ln(2 ) ln g t +
2
2 t =1
2gt
t =1
2 t =1
t =1
2gt
p
1 n T
Z t Z t ( g t1 + 2 t2 2j g t2j )
n t =1
j =1
32
I ( ; ) =
1 n 1 g t g t
E
n t =1 2 g t2
19
1/ 2
st =
1 1oo
f t f t 1
et+21
1
f t +1
Este procedimiento se itera para refinar los resultados, lo estimadores obtenidos son
asintticamente equivalentes a los de mxima verosimilitud a pesar que no
necesariamente cinciden. Este procedimiento se puede generalizar para:
g t = 0 + 1 t21 + 2 t2 2 + ... + p t2 p
Teorema (R. F. Engle (1982))
El proceso ARCH de orden p , con parmetros no negativos 0 0, 1 0,... p 0 , es
estacionario en covarianza si, y solamente si, la ecuacin caracterstica tiene todas sus
races fuera de un circulo de radio unitario. La varianza estacional est dada por:
p
E (Yt 2 ) = 0 /(1 j )
j =1
Bajo el supuesto que el modelo de regresin ARCH sea simtrico y regular entonces I ( ; ) = 0 , ver
R. F. Engle (1982).
19
33
LogL ( y , G y ) = Wt (Y )) (Vt , G )
t =2
G * y = min wt (Y )( log( f Ut G y ))
Gy
t=2
=
2
20
(u )du
dy
34
t = p +1
Los residuos estn dados por: t = Yt / ht , donde: ht = 0 + 1Yt 2 + 2Yt 2 .... pYt 2 p
Encontremos ahora una funcin f como ajuste de la verdadera funcin de
densidad g ( ; ) utilizando la mnima divergencia, en general se parte de la
definicin dada por:
D ( f , g ( ; )) =
K { f ( ) / g ( ; )}g ( ; )d
Donde K ( x) = {4 /(1 2 )}{1 x (1+ ) / 2 } ; 1 < < 1 . El estimador mnimo divergente es:
*
*
n = min D ( f , g n ( ; )) , D ( f , g n ( ; )) = K f ( ) / g n ( ; ) g n ( ; ) d
x t
n
; (4)
g n* ( ; ) =
W
ncn t = 2 cn
cn = n ; 1 / 4 < < 1 / 3
Para que (4) sea ms fcil de computar , los autores consideran como ejemplo el ncleo
de Epanechbokov: W ( x) = 0,75(1 x 2 ); x 1 .
VI3a.-Test de hiptesis.
Consideremos la varianza condicional g t = 0 + 1 t21 + 2 t2 2 + ... + p t2 p , o de forma
ms general: Var ( t / t 1 , t 2 ,... t p ) = g t ( t 1 ,... t p ; 0 ... t p ) lineal o no, por ejemplo
puede ser exponencial. La hiptesis nula es: H 0 : 1 = 2 = .... p = 0 . Estoa hiptesis
mantiene que la varianza condicional es constante. Engle (1982) propone el siguiente
procedimiento, consideremos el vector et = (1, t1 , t 2 ,... t p ) , donde j son los
35
I ( * ) =
E
e
e
(
)
0
0
ID del modelo
IPMG
Model_1
Tipo de modelo
ARIMA(1,1,1)
21
Obsrvese que para cada valor de t se obtiene un vector columna, por tanto e es una matriz.
El programa es SPSS es:
22
GET DATA /TYPE=ODBC /CONNECT=
'DSN=Excel Files;DBQ=D:\ARTCULOS\DATOS
ARCH.xls;DriverId=790;MaxBufferSiz'+
'e=2048;PageTimeout=5;'
/SQL = 'SELECT RE1C, `RE-1C` AS RE1C1, `RE-2C` AS RE2C, `RE-3C`
AS RE3'+
'C, `RE-4C` AS RE4C FROM `Hoja2$`'
/ASSUMEDSTRWIDTH=255
.
CACHE.
DATASET NAME DataSet2 WINDOW=FRONT.
REGRESSION
/MISSING LISTWISE
/STATISTICS COEFF OUTS R ANOVA COLLIN TOL CHANGE
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT RE1C
/METHOD=ENTER RE1C1 RE2C RE3C RE4C
/SCATTERPLOT=(*SRESID ,RE1C ) (*ZRESID ,RE1C )
/RESIDUALS DURBIN HIST(ZRESID) NORM(ZRESID)
/SAVE COOK RESID .
36
Sin transformacin
Constante
AR
Diferencia
MA
Retardo 1
Retardo 1
Estimacin
1,067
,868
1
,286
ET
,516
,039
t
2,069
22,289
Sig.
,040
,000
,078
3,682
,000
37
Retardo
FAS residual
FAP residual
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
IPMG - Model_1
-1,0
-0,5
0,0
0,5
1,0 -1,0
-0,5
0,0
0,5
1,0
Residual
Variables introducidas/eliminadas(b)
Modelo
1
Variables
introducidas
RE4C, RE2C,
RE3C,
RE1C1(a)
Variables
eliminadas
Mtodo
.
Introducir
38
b
Resumen del modelo
Modelo
1
Estadsticos de cambio
R cuadrado Error tp. de la Cambio en
Sig. del
R
R cuadrado corregida
gl1
gl2
estimacin R cuadrado Cambio en F
cambio en F
,543a
,294
,284
9,48563
,294
27,757
4
266
,000
DurbinWatson
2,107
ANOVAb
Modelo
1
Regresin
Residual
Total
Suma de
cuadrados
9990,156
23933,939
33924,095
gl
4
266
270
Media
cuadrtica
2497,539
89,977
F
27,757
Sig.
,000a
Modelo
1
(Constante)
RE1C1
RE2C
RE3C
RE4C
Coeficientes no
estandarizados
B
Error tp.
,486
,603
,143
,059
,035
,057
,277
,055
,249
,057
Coeficientes
estandarizad
os
Beta
,144
,036
,287
,258
t
,806
2,422
,618
4,987
4,343
Sig.
,421
,016
,537
,000
,000
Estadsticos de
colinealidad
Tolerancia
FIV
,750
,802
,801
,749
1,332
1,247
1,248
1,335
39
Diagnsticos de colinealidada
Modelo
1
Dimensin
1
2
3
4
5
Autovalor
2,256
,858
,725
,660
,501
Indice de
condicin
1,000
1,621
1,765
1,849
2,121
(Constante)
,04
,95
,01
,00
,00
Proporciones de la varianza
RE1C1
RE2C
RE3C
,07
,07
,07
,04
,02
,01
,23
,30
,28
,13
,43
,44
,52
,19
,20
RE4C
,08
,03
,21
,14
,54
Valor pronosticado
Valor pronosticado tip.
Error tpico del valor
pronosticado
Valor pronosticado
corregido
Residuo bruto
Residuo tip.
Residuo estud.
Residuo eliminado
Residuo eliminado estud.
Dist. de Mahalanobis
Distancia de Cook
Valor de influencia
centrado
Mnimo
,4893
-,292
Mximo
44,1138
6,879
Media
2,2681
,000
Desviacin
tp.
6,08281
1,000
,589
6,632
,857
,964
271
,4911
62,1935
2,3835
7,04578
271
-35,55740
-3,749
-4,940
-61,75787
-5,174
,046
,000
100,70521
10,617
11,017
108,44568
14,913
130,986
3,864
,00000
,000
-,005
-,11531
,012
3,985
,052
9,41511
,993
1,077
11,30054
1,268
17,065
,356
271
271
271
271
271
271
271
,000
,485
,015
,063
271
N
271
271
40
La variable indicadora d t 1 indica si el umbral est presente o no, toma el valor uno
cuando lo est, y esto ocurre cuando la innovacin es negativa, por tanto el efecto de la
varianza condicional es mayor, un ejemplo de esto se da en el mercado de capitales, que
una mala noticia sobre el desenvolvimiento del mercado conduce a una mayor
volatilidad de los ttulos valores.
Finalmente tenemos el modelo AR-ARCH, el modelo AR-ARMA lo desarrolla por
primera vez Emanuel Parzen23, este autor clasifica las series de tiempo en tres
categoras, series con tendencias, estacionalidad y ciclos que denomina de memoria
larga, series que cumplen con la estacionalidad en media y varianza que llama series de
memoria corta y finalmente serie formadas exclusivamente con ruido blanco. Una de las
caractersticas de las series de tiempo con memoria larga es que sus autocorrelaciones
muestrales decrecen muy lentamente. Para lograr que una serie de memoria larga se
convierta en memoria corta en vez de diferenciar la serie como propone la metodologa
de Box-Jenkins, aumenta el nmero de parmetros AR sin importar el principio de
parcimonia, y la parte MA la deja solo en casos especiales. Para seleccionar el orden del
AR utiliza el criterio de informacin de Akaike. Otra propuesta para el estudio de series
de tiempo de memoria larga es emplear diferenciacin no entera, esto es: d donde
d toma cualquier valor real, generalmente entre -1 y 1, este modelo se llama AFIRMA.
El modelo AR-ARCH consiste entonces, en un modelo con una parte autoregresiva y
otra autoregresiva con heteroscedsticidad condicional.. Un caso particular de ARARCH lo presenta Cline, D.B.H (2006), en el cual considera el umbral. El modelo ARARCH lo define como: dada la sucesin de errores aleatorios { t* } independientes e
idnticamente distribuidas, con funcin de densidad simtrica a rededor de cero y
r
positiva en R , tambin se asume que E ( t* ) < . Consideremos ahora la sucesin de
variables aleatorias: { t }, entonces, el modelo AR-ARCH es:
p
i =1
i =1
t = 0 + i t i + (0 + i2 t2 i )1 / 2 t
p
i =1
p
p
*
i + i E ( t ) < 1
i
=
i
=
1
1
i =1
i =1
t = 10 + 1i t i + (10 + 12i t2 i )1 / 2 t si t k 0
p
i =1
i =1
23
Parzen, E (1982)
ARARMA Models for Time Series Analysis and Forecasting.
Journal of Forecasting. Vol 1pp 67-82
41
VIb.-GARCH.
El modelo GARCH es una generalizacin del ARCH, presentado por Bollerslev (1986),
el modelo es: dado el proceso estocstico: { t ; t E} entonces la distribucin dado el
conjunto de informacin t 1 es:
d
t / t 1 N (0, ht )
La varianza condicional es:
ht = 0 + 1 t21 + 2 t2 2 + ... + q t2 q + 1ht 1 + 2 ht 2 + ... + p ht p
Donde:
ht = 0 + 1 t21 + 1 ht 1
Si p = 0 , y q 0 entonces el modelo es un ARCH(q)24, si consideramos ahora, como en
i =1
i =1
ht = 0 (1 i ) 1 + i t2 i
i =1
j =1
j =1
t = 0 + i t2 i + j t j + j t j + t
Donde:
i .i . d
i =1
i =1
i =1
42
n = n / 0 = i ni n p + 1
i =1
n = ki n i n = 1,2...k
i =1
RE1C
Coeficiente
Lmite de confianza
superior
Lmite de confianza
inferior
1,0
ACF
0,5
0,0
-0,5
-1,0
1
10
11
12
13
14
15
16
Nm. de retardos
43
RE1C
Coeficiente
Lmite de confianza
superior
Lmite de confianza
inferior
1,0
ACF parcial
0,5
0,0
-0,5
-1,0
1
10
11
12
13
14
15
16
Nm. de retardos
2 t =1
t =1
ht
Donde:
ht = 0 + 1 t21 + 2 t2 2 + ... + t q t2 q + 1 ht 1 + 2 ht 2 + ... + p ht p
t = Yt Z t
44
Ln f Yt ( yt ; Z t , g t ) =
t =1
n
2 n
1 n
n
ln(2 ) ln h 2 t + t2 = lt ( )
2
2 t =1
ht t =1
t =1
Donde: = ( , 0 , , ) = ( ; )
2
1 1
1 1
lt ( ) / = 2 2t 2 ht2 / = 2
2 ht (ht )
2 ht
2
2
1 1
ht / t2 1 = 2 f t vt = B
ht
2 ht
t Zt
lt ( ) / =
2
t
t Zt
2
t
1 1
2 ht2
t (ht / )
1 1
2 ht2
t (ht / ) = 0
45
1 T
g 0 X 0 ( X 0T X 0 ) 1 X 0T g 0
2
Donde:
T
g 0 = ( 12 h11 1, 22 h21 1,... n2 hn1 1)
X 0 = (h1h1 / , h2 h2 / ,....hn hn / ) T
forma se distribuye con una 2 con tantos grados de libertad como elementos tiene el
vector 2 .
Es importante el comentario que hace el autor, para la hiptesis nula de que el modelo
es un ARCH(q), el contraste de los multiplicadores de Lagrange, usando como hiptesis
alternativas GARCH(r,q) o ARCH(q+r) el resultado se confunde. Siguiendo a Green, el
contraste para ARCH(q) frente a GARCH(p,q) es exactamente el mismo que l de
ARCH(q) frente a ARCH(p+q).
VI3b Modelos relacionados. INGAR
En los ltimos aos hay un creciente inters en aquellos procesos tanto de conjunto de
ndice como espacio discreto, en especial los procesos de Poisson entre cuyas
aplicaciones estn: cierto tipo de transacciones que se realiza en el mercado y problemas
relacionados con epidemiologa, de ah surge el estudio del modelo INGAR. Los
autores Ferland, R et al (2006) presentan un estudio bastante completo en su artculo
donde estudian las propiedades generales de este modelo y luego lo particularizan a un
modelo INGAR(1,1) y finalmente dan una aplicacin empleando los datos
epidemiolgico de la infeccin de campylobacterosis. Ahora cambiamos el proceso
d
t / t 1 P(ht ) t Z
ht = 0 + 1 t21 + 2 t2 2 + ... + t q t2 q + 1 ht 1 + 2 ht 2 + ... + p ht p
p 0, q > 0 , 0 > 0 , i 0 para i = 1,2...q ; i 0 para i = 1,2... p . Empleando los
46
H ( B ) = ( B) 1 ( B ) = i B i
i =1
i =1
Para construir INGARCH los autores proceden de la siguiente forma: consideran dos
sucesiones de variables aleatorias independientes y distribuidas como una Poisson
{U t : t Z } y {Z t ,i , j ; t Z (i, j ) N } , la primera sucesin tiene media
comn: 0 = 0 / (1) . Las variables U y Z son variables independientes. Ahora se
define la sucesin { t( n ) ; t Z }:
1) t( n ) = 0 para n < 0
2) t( n ) = U t para n = 0
3)
(n)
t
( ni )
n X t =1
= Ut +
i =1
Z t i ,i , j para
n > 0.
j =1
t / t 1 P(ht ) t Z
ht = 0 + 1 t21 + 1 ht 1
Las propiedades ms importantes son en este caso:
1) la media es: = 0 /(1 1 1 )
2) Var ( t ) = (1 (1 + 1 ) 2 + 12 ) /(1 (1 + 1 ) 2 )
3) La funcin de autocorrelacin : (r ) = 1 (1 1 (1 + 1 )(1 + 1 ) r 1 /(1 (1 + 1 ) 2 )
47
T (n)
C n ( ) =
j ,i =1
j i
{
{
}
y (n) y (n) }=0 si
y i ( n) y j ( n) >
El test (BDS) debido a los autores Brock, Dechert y Scheinkman asumen como
hiptesis nula que la serie responde a una sucesin de variables aleatorias
independientes e idnticamente distribuidas en donde para una dimensin n, Cn ( ) =
25
48
n* ( ) = 4{h n + 2 4
n 1
m j
c 2 j + (n 1) 2 c 2 n n 2 hc 2 n 2 }
j =1
la
notacin
de
la
Bajo la hiptesis nula este estadstico se distribuye como una normal N(0,1). Si el valor
del estadstico es tal que P Wn ( , N ) Wn* ( , N ) < entonces rechazamos la hiptesis
nula. El otro test conocido como test residual de Brock, consiste en utilizar un AR(p)
para ajustar la serie, si el coeficiente de correlacin espacial de la serie de los residuos y
de la serie x son significativamente diferentes entonces sospechamos la existencia de
una estructura catica.
El cociente entre Cn ( ) y cuando tiende a cero da una nueva dimensin conocida
como dimensin de correlacin:
D(n ) = lim Cn ( ) /
0
49
El siguiente anexo presenta las ventanas del SPSS para el problema de regresin no
lineal, la visualizacin de la mismas debe ser suficiente para un lector avisado, sin
embargo nos tomaremos la libertad de explicar la misma, sin tener la pretensin de
dictar un curso de SPSS que los hay mejores, en mucho. Suponemos que el usuario
conoce el manejo de la base de datos de este paquete tan popular entre alumnos y
especialista, por tanto, aunque parezca trivial la explicacin que sigue lo haremos para
aquellos que no estn tan familiarizado, aunque insistimos, ver la secuencia debera ser
lo suficientemente ilustrativo. La primera ventada es la seleccin del men.
50
Adems una casilla donde debe especificar los parmetros, al activar el botn
parameters, aparecer una nueva ventana donde debe colocar el nombre del primer
parmetro y el valor inicial, al terminar debe activar el botn Add, luego escribir el
nombre del segundo parmetro y su valor adicional y, activar nuevamente el botn Add.
Este procedimiento continua tanta veces como parmetro tiene el modelo.
51
Al finalizar la escritura de todos los parmetros active continuar: Continue. Con este
ltimo paso se presentara en la ventana parameers la lista de los nombres de los
parmetros con los valores iniciales seleccionados entre parntesis. Si desea cambiar o
remover algn parmetro, debe activar nuevamente la ventana parameters, al hacerlo
aparecer la ventana con los parmetros que utiliz para signarle nombres y valor
iniciales y podr usar los botones remove y change Esta misma ventana permite
cambiar o remover un parmetro o su valor inicial.
Una vez realizado este procedimiento, escriba el nombre de la variable dependiente en
la casilla correspondiente.
En la casilla Model expression introduzca los parmetros indicando si estn
multiplicado las variables o si son exponentes de las mismas, para ello emplee el
recuadro de nmeros y smbolos o la listas de funciones. En la listas de smbolos cuenta
con parntesis, el smbolo de multiplicar con un asterisco etc. En el caso de necesitar
alguna funcin preestablecida en la lista de las mismas debe recordar que debe indicarle
el argumento, este aparecer con un smbolo de interrogacin hasta tanto usted no lo
defina.
52
53
Los otros botones que estn en la primera ventana son: 1) Reset, que borra todo lo
escrito si se quiere modificar sustancialmente el modelo. 2) Save, que permite guardar
en la base de datos los valores predichos por el modelo, los residuos y las derivadas de
los parmetros evaluadas en cada punto.3)Loss, permite definir una funcin de prdida
o penalizacin. 4) Paste, que permite obtener el programa del procedimiento empleado.
54
REFERENCIA BIBLIOGRFICA.
Audrino, F. (2005)
Local Likelihood for non parametric ARCH(1) Models.
Journal of Time Series Analysis Vol 26, N 2 pag. 252-278.
Avriel, M (2003)
Nonlinear Programming-Analysis and Methods
Dover Publications. INC. New York.
Bazaraa, M.S.; Shetty, C.M (1979)
NonLinear Programming. Theory and Algorithms.
Jonh Wiley and Sons.-New York.-USA.
Blake, A.P and Kapetanios. G (2003)
Pure significance test of unit root hypothesis against nonlinear alternatives.
Journal of Time Series Analysis Vol 24, N3 pag. 254-267.
Bollerslev, T. (1986)
Generalized Autoregressive Conditional Heteroskedasticity.
Journal of Econometrics 31; pag. 307-327.
55
56
57
58