Escolar Documentos
Profissional Documentos
Cultura Documentos
de Estimacin de Demandas
Autor:
Jorge Mauricio Oviedo 1
1
joviedo@eco.unc.edu.ar
1.- Introduccin
Yt = 0 + 1 X 1t + L + n X nt + u t Matricialmente: Y = X + u
En los mismos se vio, a travs del Teorema Gauss-Markov, que los estimadores obtenidos por el
Mtodo de los Mnimos Cuadrados Ordinarios (MCO), resultaban ser lineales, insesgados y de
varianza mnima (dentro del conjunto de todos los estimadores insesgados posibles) siempre que se
cumplieran los supuestos de E (u) = 0 , E (u u) = 2 I , exacta especificacin lineal en los parmetros
y que las variables independientes o explicativas no son estocsticas (son fijas en muestras repetidas)
o, en caso de serlo, se distribuyen independientemente del trmino de perturbacin.
Los Modelos de Ecuaciones Simultaneas surgen para captar la posibilidad ms realista que los
valores observados (Y,X) provengan de un proceso generador de datos en donde stos son creados en
forma simultanea y mutuamente interdependientes va una interconexin entre ellos. Esto ocurre
cuando no solamente la Y es determinada por las X, sino que adems algunas de las X son a su vez
determinadas por Y. En otras palabras, cuando hay una relacin causal en las dos direcciones o una
relacin simultnea entre Y y algunas de las X, lo cual hace que la distincin entre variable
dependiente y variable explicatoria sea de poco valor. Es mejor tener un conjunto de variables que
pueden ser determinadas simultneamente por otras y esto es lo que efectivamente se hace en los
modelos de ecuaciones simultaneas.
Los sistemas de ecuaciones simultneas se distinguen por estar conformadas por varias
ecuaciones en las cuales hay un nmero de variables endgenas o variables determinadas
conjuntamente y un nmero de variables predeterminadas, o determinantes (estas a su vez pueden ser
variables exgenas, retardadas o no, y variables endgenas retardadas). En estos modelos se estiman
los parmetros de las ecuaciones teniendo en cuenta la informacin suministrada por todas las
ecuaciones del sistema. Un supuesto implcito en estos tipos de modelos es que los valores observados
corresponden siempre a situaciones de equilibrio, es decir no se concibe la posibilidad de obtener
datos en algn momento de transicin hacia el equilibrio.
o en forma matricial:
Yt + Xt B = ut t = 1,..., n
donde :
11 12 L 1M 11 12 L 1M
22 L 2 M 22 L 2 M
B = 21 ; =
21
;
M M O M M M O M
k1 k 2 L kM M 1 M 2 L MM
Yt = [ y1t L yMt ] ; Xt = [ x1t L xKt ] ; ut = [u1t L uMt ]
2) La matriz es no singular
3) plim(XE/T) = 0
Segn lo aprendido hasta ahora uno intentara aplicar MCO en forma independiente a cada una
de las M ecuaciones con respecto a las M+K-1 variables explicativas (M-1 Ys y K Xs) para hallar los
estimadores B y , pero si uno efecta esta accin se encontrar con que dichas estimaciones no
solamente sern sesgadas sino tambin inconsistentes es decir que a medida que el tamao de la
muestra crece indefinidamente los estimadores no convergen al verdadero valor del parmetro,
permaneciendo el sesgo. Esto se debe a que las M-1 variables endgenas restantes que aparecen en una
ecuacin cualquiera estarn correlacionas con el trmino de perturbacin de la ecuacin considerada,
puesto que por ser cada una de las M variables argumentos aleatorios, una perturbacin en una, alguna
o todas las restantes (M-1) afectaran el valor del termino de error de dicha ecuacin quien luego
influir en las dems ecuaciones. Es decir el termino de perturbacin de cada ecuacin depende de los
valores que asuman las G-1 variables endgenas restantes y viceversa. De esta manera se viola uno de
los supuestos del teorema de Gauss-Markov, haciendo indeseable la aplicacin directa de los MCO a
cada una de las ecuaciones. Para ello, demostraremos dichas afirmaciones a continuacin
Para demostrar que el estimador por mnimos cuadrados es inconsistente y sesgado consideremos la
siguiente ecuacin:
Yi + XBi + ei = 0
Algunos elementos de y B generalmente pueden tomar el valor de cero mientras que es costumbre
seleccionar una variable endgena del lado izquierdo de la ecuacin. Esto es llamado normalizacin y
es logrado fijando un coeficiente, digamos ij, con el valor -1. As, con algunas manipulaciones si es
necesario, se tiene:
y i = Yi i + Yi * i * + X i i + X i * i * +ei
y i = Yi i + X i i + ei
y i = [Yi X i ] i + ei
i
y i = Z i i + ei
Donde:
1 1
i = i = i , Bi = i = i , i = i
i * 0 i * 0 i
Y = [ y i Yi Yi *] , X = [ Xi X i *] , Z i = [Yi Xi ]
y M = mi + mi*, K=ki + ki*. La matriz Yi* contiene aquellos mi* variables endgenas que no
aparecen en la i-sima ecuacin; esto es, sus coeficientes asociados i*son cero. La matriz X* contiene
aquellas ki* variables predeterminadas que no aparecen en la i-sima ecuacin, o sea, sus coeficientes
asociados i* son cero.
= ( Z 'i Z i ) 1 Z 'i y i
Su valor esperado es
El ltimo trmino de la expresin anterior no desaparece ya que Zi contiene variables endgenas que
son conjuntamente determinadas con yi y por ende no son independientes de ei. Con lo cual el
estimador es sesgado.
Adicionalmente, a medida que el tamao de la muestra crece el estimador no converge en probabilidad
al verdadero valor del parmetro ya que
El ltimo trmino, no converge en probabilidad al vector nulo ya que Z = [Yi Xi] contiene a Yi, el
cual no es independiente del trmino de error u, independientemente del tamao de la muestra.
De esta manera los estimadores mnimo-cuadrticos son sesgados e inconsistentes.
Forma Reducida
Cuando se expresa a las vriables endgenas en trminos de las predeterminadas, dicha reespresin se
denomina Forma Reducida. Especficamente, si post multiplicamos el sistema por -1 y reacomodando
trminos se tiene:
Y + XB = U
(t = 1,K , T )
Y = X + V
donde:
11 L 1M
= B 1 = M O M = [ 1 L M ] (1) y
K 1 L KM
v11 L v1M
V = U 1 = M O M = [ v1 L v M ]
vK 1 L vKM
Los supuestos estocsticos sobre V se siguen directamente de los de u. Si ut es la i-sima fila de U y
vt la i-sima fila de V, entonces:
vt ' = ut 1
Ya que todos los vectores ut tienen media igual a cero y matriz de covarianzas , se sigue que
Adicionalmente, como E(ut, us) = 0, entonces E(vt, vs) = 0 para todo t distinto de s.
La forma reducida individual ser:
y i = Xi + v i
Si X es no estocstica, se verificar:
E ( X 'V ) = E[ X ' ET ] = 0
i = ( X ' X ) 1 X ' y i
= ( X ' X ) 1 X ' Y
De esta manera, ya que es posible estimar los parmetros de la forma reducidad demanera
insesgada y consistente y dada la relacin entre la forma estructural y la reducida
= B 1
= ( 1 ) 1
La cuestin que emerge es si los parmetros estructurales pueden ser nicamente derivados de las
estimaciones de la forma reducida y alguna otra informacin sobre la forma estructural. Esto nos
conduce al problema de la identificacin.
Este tipo de situaciones pueden obtenerse en un modelo clsico de ofertas y demandas de un
bien en donde una alteracin en las funciones de Demanda u Oferta ocasionaran alteraciones en el
precio y cantidad observada con lo cual el precio no ser independiente de las cantidades ofrecidas y
demandadas.
En virtud de la no-deseabilidad de la aplicacin de MCO a este modelo, lo que se intenta hacer
es reexpresar el sistema original (dado en su forma estructural, es decir tal y como surge de la realidad
siendo un fiel interprete de la misma) de modo tal de que cada variable endgena muestre su
dependencia slo con respecto a las variables predeterminadas y los trminos de perturbacin. De esta
manera, al ser por definicin las variables predeterminadas independientes de los trminos de
perturbacin y manteniendo el supuesto de ruido blanco para ut, sera eficiente estimar este nuevo
sistema de ecuaciones por MCO (en forma independiente a cada una de las ecuaciones) ya que los
estimadores as obtenidos sern nuevamente los mejores al entrar en vigencia una vez ms el Teorema
de Gauss-Marcov.
Matricialmente:
Yt + Xt B = u t
(t = 1,K , T )
Yt = Xt + v t
donde:
= B 1 (1) y v t = u t 1
Una vez obtenido los estimadores de el paso siguiente es intentar recuperar los parmetros de
la forma estructural a travs de los estimadores de los parmetros de la forma reducida va la
relacin = B 1 . Como se puede dilucidar, la matriz es de orden M K y, por lo tanto,
contiene GK elementos. Las matrices B y contienen como mximo M2 + MK elementos. Por ende,
existe una infinidad de estructuras de B y que corresponden a cualquier matriz dada.
Esta imposibilidad de recuperar los parmetros en un caso general conlleva al tratamiento del
problema de la identificacin es decir el anlisis de los casos y las condiciones bajo las cuales este
proceso de recupero se torna factible.
As se pueden presentar tres situaciones:
Que se pueden obtener estimaciones nicas de los parmetros estructurales en cuyo caso diremos
que la ecuacin esta exactamente identificada
Que se obtengan mas de una estimacin de los parmetros estructurales (pero un numero finito de
los mismos) en cuyo caso se dice que la ecuacin esta sobreidentificada
Que se obtengan infinitos valores para las estimaciones de los parmetros estructurales y por ende
haciendo imposible su recuperacin, dicindose en este caso que la ecuacin est subidentificada. Esto
surge por la falta de informacin necesaria para construir una funcin a travs de la forma reducida
Supongamos que mercado con ofertas y demandas lineales donde cantidad y precio son
endgenos sin tener ninguna variable predeterminada. En este caso, las dos rectas sern
subidentificadas porque lo que se obtendrn sern slo puntos de corte, sin saber si es una misma
funcin de oferta con distintas demandas o viceversa, o si son funciones distintas en cada punto. La
situacin sera otra si por ejemplo se toma como variable exgena relevante el ingreso de los
consumidores explicando su demanda. De esta manera, puede asegurarse que cada punto pertenece a
una misma oferta en corte con diferentes demandas segn sea el ingreso dado.
A continuacin se analizar condetenimiento el problema de la Identificacion y se daran
definiciones mas precisas de lo enunciado anteriormente..
El problema de la Identificacin
Mas precisamente, sea Y u vector observables de variables aleatorias , una estructura S es una
especifiacain completa de la funcin de densidad de y, digamos f(y). El conjunto de todas las
estructuras posibles, S, es llamado un Modelo. El problema de la identificacin consiste en hacer
inferencias sobre S dada S y las observaciones. Para hacer las cosas mas precisas supongamos que y
es generado por una funcin de densidad paramtrica:
f (y / S ) = f (y / )
Donde es un vector real k-dimensional. La funcin f se supone conocida pero no. Entonces
la estructura es descripta mediante un punto en R k mientras que el Modelo como un subconjunto de
R k.
f (y / ) = f (y / *), y
En base a esas consideraciones se proceder a analizar las condiciones bajo las cuales dos
estructuras de sistemas de ecuaciones son observacionalmente equivalentes.
Yt + Xt B + ut = 0 t = 1,..., T
Donde Yt, Xt y ut, son la t-sima filas de Y, X y E respectivamente. Supongamos que ut tiene
densidad P(ut/), luego la densidad conjunta asociada a u1, u2, ... ut ser:
P(u
t =1
t / )
T
P (y1 ,..., yT / , B, , X ) = P(u / )
T
t
t =1
T
= P ( y x B / )
T
t t
t =1
Si pre-multiplicamos el sistema original por una matriz no singular arbitraria F, cada ecuacin
ser reemplazada por una combinacin lineal de cada una de las M ecuaciones originales. Esto es:
Donde es utF,
1
P (t / F ' F ) = F P(ut / )
T T
P( / F ' F ) = P(u
T
F / )
T T T
t F F t
t =1 t =1
T
= P(u / )
T
t
t =1
Con lo cual las funciones de densidad de ambas estructuras son idnticas en consecuencia
observacionalmente equivalentes. Obsrvese que eligiendo F = B-1, una estructura observacionalmente
equivalente es la forma reducida del sistema de ecuaciones. A raz de esto, todas las estructuras
creadas por una postmultiplicacin de la estructura original por una matriz original tendrn la misma
forma reducida.
De esta manera las condiciones para equivalencia observacional se pueden establecer asi:
1) 1 B = *1 B*, 1 = *1 * *
2) existe F no singular,
*
B * = F B
Si no hay restricciones a priori en los parmetros del sistema cualquier matriz no singular F podra ser
admisible en el sentido que la estructura transformada satisface las restricciones del modelo. Si sobre
la base de la teora econmica podemos establecer restricciones a priori cualquier modelo
transformado debe satisfacer las mismas restricciones si la transformacin se an admisible.
Se dice que la i-sima ecuacin del sistema est identificada si y solo si todas las transformaciones
admisibles F tienen la siguiente estructura:
0
M
F = LL cij LL
M
0
Es decir la i-sima columna de F debe ser un mltiplo escalar del vector unitario cuyos elementos son
todos ceros excepto la i-sima columna que contiene un uno. Obsrvese que cuando postmultiplicamos
B y G por F sus i-simas columnas solo son cambiadas por un mltiplo escalar.
Extendiendo dicha definicin al sistema completo, se tiene que el sistema es identificado si y solo si
todas las ecuaciones estn identificadas, o equivalentemente la matriz admisible de transformacin es
diagonal.
A los efectos de determinar las condiciones para identificar una ecuacin, definamos:
A=
B
De modo tal que ai, la i-sima columna de A contenga los parmetros de la i-sima ecuacin. Sea Ri y
ri J x (M + K) y (J x 1) matrices de constantes, respectivamente, tal que toda la informacin a priori
acerca de la ecuacin i-sima del modelo, incluyendo la restriccin de normalizacin, pueda ser escrita
como:
Ri ai = ri
As se puede hacer la siguiente observacin: Sabemos que la i-sima columna de AF es Afi, donde fi
es la i-sima columna de F. Ya que F es admisible, los coeficientes estructurales resltantes satisfacen
la restriccin Ri(Afi) = ri. Sin embargo, para que la i-sima ecuacin est identificada, fi debe ser igual
a ji, el i-simo vector unitario. Efectivamente ji es una solucin de RiAfi = ri porque RiAji = Riai = ri.
Entonces para que (RiA)fi = ri tenga solucin nica igual a fi = ji, se requiere que Rango (RiA=M).
Teorema: Condicin de Rango:
La i-sima ecuacin est identificada si y solo si Rango (RiA) = M
1.- Los parmetros de la i-sima ecuacin estn sin identificar o subidentificados si Rango (RiA) < M.
2.- Los parmetros de la i-sima ecuacin estn perfectamente identificados si Rango (RiA) = M y
Rango (Ri) = M
3.- Los parmetros de la i-sima ecuacin estn sobreidentificados si Rango (RiA) = M y
Rango (Ri) > M
Mtodos de Estimacin
Habiendo ya sealado las condiciones que hacen factible la recuperablidad de los parmetros se pasar
a continuacin a dar un breve comentario acerca de los mtodos existentes que permiten solucionar el
problema de la inconsistencia que presentan la aplicacin directa de los MCO. Estos mtodos surgen a
partir de la bsqueda de soluciones alternativas cuando se viola el supuesto de no aleatoriedad en las
variables explicativas y, a su vez, de la no existencia de correlacin igual a cero entre ellas y las
perturbaciones.
2
Ver Gujarati, Cap. 17 Seccin 3 Pg: 362
Mnimos Cuadrados en Dos Etapas (MC2E): Es til para modelos cuyas ecuaciones estn
sobreidentificadas, ya que presenta una forma de ponderar las soluciones mltiples. La idea bsica que
subyace en el mtodo es la de reemplazar las variables endgenas, que estn correlacionadas con las
perturbaciones, por funciones lineales de variables exgenas; as, ya que estas variables no presentan
correlacin con dichas perturbaciones, las estimaciones de los parmetros que conseguiremos sern
consistentes. Se elige cada funcin lineal de manera que est lo ms altamente correlacionada posible
con la variable endgena que reemplaza.
El mtodo requiere dos aplicaciones sucesivas de MCO.
Primeramente se regresan las variables endgenas contra todas las variables predeterminadas del
sistema. La estimacin obtenida para la variable endgena se utiliza como dato en las ecuaciones y se
aplica nuevamente MCO sobre la ecuacin que incluye la estimacin. Los estimadores as obtenidos
son consistentes.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Se puede demostrar que ste mtodo es una aplicacin particular del mtodo de las variables
instrumentales que busca reemplazar los regresores por variables altamente correlacionados con ellos
y escasamente con los trminos de perturbacin.
Mxima Verosimilitud con Informacin Limitada (MVIL)
Este mtodo consiste en elegir como estimadores de los parmetros estructurales aquellos
valores que hacen mxima la funcin de verosimilitud de la ecuacin respectiva sujeto a elegir valores
que cumplan con la condicin de rango. Es decir este mtodo ante los caso de sobreidentificacion elige
dentro del grupo de valores posibles aquellos que maximicen la funcin de verosimilitud de la
ecuacin siendo un requisito previo el conocimiento de la distribucin de densidad del trmino de
perturbacin de la ecuacin.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Variables Instrumentales
Si se planea estimar el sistema usando Mnimos Cuadrados en 2 Etapas, 3 Etapas o GMM, se deben
especificar las variables a ser usadas en la estimacin. Se pueden especificar los mismos instrumentos
para todas las ecuaciones o instrumentos distintos para cada ecuacin.
De esta manera existen dos manera de especificar los instrumentos. Si uno desea usar los mismos
instrumentos para todas las ecuaciones se debe incluir una lnea de comando cuya sintaxis comience
con @INST o INST seguida por una lista de variables exgenas a ser usadas como instrumentos. Por
ejemplo:
Indica a Eviews usar las seis variables como instrumentos para todas las ecuaciones que se listarn a
continuacin.
Para especificar instrumentos distintos para cada ecuacin se debe agregar al fin de cada ecuacin: @,
seguido por la lista de instrumentos. Por ejemplo:
La primer ecuacin usa CS(-1), INV(-1), GOV, y una constante como instrumentos mientras que la
segunda usa GDP(-1), GOV, y una constante.
Identificacin
Los criterios de identificacin exigen que debe haber al menos tantos instrumentos, incluyendo
constantes, en cada ecuacin como variables existen del lado derecho de cada una de ellas.
Si dichos requerimientos no se cumplen, Eviews mostrar un cuadro de error.
Estimacin
Una vez creado y especificado el sistema, uno puede presionar el boton de estimacin para seleccionar
el mtodo de estimacin por medio de un cuadro de dialogo
Si uno selecciona alguno de los mtodos de estimacin por GMM, Eviews solicitara se selecciones
algunos opciones especficas para este mtodo. Si uno selecciona la opcin rotulada como Identity
weighting matrix, Eviews estimar el modelo usando idnticos ponderadores y usar los coeficientes
estimados y la especificacin GMM que se indique para computar una matriz de covarianzas que es
robusta a heterocedasticidad en las secciones cruzadas (White) o a heterocedasticidad y correlacin
contempornea. Si dicha opcin no se selecciona Eviews usar los ponderadores GMM en la
estimacin y cmputo de lo matriz de covarianzas.
Cuando uno selecciona la opcin GMM-Time series (HAC), el cuadro de dilogo adicionalmente
mostrar opciones para especificar la matriz de ponderacin y opciones para el Kernel para determinar
la forma funcional del nucleo usado para ponderar las autocovarianzas al computar la matriz de
ponderacin.
Las salidas de la estimacin del sistema contiene los parmetros estimados, sus errores estandares y
los estadsticos t para cada uno de los coeficientes en el sistema. Adicionalmente Eviews reportar el
determinante de la matriz de residuos y en el caso del mtodo de Mxima Verosimilitud con
Informacin Completa, el valor maximizado de la verosimiitud
Tambien se incluyen un resumen de los estadsticos de cada ecuacin como los errores
estndares de la regresin, suma de cuadrados de residuos, etc.
APNDICE
Hasta ahora se han tratado casos de estimacin de modelos lineales en donde los supuestos en los que
se generaban los datos respondian a todas las condiciones que hacian aplicables el Teorema de Gauss-
Markov arrojando por ende estimadores insesgados y eficientes. Dichos supuestos eran:
1- Las Xs son fijas en muestras repetidas (no estocsticas).
2- El rango de la matriz X es de rango completo (no existe dependencia lineal entre las
observaciones)
3- Correcta especificacin del modelo en el sentido de que el verdadero proceso generador de datos
provenia de una relacion exactamente lineal entre las variables y adems que no se cometen
errores por incluir o excluir variables de mas.
4- E(u) =
5- V (u) = 2 I es decir, errores no autocorrelacionados y con varianza constante e igual para todos
(homoscedsticos).
Cuando este ultimo supuesto no se cumple la aplicacin directa de los MCO conducen a
estimadores que dejan de ser eficientes. Adems cuando se comete el error de no percatarse o de hacer
caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en el
error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis. Acontinuacion sedesarrolaran estas ideas de un
lenguaje mas formal.
Consideremos un modelo como del ejercicio en donde ahora
V (u) = 2
aplicando directamente MCO al modelo se tendr
esta expresin para la varianza de los estimadores. A continuacin se vera que existen otros
estimadores de los parmetros que poseen una varianza menor.
Para que el teorema de Gauss-Markov continue en vigencia lo que habria que hacer intentar hallar una
transformacin de los datos originales de modo tal que los errores asociados a dichos datos
transformados no exiban autocorrelacion ni heteroscedasticidad. La existencia de dicha transformacin
ser el hecho que marque la entrada en vigencia del Teorema de Gauss-Markov en el sentido de que la
aplicacin de MCO a los datos transformados generar estimadores insesgados y eficientes de los
parmetros. Ya que es una matriz definida positiva, por ser esta una matriz de varianzas y
covarianzas, siempre existira otra matriz tal que permita expresarla como sigue
= HH ' 1 = (H' ) -1 H -1 ya que la existencia de H garantiza la existencia de H 1
Si ahora se premultiplica el modelo por H 1se tendra :
H 1Y = H 1 X + H 1u
Y * = X * + u*
E( u * ) = H 1 E(u) E( u * ) =
V ( u * ) = E( u * u * ' )
V ( u * ) = E [ H 1uu' (H' ) -1 ] = H 1 E( uu' )(H' ) -1
V ( u * ) = 2 H 1(H' ) -1 = 2 H 1 HH ' (H' ) -1
V ( u* ) = 2 I
con lo cual se logro hallar la transformacin de los datos adecuada para eliminar la heteroscedasticidad
y la autocorrelacion, habilitando la aplicacin de MCO a los datos transformados para obtener
estimadores de los parmetros insesgados y eficientes tal como lo predice el Teorema de Gauss-
Markov. Estos nuevos estimadores son denominados estimadores por minimos cuadrados
generalizados (MCG).
La expresin para los estimadores (MCG), la prueba de que siguen siendo insesgados y la expresin
que adoptan Su matriz de Varianzas y covarianzas se muestra como sigue:
mcg = ( X * ' X * )1 X * ' Y *
mcg = ( X ' H '1 H 1 X ) 1 X ' H '1 H 1Y
mcg = ( X ' 1 X ) 1 X ' 1 ( X + u )
E ( mcg ) = + ( X ' 1 X ) 1 X ' 1E (u )
E ( mcg ) = sigue siendo insesgado
V ( mcg ) = E[( )( )' ]
V ( mcg ) = E ( X ' 1 X ) 1 X ' 1uu ' 1 X ( X ' 1 X ) 1 ]
V ( mcg ) = ( X ' 1 X ) 1 X ' 1 E (uu ' ) 1 X ( X ' 1 X ) 1
V ( mcg ) = 2 ( X ' 1 X ) 1 X ' 1 1 X ( X ' 1 X ) 1
V ( mcg ) = 2 ( X ' 1 X ) 1
Esta expresin a la que se arribo es la varianza correspondiente a los estimadores de varianza mnima
(por el teorema de Gauss-Marcov) por ende ser inferior que la de aplicar MCO a los datos sin
transformar. Este hecho se puede demostrar va el calculo de la diferencia entre ambas arrojando esto
una matriz semidefinida positiva.
Para hallar la matriz H que transforme los datos se pueden seguir varias maneras. Una de eelas seria
aplicando una descomposicin de Cholesky a , otra seria planteando un sistemas de ecuaciones.
Notese adems que es esencial conocer con exactitud para en funcin de esto obtener H ya que seria
omposible estimar todos sus elementos al mismo tiempo si estos fuesen todos distintos en virtud de
que seria mas los parmetros a estimar que los datos con que se cuentan para hacerlo.
Una consideracin importante sobre el tema es que cuando se comete el error de no percatarse o de
hacer caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en
el error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis que se hagan sobre los estimadores.
V ( mco Falsa ) = 2 ( X ' X ) 1 < V ( mcg ) < V ( mco )
como se dijo en el parrafo anteprecedente ante la imposibilidad de obtener estimaciones sobre todos
los parmetros de la matriz surge la necesidad de hacer algunas suposiciones adicionales sobre el
tipo de autocorrelacion como la que se realiza en el ejercicio.
a) Tambin en estos casos puede suceder que el estimador de la varianza muestral sea sesgado con
respecto al valor del parmetro. Generalmente lo subestima, convirtindose esto en una grave
peligro a la hora de realizar las inferencias. A continuacin se efecta una demostracin del mismo
e=Y X
e = Y X ( X ' X ) 1 X ' Y
e = [ I X ( X ' X ) 1 X ' ]( X + u ),
donde [ I X ( X ' X ) 1 X ' ] = M , simtrica e idempotente
e = MX + Mu = Mu ya que puede demostrarse que MX = [ I X ( X ' X ) 1 X ' ] X =
e' e = u' M ' Mu = u' Mu
E( e' e ) = E [ tr( u' Mu )] = E [ tr( uu' M )]
E( e' e ) = tr [ E( uu' )M ] = 2 tr( M )
e' e
tr( M )
E( ) = E( 2 ) = 2
nk nk
La traza de (M ) es distinta de (n-k) siempre que I , por lo tanto el estimador de la varianza
residual (ee/(n-k)) es sesgado.
Para concluir vale destacar que prevenirse de la autocorrelacin y/o heteroscedasticidad (varianzas de
los errores distintas entre s) es una tarea de suma importancia (no trivial), porque permitir imponer
barreras a todos los peligros de la estimacin clsica por MCO. Para esto, hay tener en cuenta que son
diversas las causas que llevan a la prdida de la propiedad de ruido blanco a los errores. Entre estas
estn: el error en la especificacin de la forma funciona, omisin o inclusin variables relevantes, etc.
Para conocer si es lgico o no el supuesto de ruido blanco de los errores se puede contar con la
observacin de los digramas de dispersin, con los correlogramas y con algunos test de hiptesis como
el de Durbin Watson.
Para el caso de esquemas autorregresivos de primer orden, existe un estadstico que permite
determinar si ste est presente entre las perturbaciones o no; dicho estadstico es el de Durbin-Watson
y se define as:
n
(e t e t 1 ) 2
t =2
d= n
e2t
t =1
d=
e 2
t + e 2 t 1 2 et et 1
e 2
t
d = 21
e e t t 1
e 2
t
y siendo
=
e t e t 1
e2t
entonces
d = 2(1 )
Hay que tener en cuenta que el estadstico se basa en algunos supuestos sobre el modelo, a
saber, que el mismo incluye un trmino independiente, que las variables X son fijas en muestras
repetidas, que las perturbaciones u se generan mediante un proceso autorregresivo de primer orden y
se distribuyen en forma normal multivariante y por ltimo que el modelo no incluye valores rezagados
de la variable dependiente como una de las variables explicativas.
Para poder rechazar o no la hiptesis nula de que no hay autocorrelacin entre las
perturbaciones, se han tabulado valores crticos mximos y mnimos para poder tomar una decisin.
Estos lmites dependen del nmero de observaciones y del nmero de variables explicativas del
modelo. No desarrollar aqu el criterio de decisin para estas pruebas de hiptesis pero s se pueden
reparar brevemente en los lmites de variacin del estadstico. Dependiendo de los valores que asuma
, (y siendo que -1< <1):
0<d<4
donde claramente se observa las diferencias con los problemas tradicionales de estimacin,
ya que ahora se debe relacionar series de tiempo con cortes transversales, existiendo no slo
la posibilidad de autocorrelacin entre los errores para cada observacin de una ecuacin i,
sino que adems pueden ocurrir interrelaciones entre las perturbaciones de dos ecuaciones
(vector ei contra el vector e j ).
MTODO SUR
y1 X 1 1 e1
e
y2 = X2 2 + 2 Y
M (TMx1) = X (TMxK ) ( Kx1) + e(TMx1)
O M M
yM X M M e M
Cada ecuacin, como se dijo anteriormente, posee ruido blanco en los disturbios, pudindose
estimar por MCO separadamente. El problema surge cuando al hacer esto, no consideramos
las relaciones entre las ecuaciones (correlacin contempornea). Para encontrar entonces la
matriz de covarianzas de todo el sistema, a partir de la matriz ( ) que contiene las varianzas
de los disturbios de cada ecuacin ( ii ), se deben recordar la propiedad de
homoscedasticidad, y las covarianzas entre las ecuaciones ( ij con i j ), que reflejan las
correlaciones contemporneas, con lo cual se tiene
11 12 L 1M
22 L 2 M
= 21
M M O M
M1 M2 L MM
Haciendo el producto de kronecker ( ) entre la matriz anterior y una identidad de orden (T),
se obtiene lo siguiente:
11 0 L 0 12 0 L 0 1M 0 L 0
0 L 0 0 L 0 0 L 0
11 12
LL 1M
M M O M M M O M M M O M
0 0 L 11 0 0 L 12 0 0 L 1M
0 L 0 22 0 L 0 2M 0 L 0
12
0 12 L 0 0 22 L 0 0 2M L 0
LL
IT = M M O M M M O M M M O M
0 0 L 12 0 0 L 22 0 0 L 2M
LLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLL
1M 0 L 0 2M 0 L 0 MM 0 L 0
0 1M L 0 0 2M L 0 0 MM L 0
M L
M O M M M O M M M O M
0 0 L 1M 0 0 L 2M 0 0 L MM
El nuevo estimador posee una menor varianza ya que tiene en cuenta la correlacin
contempornea entre los distintos vectores de las perturbaciones de las diferentes ecuaciones
Sin embargo existen dos casos particulares en que se obtienen resultados idnticos al
aplicar MCO sobre cada ecuacin y al aplicar SUR y no se producen ganancias al tratar a las
ecuaciones como sistema.
a) Cuando las correlaciones contemporneas son iguales a 0. Ello es obvio, ya que es la
existencia de dicha correlacin lo que provoca que las ecuaciones estn relacionadas.
11 = 22 = 33 = 0
X1 = X 2 = X3 = X
Las variables explicativas de todas las ecuaciones son las mismas, por lo que no se
produce una ganancia al tratarlas en forma conjunta, ya que no se agrega ninguna variable
explicativa a cada variable dependiente.
Por lo tanto, la estimacin a travs de MCO nos proporciona la misma solucin que el
mtodo SUR. Ello se puede demostrar partiendo del estimador SUR, utilizando algunas
propiedades del producto de Kronecker y observando que, al ser todas las matrices Xi iguales,
entonces X = (I X) . Por lo tanto:
SUR = (X '( 1 I)X)-1 X( 1 I) y
= ((I X ')( 1 I)(I X)) 1 (I X ')( 1 I) y
= ( 1 (X ' X)) 1 ( 1 I) y
= ( (X ' X) 1 )( 1 I) y
= (I (X ' X) 1 X ') y
= ((I X) '(I X)) 1 (I X) ' y
= (XX)-1 X y = MCO
MCOi = (Xi Xi )-1 Xi yi ei = yi Xi MCOi
1 1 T
ij = ei e j = eit e jt
T T t =1
Aunque sea sesgada en muestras pequeas. Para evitar el sesgo, se suele dividir el
sumatorio por (T K/M). La dificultad aparece cuando el modelo incluye ecuaciones con
diferentes nmeros de parmetros, ya que en dicho caso no se cuenta con iguales grados de
libertad para las distintas ecuaciones, en especial al calcular las covarianzas entre dos
ecuaciones de distintos grados de libertad. Una alternativa interesante es utilizar como divisor
T- k , donde k es la media del nmero de coeficientes de las ecuaciones.
Dicho divisor posee la ventaja de que si todas las ecuaciones poseen el mismo nmero
de coeficientes, provee de estimadores insesgados. Si definimos a la matriz de los estimadores
de las varianzas y covarianzas del modelo como $ , el estimador MCG del modelo cuando la
matriz de varianzas y covarianzas es desconocida, es:
1 1
SUR = (X '( I)X)-1 X'( I) y
Este estimador es conocido como el estimador Sur de Zellner y es el que se utiliza por
lo general en la prctica.
Restricciones
1- Condicin de Engel:
w114 + w2 24 + w3 34 = 1
La condicin de Engel establece que la suma de las elasticidades ingreso de cada bien,
ponderadas por la participacin en el gasto total (p x q / y), debe ser igual a uno. Si se
desarrollamos esta suma:
p1q1 q1 y p 2 q 2 q 2 y p3 q3 q3 y
* * + * * + * * =1
y y q1 y y q 2 y y q3
q q q
p1 * 1 + p 2 * 2 + p3 * 3 = 1
y y y
Debemos observar si la suma del gasto que en cada bien se produce, luego de un
incremento en el ingreso, es igual a uno. Es decir, que el incremento del gasto en los n
bienes que se consumen deben agotar la totalidad del incremento en el ingreso.
q q q
p1 * 1 dy + p 2 * 2 dy + p3 * 3 dy = dy
y y y
2- Homogeneidad:
i1 + i 2 + i3 + i 4 = 0 para i = 1,2,3
qit = A * p1t i1 * p 2ti 2 * p3ti3 * yt i 4
q ' = A * ( i1 + i 2 + i3 + i 4 ) * p i1 * p i 2 * p i3 * y i 4
it 1t 2t 3t t
3- Simetra:
ij ij
+ i4 = + j 4 para i, j = 1,2,3(i j )
wj wi
SUR Iterativo
La metodologa que se expuso para obtener los estimadores SUR cuando la matriz de
varianzas y covarianzas era desconocida consista en calcular en una primera etapa los
estimadores MCO de cada una de las demandas, y utilizarlos para obtener los vectores de
errores: = ( X' X ) -1 X' y e = y X
MCOi i i i i i i i MCOi
ei ' e j
ei e j
ij = = t =1
T-k T-k
Formando una matriz estimada de las varianzas y covarianzas () a partir de los estimadores
anteriores, estamos en condiciones
de obtener
1 el estimador
1
SUR, dado por:
SUR = ( X' ( I)X) -1 X' ( I) y
Suele utilizarse tambin otro estimador SUR a travs de un proceso iterativo con los
estimadores de las varianzas y covarianzas y los estimadores de los coeficientes del
supermodelo. Una vez obtenido los estimadores SUR de los coeficiente, se los utiliza para
estimar nuevamente la matriz de varianzas y covarianzas. A partir de la nueva estimacin de
las varianzas y covarianzas, aplicamos nuevamente la definicin anterior y obtenemos en una
segunda etapa un nuevo estimador SUR.
Este estimador SUR de segunda etapa puede ser utilizado para estimar nuevamente la matriz
de varianzas y covarianzas. A partir de dicha nueva matriz, podemos obtener un estimador
SUR en una tercera etapa; y as de forma consecutiva hasta que se produzca una convergencia
a un valor estable. Dicha convergencia llevara a que dos iteraciones sucesivas sean similares.
No se repite el output proporcionado por los programas ya que resulta exactamente el mismo
reproducido en la seccin anterior. No hay ganancia al utilizar el proceso iterativo ya que los
estimadores MCO que permiten obtener el estimador de la matriz de varianzas y covarianzas
son los mismos que luego se obtienen al estimar el supermodelo. Por lo tanto, los estimadores
de los parmetros de las demandas que se utilizaran para obtener en una segunda etapa el
nuevo estimador de la matriz de varianzas y covarianzas son los mismos que se utilizaron en
el primer paso. Es decir, loas nuevas estimaciones por SUR en la segunda etapa sern los
mismos que los de la primera etapa.
SUR RESTRINGIDO
Para estimar el modelo planteado teniendo en cuenta restricciones obre las funciones
de demanda, se debe estudiar con detenimiento cmo se construyen los estimadores del SUR
Restringido.
( )
Min (Y X )' 1 I (Y X )
sujeto a: R = r
(
* = mcg + CR ' RCR ' )1 (r R mcg ), donde C = (X ' 1 X )1
[ ]K K 1 T
= ij de donde cada elemento ij = eit e jt .
(T K / M ) t =1
(
* = mcg + C R ' RC R ' )1 r R mcg .
Se puede deducir que las correlaciones se deben buscar contrastando los eit con los e jt para
1 T
un mismo t. Sabiendo que: ij = eit e jt ; lo que se quiere probar es
(T K / M ) t =1
simplemente si los ij son nulos o no.
H0) ij = 0 i j
M i 1
= T rij2
i = 2 j =1
g 2 ( J )
d
H0) R = r
HA) R r
= 5%
Existe otro test construido sobre la base de un estadstico con distribucin que tiende a
una F. Se parte de la nocin de las sumas de cuadrados libres y restringidos:
g / J
F (J ; MT K )
d
F =
'
(
)
y X 1 I y X / (MT K )
Puede demostrarse que el denominador converge en probabilidad a uno, por lo que puede ser
omitido:
g
F = ~ F( J ,MT K )
J
O de forma equivalente:
(e 'r er e ' e) / J
F =
e ' e /(T K / M )
Y el valor observado de este estadstico debe ser comparado con el valor crtico terico de una
distribucin F con J,(MT-K) grados de libertad para un nivel de confianza . Si el valor
observado es mayor que el crtico, se rechaza la hiptesis nula planteada; en caso contrario, no
se puede rechazar la hiptesis nula. Cual es el significado en cada caso? Si la reduccin en la
suma de cuadrados de los residuos debido a la estimacin libre (sin restricciones) no es
suficientemente grande, no habr pruebas para rechazar la hiptesis nula de que las
restricciones son vlidas. Por el contrario, si esta reduccin es suficientemente grande, la
hiptesis nula de que las restricciones son vlidas se rechazar ya que al no considerarlas la
suma de cuadrados de los residuos disminuye considerablemente.
Por ltimo, cabe considerar el efecto de utilizar el divisor T-(K/M) en el estimador de . Los
estadsticos F y X 2 sern menores que si utilizramos el divisor T, y por lo tanto la hiptesis
nula ser rechazada en un nmero menor de veces.
BIBLIOGRAFA: