Escolar Documentos
Profissional Documentos
Cultura Documentos
Aunque no hay reglas al respecto, algunos fenmenos que delatan la violacin son:
baja significancia
poco robustos
Frecuentemente hay varias alternativas de variables que puede incluir o excluir del
modelo.
Primero, la teora debiera sugerir una especificacin completa. Y las hiptesis que
se va a estudiar.
Pero a veces las teoras no son muy finas y hay espacio para probar distintas
especificaciones.
Entonces
E [ 1 ]=E [1 x 1 ' x 1 x 1 ' x 2 2 x 1 ' x 1 x 1 ' ]
1
=1 E [ x 1 ' x 1 x 1 ' x 2 2 ]
1
As,
E [ 1 ]= 1 si x 1 ' x 2 =0
1 si x 1 ' x 2 0
Por lo tanto, en los residuos muestrales estn los verdaderos residuos ms el efecto de
la correlacin de x 1 y x 2 ponderado por 2 .
Entonces
2
El primer trmino del lado derecho es no-negativo, ya que es una forma cuadrtica.
El segundo trmino es el estimador de la varianza de los residuos para el modelo que
excluye x 2 .
Por ello, la varianza estimada de los residuos obtenida como la suma de los residuos al
cuadrado ajustada por grados de libertad estar sesgada.
Notar que an si x 1 ' x 2 =0 , el estimador de la varianza de los residuos y los tests t
estn sesgados.
Es el estimador de insesgado?
Se ha afectado 2 ?
Constante
-13.2728
-22.1688
LPIB
1.0748
26.0638
Deval
-0.1616
-0.8083
Tcol
-0.0531
-3.9820
-0.3461
-0.5782
-0.3026
-10.8883
XX
2.3206
33.8532
-13.3048
-21.9483
1.0770
25.8037
-0.1668
-0.8288
-0.0522
-3.8473
-0.0048
-0.4321
cuando se usa la muestra de variables aleatorias para sugerir una especificacin no puede
usarse esa misma muestra para (in)validar dicha especificacin.
Slo la teora econmica nos puede sugerir una especificacin. Una vez obtenida una
muestra acorde al testeo que se desea hacer, hay dos alternativas:
si la teora es congruente con los datos, nos quedamos con sta como una
representacin adecuada de datos caracterizados por algunas regularidades
empricas.
si la teora no es congruente con los datos, cambie de teora.
Existe la tentacin a poner cosas del lado derecho, slo para encontrarse despus que
no hay como justificar en serio la inclusin de dichas variables.
Las clsicas objeciones a la idea que un investigador debe limitarse a la disciplina que le
impone su teora econmica:
Forma comn de violar el supuesto que el modelo sea lineal es el caso en el que hay
cambio de rgimen (un caso frecuente en series de tiempo).
Cambio de rgimen es una expresin un tanto vaga que se utiliza para denotar que el
fenmeno de inters tiene un comportamiento caractersticamente diferente en diversos
periodos de tiempo. En dichos segmentos, la media condicional y sus determinantes
pueden diferir de manera apreciable.
Ejemplos comunes de quiebres se presentan en la siguiente figura.
y i =x i i i [1,15] [40,60]
y i =x i i i [16,39] [61,80]
El modelo anidado usando variables ficticias (mudas o dummies), que toman valores 0 y
1 dependiendo del rgimen. es:
y i =x i D i i
donde
D i =1 i [16,39][61,80]
D i =0 en el resto
y i =x i i i [1,15][40,60]
y i =x i i i [16,39][61,80]
Test RESET (Regression specification error test) consiste en realizar una regresin auxiliar al
modelo y t = x t t , con N 0, I , y consideremos la siguiente regresin
auxiliar:
y t =01 x t 2 z t t
Si el modelo original estaba bien especificado, entonces los coeficientes de las variables
auxiliares no debiesen ser estadsticamente significativos.
En caso contrario, el estimador de es inconsistente.
Por ello la hiptesis nula del test es H 0 : 2 =0 .
donde t es el estimador del parmetro obtenido mediante una regresin hecha con
1
una muestra de datos { y i , x i }ii =t
=k1 .
Datos Perdidos
porque no existen los datos para algn determinado perodo de tiempo o segmento
de la muestra.
porque los datos existen pero estn en distinta frecuencia a la necesaria para hacer el
anlisis emprico (p.e., datos mensuales versus trimestrales).
Si los datos se han perdido de manera aleatoria, los estimadores de mnimos cuadrados
sern consistentes pero ms ineficientes que en el caso que la muestra estuviese
completa. La razn es que la muestra con datos perdidos contiene menos informacin.
Si se han perdido datos de forma no aleatoria slo para la variable de lado izquierdo,
entonces no hay sesgo y slo hay problemas de eficiencia (sesgo de seleccin exgeno).
Si se han perdido datos de forma no aleatoria slo para las variables de lado derecho,
entonces hay sesgo de seleccin endgeno (correlacin entre regresor y residuo) hay sesgo en
el estimador de mnimos cuadrados.
Cuadro 5.1
Problemas de disponibilidad de datos
Datos
yA
xA
existen
Datos
xB
perdidos
Datos
yC
perdidos
Una sugerencia frecuente es utilizar algn mtodo para hacer una prediccin de y B y
usar posteriormente el modelo economtrico completo para estimar , es decir usando
[ y A yB , x A x B ] . El quid del asunto radica en cmo predecir y B . Hay dos alternativas
populares:
Alternativa popular 1.
Rellene los datos faltantes con la media de y A . Es fcil
demostrar que como resultado se produce sesgo en los parmetros.
Alternativa popular 2.
Estime en el subgrupo A, prediga yB usando dicho
estimador, y luego estime el modelo completo. Es directo demostrar que el
procedimiento es intil.
Alternativa popular 1.
Rellene los datos faltantes con la media de x A . Demuestre
que este procedimiento es equivalente a eliminar los datos del segmento C.
Alternativa popular 2.
Haga una regresin de x en y en el subgrupo A, estime un
parmetro y prediga x C usando dicho estimador. Luego estime el modelo completo.
Demuestre que este procedimiento viola el espritu del anlisis economtrico.
[ ][ ]
x'x
=
n
x'
n
Sea el modelo que nos gustara estimar y *=x . Pero slo disponemos de
2
y *= y , donde es un shock aleatorio, con media cero y varianza .
Notese que es una variable aleatoria con media cero y cuya covarianza con x tambin
es cero. Luego se satisfacen todos los supuestos del modelo clsico y no hay problemas
de sesgo en los estimadores de mnimos cuadrados.
Obviamente, la varianza del estimador de los residuos est sesgada (ms grande) porque
incluye tanto la varianza de como la de .
2
Sin embargo, ese sesgo no es posible corregirlo sin conocer .
Sea el modelo que nos gustara estimar y=x . Pero slo disponemos de
2
x =x , donde es un shock aleatorio con media cero y varianza .
Ahora el modelo es y=x =x donde = .
El problema radica en que hay correlacin entre regresor y residuo porque
cov [x , ]=cov [ x , ]= 2 .
n
plim 1/n x *i x *i
i =1
plim 1/ n x *i 2
i =1
plim =
2
1 *
Q
2
por lo tanto, si 0 , el estimador de mnimos cuadrados ordinarios del parmetro
es inconsistente y sesgado hacia cero.
Es usual encontrar valores tanto para la variable de inters como sus determinantes que
no parecen formar parte del experimento en cuestin.
Causas
Mala suerte
Deteccin
Estudiar los residuos: si el valor predicho se desva del efectivo de manera notoria se
puede tratar de un valor extremo.
No obstante, esta no es una manera que garantice la deteccin. La razn es que el
residuo se mide con respecto a la recta de regresin la que podra variar si se incluye o
excluye el valor extremo.
y i = 11 3 x i 22 3 x i t 3 i
E [ ]=E
[ x ' x 1 x ' y ]
=E [ x ' x 1 x i ' x ]
=E [ x ' x 1 x ' ]
Por lo tanto, en tanto la matriz de momentos de los regresores exista, el estimador sigue
siendo insesgado.
Debido a que el problema es que cov x 1, x 2 0 , entonces tiene que afectar la matriz
de momentos de los regresores, x x .
Recordemos que la inversa de x x es su adjunta dividida por el determinante, es
decir:
1
a 11 a 12
a 22 a 12
1
entonces =
a 11 a 22 a 12 a 21 a 21 a 11
a 21 a 22
[ ]
[ ]
1 1 0
1 0
1
=
1 0 1
0 1
1
1 0.6
1
1
0.6
=
0.64 0.6
0.6 1
1
1
1 0.9
1
1
0.9
=
0.19 0.9
0.9 1
1
Dado que V =
x i ' x i , la colinealidad se traduce en varianzas de los
estimadores de los parmetros cada vez ms grandes. En el lmite la varianza tiende a
infinito.
Un problema prctico, no obstante, es que no es muy claro cundo hay alta colinealidad
entre dos o ms variables. Naturalmente una correlacin de 99% es alta y una de 5% es
baja, pero para una correlacin de 57% no es clara la conclusin.
Otra alternativa es investigar si los estimadores de los parmetros son inestables. Si bien
esto es correcto, existen otros problemas que veremos ms adelante que tambin
producen inestabilidad. Por ello, este test no es conclusivo.
Una tercera alternativa es que, si bien los parmetros no son significativos por la alta
covarianza, como un todo la regresin es satisfactoria. Ello se traducira en el caso R
alto pero no significativos. No es una regla muy firme, porque una variable
irrelevante en un modelo satisfactorio tendra el mismo sntoma.
2
La colinealidad no es un problema.
descubrir su inaplicabilidad
porque existen otros usos para estas tcnicas que se utilizan a menudo.
Elimine alguna variable para la que haya evidencia de colinealidad con otras.
a) Obviamente, el problema de colinealidad se reduce.
b) Sin embargo, los estimadores estn sesgados.
c) Las varianzas de los estimadores pueden estar sobre-estimadas.
El mtodo de ridge.
Los parmetros son difciles de identificar porque las varianzas de los parmetros son
relativamente pequeas en comparacin con las covarianzas.
Las varianzas estn en la diagonal de 2 x x 1 .
Este estimador sugiere sumarle algo a dicha diagonal, de modo que los parmetros
sean identificables. El estimador de ridge es:
1
RD= [ x i ' x i rD ] x i ' y i
Obviamente, ahora las varianzas de los parmetros estimados van a ser menores.
1
2
Var RD = [ x i ' x i rD ]
1
E [ RD ]=E [ x i ' x i rD ] x i ' y i
=E [x i ' x i rD ]1 x i ' x i
es decir:
x ' x a 11 a 1 =0
=2x ' xa 2 2 2 a 2 a 1 =0
a 2
1 0
0 2
Z ' Z = A ' x ' xA==
0
0
0
k
Pero Z ' y= A ' x ' y= A ' x ' [ x ]= A ' x ' x = A ' x ' x .
Otros problemas.
los estimadores son sensibles a la escala de los datos (estandarizar) pero esto afecta
los resultados (cambia A).
la seleccin de los componentes principales se hace en funcin de x y no de y, lo que
sera preferible.
la interpretacin de los parmetros es muy difcil, pues no sern los coeficientes
asociados a las variables sino aqullos asociados a una combinacin lineal de las
variables.
Heterocedasticidad
12 0 0
2
2
0
0
2
=
0 0 2n
Var [ | x ]=E [
'
|x ]
=E [ x ' x 1 x ' ' x x ' x 1 | x ]
= x ' x 1 x ' E [ ' ]x x ' x 1
= x ' x 1 x ' [ 2 ]x x ' x 1
x ] .
Si x es estocstico, la varianza no condicional es E x [Var |
1
1
1
V.A. = Q plim x ' x Q
n
n
Estimacin eficiente
Basados en la idea que una matriz positiva y definida puede ser factorizada, vamos a
hacer una factorizacin conveniente.
Estimacin Posible
, es decir, el estimador de
Si 2i = 2 f z i ; entonces, podramos usar =
basado en el estimador de .
Tests de Heterocedasticidad
1.
Por ejemplo: si hay datos agrupados (p.e., ciudades) en cada cada ubicacin habr
ni observaciones de distribuciones con varianzas potencialmente diferentes.
Homocedasticidad H 0 : nm ln * n j 1 ln i =0
2
j =1
m
Heterocedasticidad H 1 : n m ln 2* n j 1 ln 2i 0
j =1
2 ln n j 1 ln i m 1
2
*
j =1
Los grados de libertad se derivan del nmero de varianzas libres (m) menos la
restriccin de una nica varianza comn.
Este test se aplica cuando no hay muestras repetidas y no es posible disponer de varias
realizaciones de la variable aleatoria 2 .
Estimado el modelo y i =x i i
Haga una regresin entre gi y las variables que quiera, incluyendo x, y compute la
suma de cuadrados explicados, SCE.
Como los estimadores de las varianzas por muestra y totales son formas cuadrticas de
errores normalizados, SCE se distribuye (p-1) bajo la hiptesis nula. Los grados de
libertad se derivan del rango de regresores, p, en la segunda regresin.
3.
El test consiste en estudiar la diferencia entre las SRC. Si stas son iguales, significa que
no hay heterocedasticidad. Por ello,
H 0 : Homocedasticidad SRC 1=SRC 2
H 1 : Heterocedasticidad SRC 1 SRC 2
Como estamos comparando dos SRC y hay el mismo nmero de regresores y datos en
SCR 1
nc /2k
F
cada sub-grupo, entonces el test es
.
SCR 2
nc /2k
4.
Test de White
Lgica similar a Breusch y Pagan. Hace una regresin entre la proxy de la varianza de
los errores y el grupo de regresores de la regresin original, x, pero lo extiende para
incluir sus cuadrados y productos cruzados. Es decir,
Computar i = y i
x i
Hacer una regresin entre 2i y las variables x i , x 2i y los productos cruzados x i x j . Es
decir,
2i = x i x 2i x i x j ' i
La hiptesis nula es que bajo homocedasticidad ninguno de los coeficientes, mas all de
la constante, debe ser significativo.
El test preferido de White es tipo multiplicador de Lagrange.
Aunque la distribucin de muestra finita es desconocida, es posible demostrar que nR2
se distribuye asintticamente 2(p), donde p es el nmero de estimadores excepto la
constante.
Verdaderamente, no.
, un estimador de 2 .
En realidad, no. Lo que queremos es 2
x ' x
Tampoco, lo que queremos es un estimador de =
n
White
S 0=
(1980)
demuestra
que
un
buen
estimador
de
= 2
x 'x
n
es
1
2i x i ' x i .
Var =n
x i ' x i S 0 x i ' x i
1
=S 0 1 n j t t j x t ' x t j x t j ' x t
Q
n j =1 i = j 1 J 1
11 12
21 22
n1 n2
1n
2n
nn
12 ... 1n
21 2 2n
2
n1 n2
Usualmente:
y por lo tanto, E [ ]=
.
V [ ]=
xt
2 2
x 2t
x t x t 1
2 x t x t 2
N 1 x 1 x N
...
2
2
x
x
t
t
x t2
La varianza del estimador bajo autocorrelacin podr ser mayor o menor que la de
mnimos cuadrados dependiendo del valor de .
d=
2
t t 1
i =2
T
2t
i =1
La lgica es que:
2
2
t t 1 = [t t 12 t t1 ]
i =2
i =2
2
t t 1 =
2
t =2
t =2
T
T
2
t
t =2
T
T
2
t 1
2 t t 1
t =2
T
2t 12 2t 2T 2 t t 1
t =1
de vuelta en d
t =1
t =2
d=
i =1
i =1
2
t
2
1
2
t 1
2 t t 1
2
T
i =2
2t
i =1
es decir,
T
d =1
2
1
i =1
2
t
2
t1
i =1
T
i =1
2
t
T
T
i =1
2
t
2 t t 1
i =2
T
2t
i =1
Notemos que:
cov t , t 1
var t 1
Si no hay correlacin d = 0.
Si hay correlacin positiva, 0 , d es menor que 2. En el lmite, d es 0 cuando es 1.
Si hay correlacin negativa, 0 , d es mayor que 2. En el lmite, d es 4 cuando es
-1.
por lo tanto, d estar entre 0 y 4.
La aplicacin del test no es tan simple, porque hay tres casos que estudiar. En este caso
habr dos tests son:
H 0 : No hay autocorrelacin
H 1 : Hay autocorrelacin positiva
H 0 : No hay autocorrelacin
H 1 : Hay autocorrelacin negativa
Otro problema es que usamos los residuos del mnimos cuadrados como estimadores
de los residuos verdaderos, es decir, stos dependen de x.
Por ello, la distribucin del test no es estndar y tiene distintos lmites superiores e
inferiores.
Si hacemos un test de correlacin positiva al 95%, entonces (1) si d est por encima del
limite superior no puedo rechazar la H 0 que no hay autocorrelacin y (2) si d est por
debajo del lmite inferior tengo correlacin positiva.
Figura 5.9
Inconcluso
No hay o negativa
Positiva
LI LS
Si hacemos un test de correlacin negativa al 95%, entonces (1) si d est por debajo de
4-limite superior no puedo rechazar la H 0 que no hay autocorrelacin y (2) si d est
por debajo del lmite inferior tengo correlacin positiva.
Figura 5.10
Inconcluso
Positiva o no hay
Negativa
4-LS 4-LI
Inconcluso
Inconcluso
Negativa
Positiva
No hay correlacin
LI LS
4-LS 4-LI
es decir:
y t = y t1[x t x t 1 ]t
/2 .
Causas
1. Variables omitidas que estn correlacionadas con aquellas que se usan para modelar.
Por ejemplo, cuando se estudia el rendimiento escolar y se omite la educacin de los
padres como determinante, entonces la estimacin entrega resultados sesgados porque
algunas variables independientes (p.e., ingresos familiares) estn tpicamente
relacionadas con la variable omitida.
2. Problemas de endogeneidad en alguna variable del lado derecho: esto es llamado
sesgo de simultaneidad.
3. Variables independientes estn medidas con error. En tal caso cada vez que se
observa x no se observa la verdadera variable sino una medicin con ruido el cual
estando correlacionado con x queda incluido en el error.
4. Sesgo de seleccin, es decir cuando la conformacin de la muestra no es
independiente del diseo del experimento. Es decir, cuando aquellos que ms se
benefician del tratamiento son aquellos que ms participan del mismo.
Efectos
Qu sucede con el estimador de mnimos cuadrados si E [x , ] 0 ?
Ninguno de los resultados que obtuvimos sobre las propiedades del estimador de
mnimos cuadrados se mantienen.
Solucin
Usar una o ms variables que, estando correlacionadas con los regresores, no est
relacionadas con el error.
E [ ]=
x ' x x '
plim =
plim x ' x plim x ' = Q
Var [i ]=Var [ | x i E [i | x i ] ]=
2
E [ x ij ]= Q xx y constante
2
E [ z ij ]= Q zz y constante
E [ x ij ,z ij ] = Q xz y constante
E [ ij |z ij ]=0
1
plim Z ' X = Q zx
n
1
plim Z ' =0
n
1
1
1
z i ' y i = plim z i ' x i plim z i ' i
n
n
n
1
plim z i ' x i
n
plim
1
z i ' y i =
n
Note que para que tenga sentido, z ' x tiene que ser una matriz conformable. Por ello,
debe haber k variables en la matriz z.
2
1
= y i x i ' IV
n i =1
2
(existe)
a)
b)
c)
Eficiencia
Cmputo de varianzas
Tarea: Obtener
Para que la estimacin sea posible es necesario que el nmero de instrumentos sea
al menos igual al nmero de variables que se est instrumentando.