Escolar Documentos
Profissional Documentos
Cultura Documentos
1.1. INTRODUCCIN
Este captulo est dedicado a estudiar, desde el punto de vista economtrico, un
modelo que es lineal en las variables originales o en transformaciones de las mismas y
que tiene un nmero de variables explicativas superior a dos.
Ejemplo1.1:
t = 1, ..., T
(1.1)
en donde:
Qt = cantidad producida en el periodo t.
Kt = servicios de capital utilizados en el periodo t.
Lt = servicios de trabajo utilizados en el periodo t.
A, y son parmetros y ut es una variable que llamaremos perturbacin
aleatoria.
Tomando logaritmos, el modelo (1.1) puede escribirse como:
yt = 1x1t + 2 x2t + 3 x3t + ut
(1.2)
en donde:
yt = log Qt, x2t = log Kt y x3t = log Lt
x1t toma siempre el valor 1; es lo que llamaremos la constante del modelo.
Los T datos recogidos para las tres variables pueden referirse a la experiencia de
una empresa en una serie de periodos, a la experiencia de un sector en diferentes
57
Y
100.0000
101.0000
112.0000
122.0000
124.0000
122.0000
143.0000
152.0000
151.0000
126.0000
155.0000
159.0000
153.0000
177.0000
184.0000
169.0000
189.0000
225.0000
227.0000
223.0000
218.0000
231.0000
179.0000
240.0000
K
100.0000
107.0000
114.0000
122.0000
131.0000
138.0000
149.0000
163.0000
176.0000
185.0000
198.0000
208.0000
216.0000
226.0000
236.0000
244.0000
266.0000
298.0000
335.0000
366.0000
387.0000
407.0000
417.0000
431.0000
L
100.0000
105.0000
110.0000
118.0000
123.0000
116.0000
125.0000
133.0000
138.0000
121.0000
140.0000
144.0000
145.0000
152.0000
154.0000
149.0000
154.0000
182.0000
196.0000
200.0000
193.0000
193.0000
147.0000
161.0000
58
LY
4.6052
4.6151
4.7185
4.8040
4.8203
4.8040
4.9628
5.0239
5.0173
4.8363
5.0434
5.0689
5.0304
5.1761
5.2149
5.1299
5.2417
5.4161
5.4250
5.4072
5.3845
5.4424
5.1874
5.4806
LK
4.6052
4.6728
4.7362
4.8040
4.8752
4.9273
5.0039
5.0938
5.1705
5.2204
5.2883
5.3375
5.3753
5.4205
5.4638
5.4972
5.5835
5.6971
5.8141
5.9026
5.9584
6.0088
6.0331
6.0661
LL
4.6052
4.6540
4.7005
4.7707
4.8122
4.7536
4.8283
4.8903
4.9273
4.7958
4.9416
4.9698
4.9767
5.0239
5.0370
5.0039
5.0370
5.2040
5.2781
5.2983
5.2627
5.2627
4.9904
5.0814
t = 1, 2,.T.
(1.3)
en donde:
y1
x 11
y
x
2
y=
; X = 12
M
M
y T
x 1T
x 21
x 22
M
x 2T
L x k1
1
u1
u
2
L x k2
; =
;u = 2
M
M
M
M
L x kT
k
u T
59
X' X x 1t x 2 t
=
T
T
K
x x
kt 1t
x1t x 2 t L x1t x kt
T
x 22 t
T
K
x kt x 2 t
T
x 2 t x kt
L
Q
T
K
K
x 2kt
K
T
(1.4)
t = 1, 2, .,T
Esta hiptesis indica que aunque dentro de ut se da cabida a muchos factores que
influyen sobre y t , el efecto conjunto de todos ellos no tiene un signo definido.
E ut us = 0
s, t = 1, 2,,T
E u 2t = 2
Esto quiere decir que la dispersin de los efectos de los factores recogidos en ut
es la misma sea cual sea el periodo. Si la dispersin fuera diferente entonces podra
decirse que la perturbacin aleatoria esconde algo relevante que puede ser utilizado
explicitamente para dar cuenta del comportamiento de la variable dependiente.
Vectorialmente, la Hiptesis 5 puede escribirse como:
Eu1
Eu
2
=
Eu =
M
Eu T
0
0
=0
M
0
(1.5)
y las Hiptesis 6 y 7,
61
Eu12
Eu u
Var ( u) = Euu' = 2 1
M
Eu T u1
K Eu1 u T 2
K Eu 2 u T 0
=
O
M M
K Eu 2T 0
Eu1 u 2
Eu 22
M
Eu T u 2
= 2IT
K 2
0 K
2 K
M O
0
0
0
M
(1.6)
Hiptesis 8. El vector de perturbaciones aleatorias sigue una distribucin normal Tvariante con vector de medias cero y matriz de varianzas y covarianzas igual a 2 I T .
Podemos escribir :
u~N[0, 2 I T ]
(1.7)
(1.8)
T
2
IT
2
1
2
1
exp{ u' ( 2 I T ) 1 u}
2
f(y) = f (u)
en donde
u
y
(1.9)
u
es el Jacobiano que adopta la forma siguiente:
y
62
u 1
y 1
u
u 2
= y
y 1
M
u
T
y 1
u 1
y 2
u 2
y 2
M
u T
y 2
u 1
y T 1
u 2 0
K
y T =
M
O
M
0
u T
K
y T
K
0 K 0
1 K 0
M O M
0 K 1
f (y) = (2)
T
2
IT
2
1
2
exp{
1
( y X)' ( y X)}
2 2
(1.10)
(1.11)
S = u$ 2t = u$ `u$
(1.12)
u = y X
(1.13)
63
(1.14)
o, equivalentemente, como:
X' y X = 0
(1.15)
llegndose as al resultado.
Resultado1.3. Sea un vector de estimadores cualquiera de y u el correspondiente
vector de residuos. Entonces la suma de cuadrados de residuos de este vector de
estimadores siempre supera la que corresponde al vector MCO escrita en (1.12).
Prueba: El vector de residuos correspondiente a puede escribirse como:
u = y - X = y - X $ + X( $ - ) = u$ + X( $ - )
(1.16)
(1.17)
64
(1.18)
(1.19)
Cov($ 2 , $ 1 )
Var ($ 2 )
K Cov($ 2 , $ k )
$
Var () =
= 2 ( X' X) 1 (1.20)
M
M
M
M
$
$
$
$
Var ($ k )
Cov( k , 1 ) Cov( k , 2 ) K
Prueba: La matriz de varianzas y covarianzas se define como:
1
'
Var = E - = E 2
()
)(
2
1 1
M
E( 1 1 ) 2
E( 1 1 )( 2 2 )
E( 2 2 )( 1 1 )
E( 2 2 ) 2
=
M
M
E( k k )(1 1 ) E( k k )( 2 2 )
65
2 2
K k k =
K E( 1 1 )( k k )
K E( 2 2 )( k k )
O
M
E( k k ) 2
K
)( )
'
1
1
E - = E(X' X ) X' uu ' X(X' X )
()
llegndose as al resultado.
(1.21)
Por la propia definicin, los estimadores son funcin lineal de los elementos de y.
Sustituyendo (1.3) en (1.21) se llega a:
= [A+ (X' X) 1 X' ] [X + u] = (AX+I) + Au + (X' X) 1 X' u
Tomando esperanzas
E = (AX + I)
Para que sea insesgado se debe cumplir que:
AX = 0
(1.22)
(1.23)
Hasta ahora, los resultados se han derivado sin utilizar la Hiptesis 8 que trata de
la normalidad de las perturbaciones aleatorias. Si aadimos esta hiptesis llegamos al
siguiente resultado.
Resultado 1.8. Suponer que se cumplen las ocho hiptesis comentadas en la seccin
anterior. Entonces la distribucin de probabilidad de $ viene dada por:
$ ~N[ , 2 ( X' X) 1 ]
(1.24)
Prueba: A partir de (1.19) se ve que los elementos de $ son igual a los correspondientes
elementos de ms una combinacin lineal de variables que son normales llegndose al
resultado.
Los momentos primero y segundo han sido ya derivados en los Resultados 1.4 y
1.5, respectivamente.
Ejemplo 1.1. (Continuacin). A partir de los datos contenidos en el Cuadro 1.1
se suelen calcular algunos estadsticos que nos informan acerca del tipo de variables que
estamos tratando.
67
Variable
x2
x3
Valor Mximo
5.48
6.06
5.29
Valor Mnimo
4.61
4.60
4.60
Media
5.07
5.35
4.96
Desviacin Tpica
0.27
0.50
0.20
Asimetra
-0.12
0.03
0.10
Apuntamiento
-1.06
-1.15
0.85
Coefici. de Variacin
0.05
0.08
0.04
x2
x3
0.95
0.96
0.91
x2
x3
x
x
x x
2t
2
2t
3t
x
x x
x
2 t 3t
2
3t
3t
2t
24 128.55 119.10
=
693.45 639.92
592.02
yt
x 2 t y t =
x 3t y t
.
12186
655.41 =
605.94
68
.
01773
0.2305
0.8073
T converge en
distribucin a N(0,) en donde es una matriz definida positiva con elementos finitos.
Definicin 1.2. Sean $ y dos estimadores consistentes y asintticamente normales
con matrices de varianzas y covarianzas de las correspondientes distribuciones
asintticas iguales a y , respectivamente. Entonces se dice que $ es asintticamente
eficiente respecto a si es semidefinida positiva.
Definicin 1.3. Se dice que un estimador consistente y asintticamente normal es
asintticamente eficiente si lo es con respecto a cualquier estimador consistente y
asintticamente normal que se considere.
Resultado 1.9. Una condicin suficiente para que un estimador consistente y
asintticamente normal sea asintticamente eficiente es que su matriz de varianzas y
covarianzas asinttica sea igual al lmite de la cota inferior de Crmer-Rao.
Prueba: Ver Theil (1971, Seccin 8.4).
(1.25)
69
2 X' X
1
$
lim Var () = lim[
] = 0. Q = 0
T
T T
(1.26)
T($ ) es:
X'X
N (0,
)
T
2
(1.27)
70
por ser :
E( u$ )=0
(1.28)
Var ( u$ )=2M
(1.29)
Prueba:
E( u$ ) = ME(u) = 0
Var(u) = E(uu' ) = E(Muu' M) = M E(uu' ) M = 2 M
E( u$ ' u$ ) = (T-k)
(1.30)
Prueba:
E( u$ ' u$ ) = E(u ' MMu ) = E(u ' Mu ) = E(tr (Muu ')) = tr (M (E(uu '))) =
2
= trM = (T-k)
por ser: tr(M) = rango(M) = T-k
Establecidas las propiedades del vector de residuos MCO, examinaremos, a
continuacin, las propiedades del estimador MCO de 2 definido como:
T
2 =
2
t
u u
= t =1
Tk Tk
71
(1.31)
2
2 (T k )
Tk
(1.32)
en donde 2(T-k) es una variable chi-cuadrado central con T-k grados de libertad.
Su esperanza matemtica es:
E( $ 2 ) = 2
(1.33)
y su varianza:
Var ($ 2 ) =
4
2 4
2
Var
(
(
T
k
))
=
Tk
(T k ) 2
(1.34)
Prueba: para demostrar (1.32) hay que tener en cuenta que (T k) 2 = u' Mu .
Por ser M una matriz idempotente de rango (T-k), es posible escribir:
*2
u' Mu = v 1*2 + v *2
2 + ... + v T k
(1.35)
en donde cada una de las variables v *j sigue una distribucin Normal con media cero y
varianza 2; adems, todas ellas son independientes entre s. Dividiendo ambos lados
de (1.35) por 2 se tiene que:
u' Mu
= v 12 + v 22 + ... + v T2 k
2
Por lo tanto:
u' Mu 2
(T-k), y el resultado sigue.
2
Para obtener (1.33) hay que tener en cuenta que: E(2(T-k)) = T-k.
72
4
2 4
2
Var
(
(
T
k
))
=
Tk
(T k ) 2
2
lim Var( ) = lim
(1.36)
2 =
u u
0,070982
=
= 0,00338099
Tk
21
(X' X)
2
=
0,0040 0,0083
0,0210
(1.37)
(1.38)
M 1 = I T - X1 (X 1' X1 ) 1 X1'
con
Lo que indica (1.38) es que $ 2 no es otra cosa que la regresin de M1y sobre
M1X2, es decir, la regresin de aquella parte de y no explicada por X1 sobre aquella
parte de X2 no explicada por X1. Es importante destacar que al mismo resultado se
llegara haciendo la regresin de y sobre M1X2. Estos resultados explican que si una de
las variables explicativas del modelo es una constante, el vector de estimadores MCO
del resto de las (k-1) variables explicativas obtenido utilizando las desviaciones con
respecto a las medias de todas las variables sea el mismo que el que se obtena
utilizando variables no centradas.
1.4. ESTIMADORES MXIMO-VEROSMILES ( MV ).
T
2
IT
2
1
2
'
1
exp 2 ( y X) ( y X)
2
75
y su logartmo:
l( , 2 /y , X) =
T
T
1
log(2 ) log 2
( y X)' ( y X)
2
2
2 2
(1.39)
X' y X' X)
(
d( , 2 ) = =
l(.) T + u' u
2 2 2 4
2
(1.40) - (1.41)
D (, 2 )
1
1
X' ( y X)
4
2 X' X
T
1
(
)
.
+
(
y
)'
y
X
2 4 6
(1.42)
1
l (.)
= 2 (2 X ' y 2 X ' X )
2
llegndose as a (1.40). Para obtener (1.41) basta derivar (1.39) respecto a 2 .
l(.)
T
( y X)' ( y X)
= 2 +
2
2
2 4
2 l(.)
X' X
= 2
'
2
( )
Resultado 1.22. Los estimadores MV de y 2 vienen dados por:
~
= ( X' X) 1 X' y
(1.43)
~~
~ 2 = u' u
(1.44)
X
'
X
)=0
2
~
1
T
~
~
~ 2 + ~ 4 ( y X )' ( y X ) = 0
2
2
77
llegndose a (1.44).
como:
~ 2 = T k $ 2
(1.45)
A partir de esta expresin vamos a derivar las propiedades del estimador MV.
Resultado 1.23. El estimador MV de 2 se distribuye como:
~ 2 2 (T k )
T
2
(1.46)
~2 =
E
T k 2
(1.47)
y su varianza:
4
~ 2 = 2(T k )
Var
T2
( )
(1.48)
~ 2 2 ) es igual a N(0, 2 4 ).
T(
78
Por ltimo, vamos a demostrar que tanto los estimadores MCO como los MV
son asintticamente eficientes de acuerdo con lo establecido en el Resultado 1.9.
Primeramente, tenemos que definir el lmite de la Cota Inferior de Cramer-Rao.
Definicin 1.4. La Cota Inferior de Cramer-Rao se define como:
I , 2
= [ ED()]
I , 2
lim
T
(1.49)
I , 2 =
1
2
X' X
0
0
T
2 2
(1.50)
I , 2
lim
T
T
2 Q 1
=
0
2 4
(1.51)
X ' (y X) =
1
4
X ' Eu = 0
(y X)' (y X) = T + Eu ' u =
T
+
E
4
2 4
6
6
2
T
T 2
T
=
+
4
6
2
2 4
79
(1.52)
] (q R )
Prueba: Como ya hemos indicado, el estimador MCR debe ser tal que:
min ( y X)' ( y X)
sujeto a
R =q
80
(1.53)
(1.54)
L
= R R = q
'
(1.55)
(1.56)
1
= R (X' X) 1 R ' (q R )
A la hora de evaluar las propiedades de este estimador hay que distinguir dos
situaciones segn las restricciones se cumplan realmente o no. Con este fin
escribiremos:
R q =
Si las restricciones se cumplen entonces = 0 y, si no se cumplen, 0 .
Comencemos suponiendo que las restricciones se cumplen.
Resultado 1.26. En el caso en el que = 0 , el estimador MCR es insesgado.
81
- X' X
(1.57)
Resultado 1.27. La matriz de varianzas y covarianzas del estimador MCR viene dada
por:
()
( )
Var Var R = C
en donde C es una matriz semidefinida positiva.
Prueba: Teniendo en cuenta (1.57) se tiene que:
( ) (
)(
'
Var R = E R R =
(1.58)
u' X ( X ' X )
{I - (X' X)
R =
(1.59)
83
(1.60)
Resultado 1.29. La suma de los cuadrados de los residuos MCR es siempre mayor que
la de los residuos MCO pudiendose escribir:
u 'R u R = u ' u + ( R )' X' X( R )
(1.61)
(1.62)
(1.63)
y = X + u = XH + u = Z + u
El estimador MCO de es: = ( Z' Z) 1 Z' y ; el estimador restringido de
viene dado por:
R = H( Z' Z) 1 Z' y
Una aplicacin directa de este resultado es la siguiente: Particionemos R = 0
como:
R 1 1 + R 2 2 = 0
(1.64)
se corresponde con la
particin de R.
Apartir de (1.64) se tiene:
1 = R 11 R 2 2
y sustituyendo en el modelo particionado
y = X 11 + X 2 2 + u = X 1 R 11 R 2 2 + X 2 2 + u = X 2 + u
en donde:
X = X 1 R 11 R 2 + X 2
R
(X ' X ) 1 X ' y
(1.65)
R = '
1
'
( X 2 X 2 ) X 2 y
85
(1.66)
q=1
R = 2R = .25413 ; 2R = 0,0032565
3R .74587
Var ( R ) =
0.0016994 0.0016994
0.0016994
86
1R T ( x 2 t x 3t )
2
=
(
x
x
)
2t
3t
2R
24 9.450255
=
5.637141
( y t x 3t )
(
y
x
)(
x
x
)
t
3t
2t
3t
2.750703 .01454
1.570109 .25413
(1.68)
y X 2 tiene k 2 regresores.
(1.69)
siendo el sesgo:
E 1R 1 = ( X'1 X1 ) 1 X'1 X 2 2
El signo y tamao del sesgo depender del tamao y signo de los elementos de
la matriz: ( X '1 X1 ) 1 X '1 X 2 y de los de 2 . Hay que tener en cuenta que los elementos
de esta matriz son las estimaciones de los coeficientes de la regresin de X 2 sobre X 1 .
Cada columna son los elementos de la columna correspondiente en X 2 . Por ejemplo, si
slo se excluye una variable entonces esa matriz ser un vector de k 1 elementos. El
primer elemento de este vector ser la estimacin del coeficiente de la primera variable
de X 1 en la regresin de la variable excluida sobre X 1 . Si 2 y esa estimacin son del
mismo signo entonces el sesgo ser positivo; si tienen diferente signo el sesgo ser
negativo.
Hay que destacar que aunque el estimador es sesgado, su matriz de varianzas y
covarianzas es menor que la del estimador que no comete el error de especificacin
tal como puede verse en el Resultado 1.27. Por lo tanto, puede haber situaciones con
poca evidencia en las que puede estar justificado el uso del estimador que omite
variables consideradas como relevantes.
Resultado 1.32. (Inclusin de Variables Suprfluas). Suponer que el modelo que ha
generado los datos es el escrito en (1.67) pero que para estimar 1 utilizamos el modelo
escrito en (1.68). El estimador resultante es insesgado pero tiene una varianza mayor
que la que corresponde al estimador que no comete el error de especificacin.
Prueba: Utilizando el Resultado 1.20 podemos escribir:
1 = (X'1 M 2 X 1 ) 1 X'1 M 2 y
en donde:
M 2 = I X 2 ( X ' 2 X 2 ) 1 X ' 2
de forma que:
E 1 = 1
2
=
x
3
t
3R
y t 1.3313
x 3t y t 1.2913
.14043 .028252
; 2R = 0.005294
Var 1R =
.005692
3R
Destacar que la elasticidad estimada para el trabajo es muy superior a la
obtenida anteriormente . Esto puede explicarse a partir de (1.69), ya que tanto la
correlacin entre X 1 y X 2 como el signo de 2 son positivos.
89
EJERCICIOS
1.1) Sea X una variable que se distribuye normalmente con media y varianza
2 .Suponer que se han obtenido independientemente dos muestras aleatorias simples a
partir de X, de tamaos T1 y T2 ,y con medias muestrales X1 y X 2 .
X1 + X 2
2
~ = T1X1 + T2 X2
T1 + T2
X1 X 2 ,
X1 + X 2
,
X12 + X 22
2
u gj
y g = 0 + 1 x g + u g , u g =
j=1
ng
, n 1 + n 2 +......+ n G = n
90
(2)
2). Derivar las propiedades del estimador de los mnimos cuadrados ponderados ( )
*
y i xi
)( )
zi zi
*
de 1 a partir del modelo (2). =
.
xi 2
( )
zi
(
3). Comparar las propiedades del estimador definido en 2) con las del estimador
MCO
b). 3 =
y
x
c). 2 =
yt
xt
y T
x
t
y t*
d ). 4 =
*
t
1 y 2 son estimados
2 1
X'X =
1 2
2
; X'y = ;
1
2 = 1
Se pide:
1). Obtener las estimaciones MCO de y calcular la covarianza entre
$ 1 y $ 2 .
3). Interpretar grficamente la estimacin de dado que: 2 =0. Repetir lo anterior para
1 + 2 = 0 .
4). Demostrar que los estimadores restringidos de 1 y 2 dado:
1 + 2 = 0 se pueden obtener a partir de la regresin de y sobre ( x 1t x 2 t ) .
( )
92
u ~ N(0, 2 I T )
con:
(X X ) = 13 11
'
1
X'y =
1
2 = 1
1). Escribir las ecuaciones normales, calcular los estimadores MCO, $ , y su matriz de
varianzas y covarianzas
2). Se estima el modelo con la restriccin 2 = 0. Calcular los estimadores restringidos,
$ , su matriz de varianzas y covarianzas y la diferencia entre la suma de los cuadrados
R
1 =
x y
x
t
2
t
, 1 =
y
x
3 =
x y
x
*
t
*
t
*2
t
en donde las variables con asterisco son desviaciones con respecto a las medias.
1). Obtener el sesgo y la varianza de los tres estimadores.
2). Demostrar que Cov( 1 , 2 ) = Var ( 1 ) > 0 y que el coeficiente de correlacin entre
3). Demostrar que Cov( 2 , 3 ) = 0 y que la combinacin de estos dos estimadores que
minimiza la varianza es = 122 2 + (1 122 ) 3 = 1 .
93
94