Você está na página 1de 38

CAPTULO 1

MODELO LINEAL GENERAL

1.1. INTRODUCCIN
Este captulo est dedicado a estudiar, desde el punto de vista economtrico, un
modelo que es lineal en las variables originales o en transformaciones de las mismas y
que tiene un nmero de variables explicativas superior a dos.
Ejemplo1.1:

Como ilustracin, tomaremos uno de los ejemplos ms repetidos en la

Econometra Aplicada: la funcin de produccin Cobb-Douglas. En su forma ms


simple el modelo puede escribirse como:
u
Qt = A K t Lt e t

t = 1, ..., T

(1.1)

en donde:
Qt = cantidad producida en el periodo t.
Kt = servicios de capital utilizados en el periodo t.
Lt = servicios de trabajo utilizados en el periodo t.
A, y son parmetros y ut es una variable que llamaremos perturbacin
aleatoria.
Tomando logaritmos, el modelo (1.1) puede escribirse como:
yt = 1x1t + 2 x2t + 3 x3t + ut

(1.2)

en donde:
yt = log Qt, x2t = log Kt y x3t = log Lt
x1t toma siempre el valor 1; es lo que llamaremos la constante del modelo.
Los T datos recogidos para las tres variables pueden referirse a la experiencia de
una empresa en una serie de periodos, a la experiencia de un sector en diferentes
57

periodos, a todo un pas en un periodo temporal o a varias empresas o sectores en un


mismo periodo.
Nosotros, en este trabajo, vamos a utilizar los datos contenidos en el Cuadro 1.1.
Son datos anuales de Estados Unidos para el periodo 1899-1922 y son los utilizados por
Cobb y Douglas (1928) para estimar por primera vez este tipo de funcin de
produccin. Los datos corresponden a la produccin (Y), el stock de capital (K) y el
trabajo (L).

CUADRO 1.1. Datos para el ejemplo 1.1


OBS.
1899
1900
1901
1902
1903
1904
1905
1906
1907
1908
1909
1910
1911
1912
1913
1914
1915
1916
1917
1918
1919
1920
1921
1922

Y
100.0000
101.0000
112.0000
122.0000
124.0000
122.0000
143.0000
152.0000
151.0000
126.0000
155.0000
159.0000
153.0000
177.0000
184.0000
169.0000
189.0000
225.0000
227.0000
223.0000
218.0000
231.0000
179.0000
240.0000

K
100.0000
107.0000
114.0000
122.0000
131.0000
138.0000
149.0000
163.0000
176.0000
185.0000
198.0000
208.0000
216.0000
226.0000
236.0000
244.0000
266.0000
298.0000
335.0000
366.0000
387.0000
407.0000
417.0000
431.0000

L
100.0000
105.0000
110.0000
118.0000
123.0000
116.0000
125.0000
133.0000
138.0000
121.0000
140.0000
144.0000
145.0000
152.0000
154.0000
149.0000
154.0000
182.0000
196.0000
200.0000
193.0000
193.0000
147.0000
161.0000

58

LY
4.6052
4.6151
4.7185
4.8040
4.8203
4.8040
4.9628
5.0239
5.0173
4.8363
5.0434
5.0689
5.0304
5.1761
5.2149
5.1299
5.2417
5.4161
5.4250
5.4072
5.3845
5.4424
5.1874
5.4806

LK
4.6052
4.6728
4.7362
4.8040
4.8752
4.9273
5.0039
5.0938
5.1705
5.2204
5.2883
5.3375
5.3753
5.4205
5.4638
5.4972
5.5835
5.6971
5.8141
5.9026
5.9584
6.0088
6.0331
6.0661

LL
4.6052
4.6540
4.7005
4.7707
4.8122
4.7536
4.8283
4.8903
4.9273
4.7958
4.9416
4.9698
4.9767
5.0239
5.0370
5.0039
5.0370
5.2040
5.2781
5.2983
5.2627
5.2627
4.9904
5.0814

El objetivo de este captulo es dar respuesta a cuestiones del siguiente tipo:


- Qu procedimientos deben de utilizarse para, teniendo en cuenta los datos y
toda la evidencia disponible, determinar si el modelo escrito en (1.2) es o no
empricamente razonable?
- Podra aceptarse un modelo en el que se incorporara la hiptesis de
rendimientos constantes?
- Cul es el mejor procedimiento para estimar los parmetros del modelo?
1.2. MODELO E HIPTESIS.
El modelo economtrico que vamos a estudiar esta constituido por las
siguientes hiptesis:
Hiptesis 1: Para el periodo t-simo podemos escribir:
yt = 1 x1t + + k xkt + ut

t = 1, 2,.T.

En forma matricial el modelo puede escribirse como:


y=X+u

(1.3)

en donde:
y1
x 11
y
x
2

y=
; X = 12
M
M

y T
x 1T

x 21
x 22
M
x 2T

L x k1
1
u1

u
2
L x k2

; =
;u = 2
M
M
M
M



L x kT
k
u T

Salvo que se indique lo contrario siempre supondremos que la primera columna


de X tiene todos sus elementos igual a uno.
A la combinacion lineal de los regresores la llamaremos parte sistemtica del
modelo, mientras que ut es la parte aleatoria o perturbacin aleatoria. Esta distincin
entre parte sistemtica y parte aleatoria es muy til porque pone de manifiesto que los
factores relevantes que explican el comportamiento de la variable endgena quedan

59

recogidos en la parte sistemtica mientras que la parte aleatoria recoge el efecto


conjunto de aquellos factores que influyen sobre la variable dependiente pero no
determinan una pauta identificable y estable que resulte til para explicar el
comportamiento de la variable dependiente.
Hiptesis relativas a la Parte Sistemtica.
Hiptesis 2. Las variables explicativas no son estocsticas. Esta hiptesis hay que
situarla en el marco de muestreo que siempre acompaa a la evaluacin de todo modelo
economtrico. Esta evaluacin esta basada en lo que ocurrira si el clculo de los
estadsticos se repitiera muchas veces generando los datos en cada caso. Decir que las
variables explicativas no son estocsticas equivale a decir que, en las sucesivas
repeticiones, esos valores se mantendrn constantes. En este sentido, algunos autores
hablan de X como si fuera una matriz de diseo.
Hiptesis 3. El rango de la matriz X es k. Este supuesto excluye la posibilidad de que
una de las variables pueda expresarse como una combinacin lineal de las k-1 restantes
variables explicativas. En este caso decimos que no hay multicolinealidad exacta.
Hiptesis 4. Asintticamente se tiene que:
x 12t

X' X x 1t x 2 t
=
T
T
K
x x
kt 1t

x1t x 2 t L x1t x kt

T
x 22 t
T
K
x kt x 2 t
T

x 2 t x kt

L
Q
T
K
K
x 2kt
K
T

(1.4)

en donde Q es una matriz de constantes finitas. Esta hiptesis es muy importante


porque lo que se esta suponiendo es que los promedios de cuadrados y de productos
cruzados giran en torno a constantes. Aunque, como ya hemos dicho, las observaciones
no son estocsticas el comportamiento que siguen es como si procedieran de un proceso
estocstico estacionario. A veces, esta hiptesis se formula como: XX=O(T) queriendo
decir que basta dividir los trminos de la matriz por T para que los trminos de la
matriz tiendan a expresiones finitas bien definidas.
Hiptesis relativas a la Parte Aleatoria
60

Hiptesis 5. La esperanza matemtica de cada perturbacin aleatoria es cero


Eut = 0

t = 1, 2, .,T

Esta hiptesis indica que aunque dentro de ut se da cabida a muchos factores que
influyen sobre y t , el efecto conjunto de todos ellos no tiene un signo definido.

Hiptesis 6. No existe ninguna correlacin entre perturbaciones correspondientes a


periodos temporales diferentes:
t s

E ut us = 0

s, t = 1, 2,,T

Si hubiera correlacin entre perturbaciones correspondientes a diferentes


periodos, entonces, dada la informacin de un periodo, podra utilizarse para predecir el
comportamiento de la perturbacin en otro periodo, identificndose as una pauta entre
los factores recogidos en lo que se llama perturbacin aleatoria.
Hiptesis 7. La varianza es la misma para cada una de las perturbaciones aleatorias. Es
decir,

E u 2t = 2

Esto quiere decir que la dispersin de los efectos de los factores recogidos en ut
es la misma sea cual sea el periodo. Si la dispersin fuera diferente entonces podra
decirse que la perturbacin aleatoria esconde algo relevante que puede ser utilizado
explicitamente para dar cuenta del comportamiento de la variable dependiente.
Vectorialmente, la Hiptesis 5 puede escribirse como:
Eu1
Eu
2
=
Eu =
M

Eu T

0
0
=0
M

0

(1.5)

y las Hiptesis 6 y 7,

61

Eu12

Eu u
Var ( u) = Euu' = 2 1
M

Eu T u1

K Eu1 u T 2

K Eu 2 u T 0
=
O
M M

K Eu 2T 0

Eu1 u 2
Eu 22
M
Eu T u 2
= 2IT

K 2

0 K
2 K
M O
0

0
0
M

(1.6)

Hiptesis 8. El vector de perturbaciones aleatorias sigue una distribucin normal Tvariante con vector de medias cero y matriz de varianzas y covarianzas igual a 2 I T .
Podemos escribir :
u~N[0, 2 I T ]

(1.7)

A partir de estas hiptesis puede derivarse la distribucin de probabilidad de los


elementos de y.
Resultado 1.1. El vector y, de T elementos, se distribuye como:
y~N[X, 2 I T ]

(1.8)

Prueba:A partir de la Hiptesis 8 la distribucin de probabilidad de u puede escribirse


como:
f (u) = (2 )

T
2

IT
2

1
2

1
exp{ u' ( 2 I T ) 1 u}
2

La regla que permite obtener la funcin de distribucin de una variable que es


transformacin de otra variable puede escribirse como:

f(y) = f (u)

en donde

u
y

(1.9)

u
es el Jacobiano que adopta la forma siguiente:
y

62

u 1

y 1
u
u 2
= y
y 1
M
u
T
y 1

u 1
y 2
u 2
y 2
M
u T
y 2

u 1

y T 1
u 2 0
K

y T =
M
O
M

0
u T

K
y T
K

0 K 0

1 K 0
M O M

0 K 1

Por lo tanto, la funcin de probabilidad de y puede escribirse como:

f (y) = (2)

T
2

IT
2

1
2

exp{

1
( y X)' ( y X)}
2 2

(1.10)

Ejemplo1.1. (Continuacin). Veamos el significado de las hiptesis en el marco del


modelo escrito en (1.2). Tal como aparece en (1.2), lo que se indica es que los nicos
determinantes relevantes que explican la produccin son el trabajo y el capital usando
una relacin con elasticidad constante. Cumpliendose las Hiptesis 5, 6 y 7 se garantiza
que los factores recogidos en la perturbacin aleatoria no dan cuenta de nada relevante.
Tambin parece cumplirse la Hiptesis 3 ya que es difcil que exista una relacin lineal
exacta entre los dos inputs. Ms difcil de sostener es la Hiptesis 4, ya que tanto el
producto como los inputs parecen seguir una pauta creciente bien definida.
1.3. ESTIMADORES MNIMO CUADRTICO ORDINARIOS. (MCO)

El vector de estimadores MCO de es el siguiente:


$ = ( X' X) 1 X' y

(1.11)

A este vector le corresponde la siguiente suma de cuadrados de los residuos:


T

S = u$ 2t = u$ `u$

(1.12)

en donde u$ es el vector de residuos MCO definido como:

u = y X

(1.13)

63

A continuacin, vamos a demostrar que al vector de estimadores MCO le


corresponde el menor valor de la suma de los cuadrados de los residuos. Previamente
vamos a demostrar el siguiente resultado.
Resultado1.2. El vector de residuos MCO escrito en (1.13) es ortogonal con todas las
colmnas de la matriz X.
Prueba: La expresin (1.11) puede escribirse en forma de ecuaciones normales:
X' X = X' y

(1.14)

o, equivalentemente, como:

X' y X = 0

(1.15)

llegndose as al resultado.
Resultado1.3. Sea un vector de estimadores cualquiera de y u el correspondiente
vector de residuos. Entonces la suma de cuadrados de residuos de este vector de
estimadores siempre supera la que corresponde al vector MCO escrita en (1.12).
Prueba: El vector de residuos correspondiente a puede escribirse como:
u = y - X = y - X $ + X( $ - ) = u$ + X( $ - )

(1.16)

Por lo tanto, la suma de cuadrados de estos residuos es la siguiente:


u ' u = u$ ' u$ + ($ )' X' X($ ) + 2 u$ ' X($ )

y teniendo en cuenta (1.15) se llega a:


u ' u = u$ ' u$ + ($ )' X' X($ )

(1.17)

Esta es la llamada Identidad Fundamental. Al resultado se llega teniendo en


cuenta que, por la Hiptesis 3, la matriz X' X es definida positiva.

64

Derivemos ahora las propiedades del vector de estimadores MCO escrito en


(1.11).
Resultado1.4. El vector de estimadores MCO es insesgado.
E $ =

(1.18)

Prueba: Sustituyendo (1.3) en (1.11) se obtiene:


$ = + ( X' X) 1 X' u

(1.19)

y teniendo en cuenta las Hiptesis 2 y 5 el resultado sigue:


E $ = + ( X' X) 1 X' Eu =

Resultado1.5. La matriz de varianzas y covarianzas del vector de estimadores MCO


viene dada por:
Var ($ 1 )
Cov($ 1 , $ 2 ) K Cov($ 1 , $ k )

Cov($ 2 , $ 1 )
Var ($ 2 )
K Cov($ 2 , $ k )

$
Var () =
= 2 ( X' X) 1 (1.20)

M
M
M
M

$
$
$
$
Var ($ k )
Cov( k , 1 ) Cov( k , 2 ) K
Prueba: La matriz de varianzas y covarianzas se define como:
1

'

Var = E - = E 2

()

)(

2
1 1
M

E( 1 1 ) 2
E( 1 1 )( 2 2 )

E( 2 2 )( 1 1 )
E( 2 2 ) 2
=

M
M

E( k k )(1 1 ) E( k k )( 2 2 )

65

2 2

K k k =

K E( 1 1 )( k k )

K E( 2 2 )( k k )

O
M

E( k k ) 2
K

Utilizando (1.19) podemos escribir:

)( )

'
1
1
E - = E(X' X ) X' uu ' X(X' X )

y utilizando la Hiptesis 2 y el resultado escrito en (1.6) se llega a:

()

Var = (X' X ) X' Euu ' X(X' X ) = 2 (X' X )


1

llegndose as al resultado.

Resultado 1.6. (Teorema de Gauss-Markov). El vector de estimadores MCO de , $ , es


el mejor estimador lineal insesgado en el siguiente sentido: cualquier otro estimador,
, que sea tambin combinacin lineal de los elementos del vector y e insesgado tiene
una matriz de varianzas y covarianzas que excede la de $ en una matriz semidefinida
positiva.
Prueba: Suponer que A es una matriz k T de constantes y, sin prdida de generalidad,
el estimador lo escribimos como:
= [A+ (X' X) 1 X' ] y

(1.21)

Por la propia definicin, los estimadores son funcin lineal de los elementos de y.
Sustituyendo (1.3) en (1.21) se llega a:
= [A+ (X' X) 1 X' ] [X + u] = (AX+I) + Au + (X' X) 1 X' u

Tomando esperanzas
E = (AX + I)
Para que sea insesgado se debe cumplir que:
AX = 0

(1.22)

La matriz de varianzas y covarianzas es:


66

Var( ) = E [A+ (X' X) 1 X' ] uu' [A+ (X' X) 1 X'

]' = 2 AA '+ 2 ( X' X) 1

utilizando (1.22) en los productos cruzados. Podemos escribir:


Var( ) - Var( $ ) = 2 AA'
y el resultado sigue por ser AA' semidefinida positiva.
Resultado 1.7. Sea w un vector de k constantes. Entonces se tiene que:
Var( w ' $ ) Var ( w ' )

(1.23)

Prueba: Utilizando el Resultado 1.6 podemos escribir:


Var ( w ' ) = w ' [ 2 AA'+ 2 (X' X) 1 ] w 2 w '( X' X) 1 w
cumpliendose el resultado.

Hasta ahora, los resultados se han derivado sin utilizar la Hiptesis 8 que trata de
la normalidad de las perturbaciones aleatorias. Si aadimos esta hiptesis llegamos al
siguiente resultado.
Resultado 1.8. Suponer que se cumplen las ocho hiptesis comentadas en la seccin
anterior. Entonces la distribucin de probabilidad de $ viene dada por:
$ ~N[ , 2 ( X' X) 1 ]

(1.24)

Prueba: A partir de (1.19) se ve que los elementos de $ son igual a los correspondientes
elementos de ms una combinacin lineal de variables que son normales llegndose al
resultado.
Los momentos primero y segundo han sido ya derivados en los Resultados 1.4 y
1.5, respectivamente.
Ejemplo 1.1. (Continuacin). A partir de los datos contenidos en el Cuadro 1.1
se suelen calcular algunos estadsticos que nos informan acerca del tipo de variables que
estamos tratando.
67

En primer lugar, podemos dar cuenta de algunas caractersticas univariantes


referidas a las variables en logaritmos.

CUADRO 1.2. Caractersticas Univariantes

Variable

x2

x3

Valor Mximo

5.48

6.06

5.29

Valor Mnimo

4.61

4.60

4.60

Media

5.07

5.35

4.96

Desviacin Tpica

0.27

0.50

0.20

Asimetra

-0.12

0.03

0.10

Apuntamiento

-1.06

-1.15

0.85

Coefici. de Variacin

0.05

0.08

0.04

Otra informacin interesante se refiere a las correlaciones entre las variables.


CUADRO 1.3. Correlaciones entre las variables.

x2

x3

0.95

0.96

0.91

x2

x3

Los estimadores MCO de utilizando (1.11) son los siguientes:


1 T

= 2 = x 2 t
x
3 3t

x
x
x x

2t
2
2t

3t

x
x x
x

2 t 3t
2

3t
3t

2t

24 128.55 119.10
=
693.45 639.92

592.02

yt

x 2 t y t =
x 3t y t

.
12186
655.41 =

605.94

68

.
01773

0.2305

0.8073

Notar que el valor de la elasticidad que corresponde al factor trabajo (0.8073) es


bastante mayor que el correspondiente al capital (0.2305).
A continuacin, vamos a derivar algunos resultados para aquellos casos en que
el tamao muestral tiende a hacerse grande. (Marco Asinttico).Comenzaremos
presentando algunas definiciones que completan las presentadas en el Anexo 1.
Definicin1.1. Sea $ un estimador de . Se dice que $ es un estimador consistente
asintticamente normal de cuando: i) es consistente y ii)

T converge en

distribucin a N(0,) en donde es una matriz definida positiva con elementos finitos.
Definicin 1.2. Sean $ y dos estimadores consistentes y asintticamente normales
con matrices de varianzas y covarianzas de las correspondientes distribuciones
asintticas iguales a y , respectivamente. Entonces se dice que $ es asintticamente
eficiente respecto a si es semidefinida positiva.
Definicin 1.3. Se dice que un estimador consistente y asintticamente normal es
asintticamente eficiente si lo es con respecto a cualquier estimador consistente y
asintticamente normal que se considere.
Resultado 1.9. Una condicin suficiente para que un estimador consistente y
asintticamente normal sea asintticamente eficiente es que su matriz de varianzas y
covarianzas asinttica sea igual al lmite de la cota inferior de Crmer-Rao.
Prueba: Ver Theil (1971, Seccin 8.4).

Establecidas estas definiciones veamos ahora como se comportan los


estimadores MCO de en este marco asinttico.
Resultado 1.10. El vector de estimadores MCO de es consistente pudiendose escribir:
plim $ =

(1.25)

69

Prueba: El vector $ sigue una distribucin de probabilidad k-dimensional con vector de


medias y matriz de varianzas y covarianzas igual a 2 ( X' X) 1 . Utilizando la
Hiptesis 4 se tiene que:
1

2 X' X
1
$
lim Var () = lim[
] = 0. Q = 0
T
T T

El sesgo cero y varianza que tiende a cero asintticamente son condiciones


suficientes para la convergencia en probabilidad tal como puede verse en el Anexo 1.

Resultado 1.11. El estimador $ es asintticamente normal en el siguiente sentido:


T($ ) N (0, 2 Q 1 )

Prueba: Para cualquier tamao muestral, la distribucin de

(1.26)
T($ ) es:

X'X
N (0,
)
T
2

A partir de aqu el resultado sigue utilizando la Hiptesis 4.


Tambin puede demostrarse que $ es asintticamente eficiente. Nosotros
presentaremos este resultado en el apartado dedicado a los estimadores mximoverosmiles.
Comentadas las propiedades de los estimadores MCO de los parmetros de
posicin, a continuacin, analizamos las propiedades del estimador MCO del parmetro
de dispersin que es la varianza de la perturbacin aleatoria para lo cul derivamos,
primero, las propiedades estocsticas del vector de residuos MCO escrito en (1.13).
Resultado 1.12. El vector de residuos MCO, u$ , puede escribirse como:
u$ = Mu

(1.27)

en donde M = I - X (X' X) 1 X' es una matriz simtrica e idempotente de rango T-k.

70

Prueba: A partir de (1.13) se tiene:


u = y X(X' X) 1 X' y = My = M(X + u) = Mu
MX = (I X(X' X) 1 X' )X = X X = 0

por ser :

Resultado 1.13. La esperanza y matriz de varianzas y covarianzas de u$ vienen dados,


respectivamente, por:

E( u$ )=0

(1.28)

Var ( u$ )=2M

(1.29)

Prueba:
E( u$ ) = ME(u) = 0
Var(u) = E(uu' ) = E(Muu' M) = M E(uu' ) M = 2 M

Resultado 1.14. La esperanza de la suma de los cuadrados de los residuos MCO es


igual a (T-k) 2 , es decir:
2

E( u$ ' u$ ) = (T-k)

(1.30)

Prueba:
E( u$ ' u$ ) = E(u ' MMu ) = E(u ' Mu ) = E(tr (Muu ')) = tr (M (E(uu '))) =
2

= trM = (T-k)
por ser: tr(M) = rango(M) = T-k
Establecidas las propiedades del vector de residuos MCO, examinaremos, a
continuacin, las propiedades del estimador MCO de 2 definido como:
T

2 =

2
t

u u
= t =1
Tk Tk
71

(1.31)

Resultado 1.15. El estimador MCO de 2 escrito en (1.31) se distribuye como:


2 ~

2
2 (T k )
Tk

(1.32)

en donde 2(T-k) es una variable chi-cuadrado central con T-k grados de libertad.
Su esperanza matemtica es:
E( $ 2 ) = 2

(1.33)

y su varianza:
Var ($ 2 ) =

4
2 4
2
Var
(

(
T
k
))

=
Tk
(T k ) 2

(1.34)

Prueba: para demostrar (1.32) hay que tener en cuenta que (T k) 2 = u' Mu .
Por ser M una matriz idempotente de rango (T-k), es posible escribir:
*2
u' Mu = v 1*2 + v *2
2 + ... + v T k

(1.35)

en donde cada una de las variables v *j sigue una distribucin Normal con media cero y
varianza 2; adems, todas ellas son independientes entre s. Dividiendo ambos lados
de (1.35) por 2 se tiene que:
u' Mu
= v 12 + v 22 + ... + v T2 k
2

en donde ahora las v j son variables normales tipificadas independientes entre s.

Por lo tanto:

u' Mu 2
(T-k), y el resultado sigue.
2

Para obtener (1.33) hay que tener en cuenta que: E(2(T-k)) = T-k.

72

Por ltimo, respecto a (1.34) basta recordar que: Var(2(T-k))=2(T-k), por lo


que: Var ($ 2 ) =

4
2 4
2
Var
(

(
T
k
))

=
Tk
(T k ) 2

Resultado 1.16: El estimador $ 2 de 2 es insesgado


Prueba: resultado obtenido en (1.33).

Alternativamente, la insesgadez podra demostrarse utilizando el Resultado 1.14.


Resultado 1.17: $ y $ 2 son independientes.
Prueba: En el Resultado 1.15 hemos visto que $ 2 depende de una forma cuadrtica de
u cuya matriz es M. Por otra parte, a partir de (1.19) podemos escribir:
- = (X X) 1 X u y como se cumple que (X X) 1 X M = 0 , esto garantiza la
independencia.

Resultado 1.18: El estimador $ 2 es un estimador consistente de 2.


Prueba: $ 2 es insesgado para cualquier tamao muestral. Adems, a partir de (1.34) se
tiene que:
2 4
=0
T T k

2
lim Var( ) = lim

Como ya hemos indicado para $ , la insesgadez y el lmite cero de la varianza


son condiciones suficientes para la consistencia del estimador.

Se puede definir una matriz que sea la estimacin de la matriz de varianzas y


covarianzas de $ escrita en (1.20) como 2 (X X) 1 . Por los Resultados 1.16 y 1.18
esta estimacin ser insesgada y consistente.
73

Resultado 1.19: El estimador $ 2 es asintticamente normal con:


T ( 2 2 ) N(0,2 4 )

(1.36)

Prueba: Ver Fomby, Hill y Johnson (1984) (Teorema 4.3.2).

Ejemplo 1.1. (Continuacin) . El estimador MCO de la varianza lo calculamos


utilizando (1.31):

2 =

u u
0,070982
=
= 0,00338099
Tk
21

La estimacin de la matriz de varianzas y covarianzas viene dada por:

(X' X)
2

0,1886 0,0199 0,0595

=
0,0040 0,0083

0,0210

Suponer ahora que el modelo escrito en (1.3) lo particionamos como:


y = X11 + X22+u

(1.37)

en donde 1 tiene k1 elementos y 2 tiene k2 elementos con k1+k2 = k. Vamos a


derivar la forma que adopta el estimador MCO de 2.
Resultado 1.20: El subvector de estimadores MCO, $ 2 , puede escribirse como:
2 = (X '2 M 1 X 2 ) 1 X '2 M 1 y

(1.38)

M 1 = I T - X1 (X 1' X1 ) 1 X1'

con

Prueba: Primero, reescribimos las ecuaciones normales escritas en (1.14) particionadas


conforme a (1.37):
X 1' X 1 1 + X 1' X 2 2 = X 1' y
X '2 X 1 1 + X '2 X 2 2 = X '2 y
74

Se trata de dos bloques, el primero con k1 relaciones y el segundo con k2


relaciones. A partir del primer bloque se obtiene:
1 = (X 1' X 1 ) -1 X 1' y - (X 1' X 1 ) -1 X 1' X 2 2
y sustituyendo a $ 1 en el segundo bloque:
X '2 X 1 (X 1' X 1 ) -1 X 1' y - X '2 X 1 (X 1' X 1 ) -1 X 1' X 2 2 + X '2 X 2 2 = X '2 y
que tambin puede escribirse como:
(X '2 M 1 X 2 ) 2 = X '2 M 1 y
Basta premultiplicar ambos lados de esta expresin por la inversa de (X '2 M 1X 2 )
para llegar a (1.38).

Lo que indica (1.38) es que $ 2 no es otra cosa que la regresin de M1y sobre
M1X2, es decir, la regresin de aquella parte de y no explicada por X1 sobre aquella
parte de X2 no explicada por X1. Es importante destacar que al mismo resultado se
llegara haciendo la regresin de y sobre M1X2. Estos resultados explican que si una de
las variables explicativas del modelo es una constante, el vector de estimadores MCO
del resto de las (k-1) variables explicativas obtenido utilizando las desviaciones con
respecto a las medias de todas las variables sea el mismo que el que se obtena
utilizando variables no centradas.
1.4. ESTIMADORES MXIMO-VEROSMILES ( MV ).

Los estimadores MV de y 2 son aquellos que maximizan el valor que toma


la funcin de verosimilitud. Esta funcin es la misma escrita en (1.10) pero tomndola
como funcin de y 2 condicionada sobre unos valores dados de X e y. Para reflejar
este cambio la escribiremos como:
L( , /y , X) = (2 )
2

T
2

IT
2

1
2

'
1

exp 2 ( y X) ( y X)
2

75

y su logartmo:
l( , 2 /y , X) =

T
T
1
log(2 ) log 2
( y X)' ( y X)
2
2
2 2

(1.39)

Veamos ahora la forma que adoptan el gradiente y la matriz hessiana de


segundas derivadas.
Resultado 1.21. El gradiente de la funcin de verosimilitud definida en (1.39) toma la
forma siguiente:
l(.) 1

X' y X' X)
(

d( , 2 ) = =

l(.) T + u' u
2 2 2 4
2

(1.40) - (1.41)

La matriz hessiana de segundas derivadas es:

D (, 2 )

1
1

X' ( y X)
4
2 X' X

T
1

(
)
.

+
(
y

)'
y
X

2 4 6

(1.42)

Prueba: Teniendo en cuenta que :

(y X)' (y X) = y' y 2 y' X + ' X' X


y utilizando las reglas estandar de derivacin vectorial se llega a:

1
l (.)
= 2 (2 X ' y 2 X ' X )

2
llegndose as a (1.40). Para obtener (1.41) basta derivar (1.39) respecto a 2 .
l(.)
T
( y X)' ( y X)
= 2 +
2
2
2 4

Respecto a las segundas derivadas,usando (1.40) se tiene que:


76

2 l(.)
X' X
= 2
'

La segunda derivada cruzada puede escribirse como:


2 l(.)
1
= 4 ( X' y + X' X)
2

y, por ltimo, la segunda derivada respecto a 2 se obtiene usando (1.41):


1
l(.)
T
'
=
6 (y X ) (y X)
2 2
4

2
( )
Resultado 1.22. Los estimadores MV de y 2 vienen dados por:
~
= ( X' X) 1 X' y

(1.43)

~~
~ 2 = u' u

(1.44)

Prueba: La condicin necesaria para maximizar la verosimilitud es que los elementos


del gradiente sean cero. Es decir:
1
~
(
X
'
y

X
'
X

)=0
2
~

1
T
~
~
~ 2 + ~ 4 ( y X )' ( y X ) = 0
2
2

A partir del primer bloque de k relaciones se obtiene que:


~
X' y = X' X
de donde se deriva (1.43).
La ltima relacin puede escribirse como:
~
u' ~
u
=T
2
~

77

llegndose a (1.44).

Hay que destacar que el estimador MV de coincide con el estimador MCO


coincidencia que no se da con los estimadores de 2 . Por lo tanto, las propiedades del
estimador MV de son las mismas que las ya comentadas para el estimador MCO.
~ 2 , hay que tener en cuenta que puede escribirse
Respecto a las propiedades de

como:
~ 2 = T k $ 2

(1.45)

A partir de esta expresin vamos a derivar las propiedades del estimador MV.
Resultado 1.23. El estimador MV de 2 se distribuye como:
~ 2 2 (T k )

T
2

(1.46)

Su esperanza matemtica es:

~2 =
E

T k 2

(1.47)

y su varianza:
4
~ 2 = 2(T k )
Var
T2

( )

(1.48)

Prueba: Teniendo en cuenta (1.45) basta utilizar el Resultado 1.15.


Teniendo en cuenta que el factor que multiplica a $ 2 en (1.45) tiende a 1
conforme T tiende a infinito entonces las propiedades del estimador MV son las mismas
~ 2 es consistente y la distribucin asinttica de
que las del estimador MCO. Es decir,

~ 2 2 ) es igual a N(0, 2 4 ).
T(

78

Por ltimo, vamos a demostrar que tanto los estimadores MCO como los MV
son asintticamente eficientes de acuerdo con lo establecido en el Resultado 1.9.
Primeramente, tenemos que definir el lmite de la Cota Inferior de Cramer-Rao.
Definicin 1.4. La Cota Inferior de Cramer-Rao se define como:

I , 2

= [ ED()]

Asintticamente, el concepto relevante es el lmite de la expresin:

I , 2
lim
T

(1.49)

Resultado 1.24. La Matriz de Informacin en este caso viene dada por:

I , 2 =

1
2

X' X
0

0
T
2 2

(1.50)

y el lmite escrito en (1.49):

I , 2
lim
T
T

2 Q 1
=
0

2 4

(1.51)

Prueba: Teniendo en cuenta la matriz de segundas derivadas escrita en (1.42) el


resultado (1.50) sigue teniendo en cuenta que:
E

X ' (y X) =

1
4

X ' Eu = 0

(y X)' (y X) = T + Eu ' u =
T
+
E
4

2 4
6
6
2

T
T 2
T
=
+
4
6
2

2 4

79

En lo que respecta a (1.51), basta tener en cuenta la Hiptesis 4 y las reglas


estandar de convergencia.

Examinando las distribuciones asintticas derivadas para los estimadores MCO


y MV se ve que todos ellos son asintticamente eficientes.
1.5. ESTIMADORES DE LOS MNIMOS CUADRADOS RESTRINGIDOS
(MCR). ERROR DE ESPECIFICACIN.

Los estimadores MCR de , que llamaremos $ R , son aquellos que minimizan la


suma de cuadrados de los residuos cumpliendo una serie de restricciones especificadas a
priori sobre los parmetros.
Escribimos las restricciones como:
R = q

(1.52)

En donde R es una matriz r.k , y rango r, siendo r el nmero de restricciones; q


es un vector de r constantes.
Resultado 1.25. El vector de estimadores MCR que minimiza la suma de cuadrados de
los residuos cumpliendo al mismo tiempo las restricciones escritas en (1.52) es el
siguiente:

] (q R )

R = + (X' X )1 R ' R (X' X )1 R '

Prueba: Como ya hemos indicado, el estimador MCR debe ser tal que:
min ( y X)' ( y X)

sujeto a

R =q

La funcin lagrangiana para este problema de optimizacin es:


L= (y X )' (y X ) 2' (R q )

80

(1.53)

En donde es un vector con r Multiplicadores de Lagrange. Las condiciones


necesarias para la optimizacin se obtienen igualando a cero las derivadas con respecto
a y :
L
= 2X' y + 2X' X R 2R ' = 0

(1.54)

L
= R R = q
'

(1.55)

A partir de (1.54) se obtiene que:


R = + (X' X )1 R '

(1.56)

Premultiplicando todos los trminos de (1.56) por R y, teniendo en cuenta (1.55)


se llega a:
q = R + R (X' X )1 R '
y despejando :

1
= R (X' X) 1 R ' (q R )

Sustituyendo este estimador en (1.56) se llega al resultado escrito en (1.53).

A la hora de evaluar las propiedades de este estimador hay que distinguir dos
situaciones segn las restricciones se cumplan realmente o no. Con este fin
escribiremos:
R q =
Si las restricciones se cumplen entonces = 0 y, si no se cumplen, 0 .
Comencemos suponiendo que las restricciones se cumplen.
Resultado 1.26. En el caso en el que = 0 , el estimador MCR es insesgado.

81

Prueba: Teniendo en cuenta (1.19), podemos escribir:


R = R + R (X' X )1 X' u = q + R (X' X )1 X' u
Por lo tanto,
q R = - R (X' X )1 X' u
Introduciendo este resultado y el escrito en (1.19) en (1.53) obtenemos:
R = + (X' X )1 X' u

- X' X

)1 R '[R (X' X)1 R ']1[R (X' X) 1 X' u ]=

= + I (X' X) 1 R '{R (X' X) 1 R ' }1 R (X' X) 1 X' u

(1.57)

Recordando la Hiptesis 2 y que R es una matriz de constantes se tiene que:


E R = E =

Resultado 1.27. La matriz de varianzas y covarianzas del estimador MCR viene dada
por:

Var( R ) = 2 (X' X )1 I R ' {R (X' X) 1 R ' }1 R (X' X) 1

Adems, se cumple que:

()

( )

Var Var R = C
en donde C es una matriz semidefinida positiva.
Prueba: Teniendo en cuenta (1.57) se tiene que:

( ) (

)(

'
Var R = E R R =

= E{I (X' X) 1 R ' (R (X' X) 1 R ' ) 1 R}( X' X) 1 X' u


82

(1.58)

u' X ( X ' X )

{I - (X' X)

R' R( X ' X ) R'


1

R =

= 2 (X' X) 1 2 (X' X) 1 R '{R (X' X) 1 R '}1 R (X' X) 1 =


= Var ( ) C
en donde

C= 2 (X' X) 1 R '{R (X' X) 1 R '}1 R (X' X) 1

sta matriz es semidefinida positiva porque (X' X )1 es definida positiva y R


tiene rango fila completo.
Tambin en este caso sera posible demostrar un resultado similar al de GaussMarkov. Es decir, el estimador MCR es el mejor estimador lineal e insesgado en el
sentido de que es el estimador que tiene la menor varianza dentro de la clase de los
estimadores que son lineales en y y q e insesgados.
En el caso en que las restricciones no sean correctas, es decir, cuando 0 ,
entonces el estimador MCR es sesgado aunque mantiene la misma matriz de varianzas y
covarianzas.
Resultado1.28. En el caso en que 0 , entonces el estimador MCR tiene la siguiente
esperanza matemtica:
E R = + (X' X) 1 R '{R (X' X) 1 R '}1

(1.59)

Prueba: Basta obtener la esperanza de (1.53) teniendo en cuenta que:


E =
E(q-R ) = q-R =

En este caso ya no podemos decir que, en general, siempre el estimador MCR es


mejor que el estimador MCO. Para compararlos habra que prestar atencin al error
cuadrtico medio.

83

A continuacin, vamos a derivar

una serie de resultados que se cumplen

siempre cualquiera que sea el valor .


Sea u R el vector de residuos MCR definidos como:
u R = y- X R

(1.60)

Resultado 1.29. La suma de los cuadrados de los residuos MCR es siempre mayor que
la de los residuos MCO pudiendose escribir:
u 'R u R = u ' u + ( R )' X' X( R )

(1.61)

Prueba: Basta aplicar el Resultado 1.3 utilizando la expresin (1.17).

Resultado 1.30. Sea w un vector de k constantes. Entonces se tiene que:


Var ( w ' R ) Var ( w ' )

(1.62)

Prueba: Podemos escribir:


Var( w ' ) Var( w ' R ) = w '{Var( ) Var( R )}w =
= w ' Cw 0

por ser C semidefinida positiva tal como se ha demostrado en el Resultado 1.27


Cuando se imponen r restricciones sobre lo que se est indicando es que los
k parmetros no pertenecen a un espacio de k dimensiones sino a otro de k-r. Esto
significa que los k parmetros pueden expresarse en funcin de otros k-r parmetros que
llamaremos libres, pudiendose escribir:
= H

(1.63)

en donde H es una matriz k (k-r) de constantes y es el vector de (k-r) parmetros


libres.
Introduciendo esta expresin en el Modelo Lineal General se tiene:
84

y = X + u = XH + u = Z + u
El estimador MCO de es: = ( Z' Z) 1 Z' y ; el estimador restringido de
viene dado por:
R = H( Z' Z) 1 Z' y
Una aplicacin directa de este resultado es la siguiente: Particionemos R = 0
como:
R 1 1 + R 2 2 = 0

en donde R 1 es r.r con rango mximo y la particin de

(1.64)

se corresponde con la

particin de R.
Apartir de (1.64) se tiene:
1 = R 11 R 2 2
y sustituyendo en el modelo particionado
y = X 11 + X 2 2 + u = X 1 R 11 R 2 2 + X 2 2 + u = X 2 + u
en donde:

X = X 1 R 11 R 2 + X 2

El estimador MCR toma la forma siguiente.


1
'
1
'
= R 1 R 2 (X X ) X y

R
(X ' X ) 1 X ' y

(1.65)

En el caso en que las restricciones slo afecten a 1 entonces el estimador MCR


es:
0

R = '
1
'
( X 2 X 2 ) X 2 y

85

(1.66)

Ejemplo 1.1. (Continuacin). Se va a estimar el modelo imponiendo la hiptesis de


rendimientos constantes que puede escribirse como:
2 + 3 = 1
En este caso los elementos de la expresin (1.52) son:
R=(011)

q=1

Teniendo en cuenta que:(q-R ) = (1-1.0378) = -0.0378, aplicando (1.53) se


obtiene:
1R .01454

R = 2R = .25413 ; 2R = 0,0032565

3R .74587

La matriz de varianzas y covarianzas viene dada por:


0.000399 0.0006692 0.0006692

Var ( R ) =
0.0016994 0.0016994

0.0016994

Alternativamente, estos estimadores se pueden calcular utilizando (1.65). En


este sentido hay que tener en cuenta que considerando la hiptesis de rendimientos
constantes el modelo puede escribirse como:
y t = 1x1t + 2 x 2 t + (1 2 ) x 3t + u t
o bien
y t x 3t = 1x 1t + 2 ( x 2 t x 3t ) + u t
Por lo que las estimaciones sern:

86

1R T ( x 2 t x 3t )

2
=

(
x
x
)

2t
3t
2R
24 9.450255

=
5.637141

( y t x 3t )

(
y
x
)(
x
x
)

t
3t
2t
3t

2.750703 .01454

1.570109 .25413

Vamos a terminar este captulo haciendo referencia al concepto de error de


especificacin. El anlisis del error de especificacin se refiere a aquellas situaciones en
las que se estudian las consecuencias que, sobre las propiedades de ciertos estadsticos,
tiene el considerar un modelo diferente al que genera los datos.
El anlisis del error de especificacin abarca una amplia gama de casos dentro
de la Econometra. Nosotros prestaremos atencin a dos casos particulares: la omisin
de variables relevantes y la inclusin de variables suprfluas.
Considerar los dos modelos siguientes:
y = X11 + u1
(1.67)
y = X11 + X 2 2 + u
En donde, como ya hemos dicho, X 1 tiene k 1

(1.68)
y X 2 tiene k 2 regresores.

Nuestro interes es estimar 1 .


Resultado 1.31. (Variables Relevantes Omitidas). Supongamos que el modelo que ha
generado los datos es el escrito en (1.68) pero que, para estimar 1 , utilizamos el
modelo escrito en (1.67). Entonces el estimador resultante es sesgado.
Prueba: Se trata de un caso particular del Resultado 1.28. El estimador MCR en este
caso es:
1R = (X'1 X1 ) 1 X'1 y = 1 + (X'1 X1 ) 1 X'1 X 2 2 + (X'1 X1 ) 1 X'1 u
Por lo tanto, su esperanza es:
E 1R = 1 + (X'1 X1 ) 1 X'1 X 2 2
87

(1.69)

siendo el sesgo:
E 1R 1 = ( X'1 X1 ) 1 X'1 X 2 2

El signo y tamao del sesgo depender del tamao y signo de los elementos de
la matriz: ( X '1 X1 ) 1 X '1 X 2 y de los de 2 . Hay que tener en cuenta que los elementos
de esta matriz son las estimaciones de los coeficientes de la regresin de X 2 sobre X 1 .
Cada columna son los elementos de la columna correspondiente en X 2 . Por ejemplo, si
slo se excluye una variable entonces esa matriz ser un vector de k 1 elementos. El
primer elemento de este vector ser la estimacin del coeficiente de la primera variable
de X 1 en la regresin de la variable excluida sobre X 1 . Si 2 y esa estimacin son del
mismo signo entonces el sesgo ser positivo; si tienen diferente signo el sesgo ser
negativo.
Hay que destacar que aunque el estimador es sesgado, su matriz de varianzas y
covarianzas es menor que la del estimador que no comete el error de especificacin
tal como puede verse en el Resultado 1.27. Por lo tanto, puede haber situaciones con
poca evidencia en las que puede estar justificado el uso del estimador que omite
variables consideradas como relevantes.
Resultado 1.32. (Inclusin de Variables Suprfluas). Suponer que el modelo que ha
generado los datos es el escrito en (1.67) pero que para estimar 1 utilizamos el modelo
escrito en (1.68). El estimador resultante es insesgado pero tiene una varianza mayor
que la que corresponde al estimador que no comete el error de especificacin.
Prueba: Utilizando el Resultado 1.20 podemos escribir:
1 = (X'1 M 2 X 1 ) 1 X'1 M 2 y
en donde:

M 2 = I X 2 ( X ' 2 X 2 ) 1 X ' 2

A partir del modelo escrito en (1.67), podemos escribir:


1 = (X'1 M 2 X 1 ) 1 X'1 M 2 (X 11 + u 1 ) = 1 + (X'1 M 2 X 1 ) 1 X'1 M 2 u 1
88

de forma que:
E 1 = 1

Por lo demostrado en el Resultado 1.27 se ve que la matriz de varianzas y


1 supera a la del estimador que no comete el error de especificacin.
covarianzas de

Ejemplo 1.1. (Continuacin) Vamos a aproximar el error de especificacin


que se comete si tratamos de estimar el coeficiente del factor trabajo sin considerar la
variable capital. Es decir, se trata de estimar:
y t = 1 x1t + 3 x 3t + u t
Las estimaciones que se obtienen son:
1R T x 3t


2
=
x

3
t
3R

y t 1.3313

x 3t y t 1.2913

y la estimacin de la matriz de varianzas y covarianzas:

.14043 .028252
; 2R = 0.005294
Var 1R =

.005692
3R
Destacar que la elasticidad estimada para el trabajo es muy superior a la
obtenida anteriormente . Esto puede explicarse a partir de (1.69), ya que tanto la
correlacin entre X 1 y X 2 como el signo de 2 son positivos.

89

EJERCICIOS

1.1) Sea X una variable que se distribuye normalmente con media y varianza
2 .Suponer que se han obtenido independientemente dos muestras aleatorias simples a
partir de X, de tamaos T1 y T2 ,y con medias muestrales X1 y X 2 .

1). Un investigador pretende estimar y propone como estimadores alternativos


$ =

X1 + X 2
2

~ = T1X1 + T2 X2

T1 + T2

Comparar las propiedades de ambos estimadores.


2). En una etapa posterior pretende estimar 2 y propone los siguientes estimadores:
2

X1 X 2 ,

X1 + X 2
,

X12 + X 22
2

Comparar las propiedades de los tres estimadores.

1.2) Considerar una muestra aleatoria simple de T elementos obtenida a partir de un


poblacin con media y varianza 2 .Se pide:
Var( X i X ) , E ( X j X ) , E [ X i ( X j X )] , E [ X( X j X )]
Cov [ ( X i X),( X j X )]
1.3). Suponer que la variable y est relacionada con la variable x segn el modelo:
y i = 0 + 1 x i + u i

u i ~ iid N(0, 2 ) i=1,2 .n (1)

Un investigador agrupa las observaciones en G grupos y toma el promedio de las dos


variables en los grupos considerando el modelo
ng

u gj
y g = 0 + 1 x g + u g , u g =

j=1

ng

, n 1 + n 2 +......+ n G = n

en donde y g , x g , u g son los promedios respectivos.Se pide:


1). Derivar las propiedades de u g .

90

(2)

2). Derivar las propiedades del estimador de los mnimos cuadrados ponderados ( )
*

y i xi
)( )
zi zi
*
de 1 a partir del modelo (2). =
.
xi 2
( )
zi
(

3). Comparar las propiedades del estimador definido en 2) con las del estimador

MCO

de 1 definido a partir de (1).

1.4). Suponer que el proceso generador de datos es:


y t = + x t + u t
en donde u t es una perturbacin aleatoria que cumple las hiptesis ideales.
Obtener la esperanza y varianza de los siguientes estimadores:
a). 1 =

b). 3 =

y
x

c). 2 =

yt
xt

y T
x
t

y t*

d ). 4 =

*
t

Las variables con asterisco representan desviaciones con respecto a la media.

1.5). Supongamos el modelo:


y = 1 x1 + 2 x 2 + u
en donde u cumple las hiptesis habituales y suponemos que las variables estn medidas
en desviaciones respecto a sus medias. Los parmetros

1 y 2 son estimados

utilizando MCO y estimadores restringidos suponiendo: 1 = 2 = . Se pide:


1). Demostrar que los estimadores restringidos equivalen a una media ponderada de los
estimadores MCO.
2). Demostrar que el estimador insesgado ms eficiente de coincide con la media
ponderada en caso de que se cumpla la restriccin.
91

1.6). Partiendo del modelo con dos variables y = 1 x1 + 2 x 2 + u , en el que


suponemos que las variables estn medidas en desviaciones respecto a sus medias,
interpretar grafcamente:
1). El valor estimado de y y las estimaciones MCO de 1 y 2 .
2). Un caso en que la estimacin de 1 sea mayor que uno y otro en que dicha
estimacin sea menor que cero.
3). El coeficiente de correlacin mltiple.
4). Los coeficientes de correlacin parcial.
5). El valor del estadstico F para el contraste de significatividad de x 2 .

1.7). Para el modelo y = X + u se tiene la siguiente informacin:

2 1
X'X =

1 2

2
; X'y = ;
1

2 = 1

Se pide:
1). Obtener las estimaciones MCO de y calcular la covarianza entre
$ 1 y $ 2 .

2). Calcular los estimadores restringidos de 1 y 2 con la restriccin


2 =0.Calcular la covarianza entre $ 1R y $ 2R .Obtener la diferencia entre la suma de
cuadrados de los residuos restringidos y la de los residuos MCO. En caso de que $ y
1

$ 1R no difieran tiene alguna utilidad la informacin de que 2 =0?.

3). Interpretar grficamente la estimacin de dado que: 2 =0. Repetir lo anterior para
1 + 2 = 0 .
4). Demostrar que los estimadores restringidos de 1 y 2 dado:
1 + 2 = 0 se pueden obtener a partir de la regresin de y sobre ( x 1t x 2 t ) .

( )

5). Obtener la prediccin puntual MCO y por intrvalo de y p y E y p con un nivel


de
confianza del 95% suponiendo que para el periodo extramuestral se sabe
que x p = (2,1) .

92

1.8) Suponer el siguiente modelo:


y t = 1 x 1t + 2 x 2 t + u t

u ~ N(0, 2 I T )

con:

(X X ) = 13 11
'

1
X'y =
1

2 = 1

1). Escribir las ecuaciones normales, calcular los estimadores MCO, $ , y su matriz de
varianzas y covarianzas
2). Se estima el modelo con la restriccin 2 = 0. Calcular los estimadores restringidos,
$ , su matriz de varianzas y covarianzas y la diferencia entre la suma de los cuadrados
R

de los residuos restringidos y la de los residuos MCO.


3). Suponer que se quiere estimar por intrvalo la relacin ' en donde: ' = (1 , 0).
Adoptando un nivel de significacin del 5% se pide determinar la amplitud de los
intrvalos correspondientes a los estimadores MCO y restringidos.
1.9). Suponer que el modelo que genera los datos es: y t = x t + u t en donde la
perturbacin cumple las hiptesis ideales. Considerar los siguientes tres estimadores:

1 =

x y
x
t

2
t

, 1 =

y
x

3 =

x y
x
*
t

*
t

*2
t

en donde las variables con asterisco son desviaciones con respecto a las medias.
1). Obtener el sesgo y la varianza de los tres estimadores.
2). Demostrar que Cov( 1 , 2 ) = Var ( 1 ) > 0 y que el coeficiente de correlacin entre

1 y 2 es: 12 = [Var ( 1 ) / Var ( 2 )]2 . Demostrar que si se define


= 1 + (1 ) 2 el valor de que minimiza la varianza de este estimador es 1.
1

3). Demostrar que Cov( 2 , 3 ) = 0 y que la combinacin de estos dos estimadores que
minimiza la varianza es = 122 2 + (1 122 ) 3 = 1 .

93

94

Você também pode gostar