Escolar Documentos
Profissional Documentos
Cultura Documentos
(572716-572317)
Leonardo Salazar
lesalaza@udec.cl
Semestre 1-2018
1/2
Estimación
2 / 66
Estimación
3 / 66
Propiedades deseadas de los estimadores
Insesgamiento:
Un estimador del parámetro θ es insesgado si la media de su
distribución muestral es igual a θ. Formalmente se puede
escribir de la siguiente forma
E θ̂ = θ
ó
Sesgo θ̂ θ ≡ E θ̂ − θ = E θ̂ − θ = 0
4 / 66
Propiedades deseadas de los estimadores
Eficiencia:
Un estimador insesgado θ̂1 se dice que es más eficiente que
otro estimador insesgado θ̂2 si la varianza muestral de θ̂1 es
menor que la varianza muestral de θ̂2 . Es decir, θ̂1 insesgado
es más eficiente que θ̂2 insesgado si:
Var θ̂1 < Var θ̂2
h i2
donde Var θ̂i ≡ E θ̂i − E θ̂i
Luego, del gráfico anterior se deduce que θ̂1 es más eficiente
que θ̂2 .
7 / 66
Propiedades deseadas de los estimadores
8 / 66
Propiedades deseadas de los estimadores
2
ECM θ̂ = E θ̂ − θ
h i2
ECM θ̂ = Var θ̂ + Sesgo θ̂
9 / 66
Propiedades deseadas de los estimadores
Ejemplo:
Sea X1 , X2 , . . . , Xn una muestra aleatoria, de alguna
población, tal que: E (Xi ) = µ y Var (Xi ) = σ 2 , ∀i = 1, n.
Considere los siguientes posibles estimadores de µ:
n
P
Xi
i=1
θ̂1 = X̄ θ̂2 =
n+1
10 / 66
Propiedades deseadas de los estimadores
Linealidad:
Se dice que θ̂ es un estimador lineal de θ si es una función
lineal de las observaciones muestrales.
11 / 66
Propiedades deseadas de los estimadores
12 / 66
Métodos de Estimación
13 / 66
Análisis de Regresión
14 / 66
Análisis de Regresión
15 / 66
Análisis de Regresión
17 / 66
Función de Regresión Poblacional (FRP)
E (Y |Xi ) = f (Xi )
La expresión anterior se conoce cono FRP y señala como la
respuesta promedio de la variable Y varía con X .
¿Qué forma adopta f (Xi )?
En la realidad no conocemos toda la población y por lo tanto
es complicado conocer la forma de f (Xi ).
La teoría económica o investigaciones previas pueden ayudar a
definir la forma de f (Xi ).
Generalmente una buena aproximación es asumir que f (Xi ) es
lineal en Xi .
E (Y |Xi ) = β1 + β2 Xi
18 / 66
Función de Regresión Poblacional (FRP)
E (Y |Xi ) = β1 + β2 Xi
19 / 66
Función de Regresión Poblacional (FRP)
20 / 66
Especificación Estocástica del FRP
21 / 66
Especificación Estocástica del FRP
µi = Yi − E (Y |Xi )
Yi = E (Y |Xi ) + µi
Donde la variable µi (que puede ser positiva o negativa), se
conoce como perturbación estocástica o término de error
estocástico.
22 / 66
Especificación Estocástica del FRP
Si E (Y |Xi ) = β1 + β2 Xi , entonces la expresión
Yi = E (Y |Xi ) + µi , se puede plantear como:
Yi = β1 + β2 Xi + µi
La ecuación anterior plantea, por ejemplo, que el nivel de
gasto en consumo de una familia (Yi ) está relacionado
linealmente con su ingreso (Xi ), más el término de
perturbación (µi ).
Notar que al fijar un valor de Xi y tomando esperanzas a
ambos lados de Yi = E (Y |Xi ) + µi , se obtiene:
24 / 66
Función de Regresión Muestral (FRM)
Supongamos que no conocemos la información de las 60
familias del ejemplo de gasto en consumo e ingreso por
semana.
Sin embargo, tenemos información de dos muestra tomadas
en forma aleatoria
Muestra 1 Muestra 2
25 / 66
Función de Regresión Muestral (FRM)
Al graficar ambas muestras se obtiene un diagrama de
dispersión.
Si en dicho diagrama se traza una recta que se ajuste a los
punto se obtiene, entonces, una función de regresión
muestral (FRM).
26 / 66
Función de Regresión Muestral (FRM)
27 / 66
Función de Regresión Muestral (FRM)
28 / 66
Función de Regresión Muestral (FRM)
Yi = Ŷi + µ̂i
Dicha expresión, en forma análoga, se cumple al utilizar la
FRP:
Yi = E ( Y | Xi ) + µi
29 / 66
FRM y FRP
30 / 66
Modelo de Regresión: Método de Mínimos Cuadrados
Ordinarios (MCO)
El método de Mínimos Cuadrados Ordinarios (MCO) tiene
propiedades estadísticas que lo hacen ser preferido por sobre
otros métodos de estimación
Bajo ciertos supuestos se puede demostrar que los estimadores
de MCO son MELI.
Recordar que la FRM está dada por:
Yi = Ŷi + µ̂i
µ̂i = Yi − Ŷi
µ̂i = Yi − β̂1 − β̂2 Xi
31 / 66
Mínimos Cuadrados Ordinarios
32 / 66
Mínimos Cuadrados Ordinarios
n
X n
X 2
Min µ̂2i = Yi − β̂1 − β̂2 Xi
{β̂1 ,β̂2 } i=1 i=1
33 / 66
Mínimos Cuadrados Ordinarios
Pn 2
∂ i=1 µ̂i
=0
∂ β̂1
n
X
2 Yi − β̂1 − β̂2 Xi · −1 = 0
i=1
n
X n
X
Yi − nβ̂1 − β̂2 Xi = 0
i=1 i=1
n
P n
P
Yi Xi
i=1 i=1
β̂1 = − β̂2 = Ȳ − β̂2 X̄ (1)
n n
34 / 66
Mínimos Cuadrados Ordinarios
La condición de primero orden (CNPO) con respecto a β̂2 es:
Pn 2
∂ i=1 µ̂i
=0
∂ β̂2
n
X
2 Yi − β̂1 − β̂2 Xi · −Xi = 0
i=1
n
X n
X n
X
Yi Xi − β̂1 Xi − β̂2 Xi2 = 0
i=1 i=1 i=1
Reemplazado (1) en la última ecuación, se tiene:
n
P n
P
n Yi Xi n n
i=1
− β̂2 i=1
X X X
Xi2 = 0
Yi Xi −
n
Xi − β̂2
i=1
n
i=1 i=1
| {z }
β̂1
35 / 66
Mínimos Cuadrados Ordinarios
n n n
! n n
X X X X X
n Yi Xi − Yi − β̂2 Xi Xi − nβ̂2 Xi2 = 0
i=1 i=1 i=1 i=1 i=1
n n n n
!2 n
X X X X X
n Yi Xi − Yi Xi + β̂2 Xi − nβ̂2 Xi2 = 0
i=1 i=1 i=1 i=1 i=1
!2
n
X n
X n
X n
X n
X
n Yi Xi − Yi Xi − β̂2 n Xi2 − Xi =0
i=1 i=1 i=1 i=1 i=1
Pn Pn Pn
n i=1 Yi Xi − i=1 Yi i=1 Xi
β̂2 = (2)
n i=1 Xi − ( i=1 Xi )2
Pn 2 Pn
36 / 66
Mínimos Cuadrados Ordinarios
Por lo tanto, el valor de β̂1 y β̂2 de MCO está dado por las
expresiones (1) y (2), respectivamente.
Notar que al dividir al multiplicar el numerador y denominador
de β̂2 en (2) por 1/n se tiene:
Pn Pn
Pn Yi X
i=1 i
i=1 Yi Xi −
i=1
β̂2 = Pn n 2
Pn 2 ( i=1 Xi )
i=1 Xi − n
Pn
i=1 Yi Xi − nY X
β̂2 = P 2
n 2
i=1 Xi − nX
37 / 66
Mínimos Cuadrados Ordinarios
1
Pn Pn
Recordar que i=1
xi = i=1
yi = 0.
38 / 66
Mínimos Cuadrados Ordinarios
39 / 66
Mínimos Cuadrados Ordinarios
40 / 66
Mínimos Cuadrados Ordinarios
Ŷi = Ȳ + β̂2 xi
n
X n
X n
X
Ŷi = Y + β̂2 xi
i=1 i=1 i=1
Xn
Ŷi = nY
i=1
Pn
i=1 Ŷi
=Y
n
Por lo tanto, la primera propiedad algebraica implica que:
Ŷ = Y
41 / 66
Mínimos Cuadrados Ordinarios
Propiedad
2 : El promedio de los errores estimados es igual a cero
µ̂ = 0
µ̂i = Yi − Ŷi
µ̂i = Yi − β̂1 + β̂2 Xi
µ̂i = Yi − β̂1 − β̂2 Xi
µ̂i = Yi − Ȳ − β̂2 X̄ − β̂2 Xi
µ̂i = Yi − Ȳ − β̂2 Xi − X̄
µ̂i = yi − β̂2 xi
n
X n
X n
X
µ̂i = yi − β̂2 xi
i=1 i=1 i=1
Xn
µ̂i = 0 → µ̂ = 0
i=1 42 / 66
Mínimos Cuadrados Ordinarios
Propiedad 3 : La función de regresión muestral (FRM) pasa a
través de las medias muestrales de Y y de X .
44 / 66
Mínimos Cuadrados Ordinarios
Propiedad 4 : Los residuos estimados, µ̂i , no están correlacionados
con el valor predicho de la variable dependiente, Ŷi .
Para demostrar lo anterior, la FRM puede ser modificada y
presentada en su forma de desvíos respecto de la media. Esto es:
46 / 66
47 / 66
Mínimos Cuadrados Ordinarios
n
X n
X n
X
ŷi µ̂i = xi yi − β̂2 xi2
i=1 i=1 i=1
Xn
ŷi µ̂i = 0
i=1
2
Pn
Notar
P que para llegar a i=1
ŷi µ̂i = 0 se utilizó el hecho que
n
xi yi
β̂2 = Pi=1
n .
x2
i=1 i 47 / 66
Mínimos Cuadrados Ordinarios
Propiedad 5 : Los residuos estimados, µ̂i , no están correlacionados
con Xi .
49 / 66
Modelo Clásico de Regresión Lineal
50 / 66
Modelo Clásico de Regresión Lineal
51 / 66
Modelo Clásico de Regresión Lineal
Supuesto 3 : El valor medio de las perturbaciones, µi , es igual
a cero.
Este supuesto establece que dado un valor de Xi , la media, o
el valor esperado, del término estocástico aleatorio de
perturbación, µi , es igual a cero. Esto es, el valor de la media
condicional de µi es cero:
54 / 66
Modelo Clásico de Regresión Lineal
55 / 66
Modelo Clásico de Regresión Lineal
56 / 66
Modelo Clásico de Regresión Lineal
57 / 66
Modelo Clásico de Regresión Lineal
58 / 66
Modelo Clásico de Regresión Lineal
59 / 66
Modelo Clásico de Regresión Lineal
Autocorrelación Autocorrelación No
Positiva Negativa autocorrelación
60 / 66
Modelo Clásico de Regresión Lineal
61 / 66
Modelo Clásico de Regresión Lineal
62 / 66
Modelo Clásico de Regresión Lineal
n>k
63 / 66
Modelo Clásico de Regresión Lineal
64 / 66
Modelo Clásico de Regresión Lineal
65 / 66
Modelo Clásico de Regresión Lineal
66 / 66