Você está na página 1de 27

Econometría I

El Modelo Lineal General (I): Estimación


Miguel Jerez y Sonia Sotoca
Universidad Complutense
p de Madrid

Septiembre 2009

Ver. 28/09/2006, Slide # 1


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 2


El modelo lineal general (I): Definición
Sea el Modelo Lineal General (MLG), definido por:
k
y t = ∑ βi xti + εt (t = 1, 2, … , n ) (1)
i =1

en donde:
yt : observación
b ió t-ésima
té i d
de lla variable
i bl endógena
dó od
dependiente,
di t
xti : observación t-ésima de la i-ésima variable exógena, variable explicativa o regresor,
βi és o parámetro
: i-ésimo pa á et o o coeficiente,
coe c e te,
εt : t-ésimo valor del término de error o perturbación,
k : número de parámetros, y
n : número de observaciones o casos de la muestra.

Por tanto el MLG define una relación:


• lineal entre una variable endógena y k variables explicativas,
• estocástica, ya que admite errores de ajuste, y
• útil para iinferir
f i llos valores
l y t condicionados
di i d a xti ( i = 1, 2, … , k )

Ver. 28/09/2006, Slide # 3


El modelo lineal general (II): Formulaciones matriciales
En notación vectorial, la expresión (1) puede escribirse como:
y t = x tT β + εt (t = 1, 2, … , n )
en donde:
d d
x tT : vector (1xk) de observaciones de cada una de las k variables explicativas
correspondientes al caso t-ésimo, y
β : vector
t (kx1)
(k 1) d
de parámetros.
á t
o, de forma más compacta, como:
y = X β +ε (2)
en donde:
y : vector (nx1) de observaciones de la variable endógena, y
X : matriz ((nxk)) q
que recoge
g en cada fila las observaciones de todas las variables
explicativas correspondientes a cada valor de la variable endógena y, en cada columna,
recoge todas las observaciones de cada variable explicativa:
⎡ x1T ⎤ ⎡ x11 x12 … x1k ⎤
⎢ ⎥ ⎢ ⎥
⎢ xT ⎥ ⎢ x x22 … x2 k ⎥
X = ⎢⎢ 2 ⎥⎥ = ⎢⎢ 21 ⎥

⎢ ⎥ ⎢ ⎥
⎢ xT ⎥ ⎢x xn 2 … xnk ⎦⎥
⎣⎢ n ⎦⎥ ⎣ n1

Ver. 28/09/2006, Slide # 4


El modelo lineal general (III): Interpretación de los coeficientes
Cuando las variables explicativas son continuas, los coeficientes de un modelo de
regresión pueden interpretarse como derivadas (parciales) de la variable endógena con
p
respecto a las variables explicativas.
p Si las variables tienen algún
g tipo
p de transformación,
esta interpretación general puede concretarse de varias formas. Por ejemplo:

Modelo Interpretación matemática y conceptual

dy Cambio esperado en yt cuando xt


y t = β xt + εt β= t aumenta en una unidad
dxt
Cambio porcentual (en tanto por
d ln y t x dy t uno) esperado en yt cuando xt
ln y t = β ln xt + εt β= = t
d ln xt y t dxt aumenta un uno por ciento (en tanto
por uno)
d ln y t 1 dy t Cambio porcentual (en tanto por
ln y t = β xt + εt β= = uno) esperado en yt cuando xt
dxt y t dxt aumenta
t en una unidad
id d
dy t dy Cambio esperado en yt cuando xt
y t = β ln xt + εt β= = xt t aumenta un uno por ciento (en tanto
d ln xt dxt
por uno)

Ver. 28/09/2006, Slide # 5


El modelo lineal general (IV): Utilidad
Entre otros usos, los modelos de regresión resultan útiles para:
• Predecir los valores de las variables endógenas que con mayor probabilidad
acompañarán a un conjunto de valores concretos de las variables explicativas
explicativas. Ejemplo:
Los sistemas de scoring crediticio de los bancos comerciales estiman la probabilidad de
impago de las solicitudes de préstamo en función de las características de la operación
y del solicitante
• Controlar, calculando los valores las variables explicativas sobre las que se tiene
influencia que generarán con mayor probabilidad el valor que se desea para la variable
endógena. Ejemplo: Los bancos centrales calculan el nivel de los tipos de intervención
que llevará la tasa esperada de inflación al objetivo
• Descomponer, estimando la contribución de cada variable explicativa a los valores
observados de las variables endógenas. Ejemplo: Calcular la contribución de la
inversión publicitaria a las ventas, dados el precio de un producto
• Simular el comportamiento de la variable endógena ante: (a) una hipótesis sobre el
comportamiento de las variables exógenas y (b) valores aleatorios del término de error.
Por ejemplo, se desea simular el rendimiento de una cartera de valores ante una
hipótesis de revalorización de un índice bursátil para calcular numéricamente la
probabilidad de pérdidas
• Estimar una derivada o elasticidad. Por ejemplo, el cambio de valor esperado en una
cartera
t ante
t movimientos
i i t en un índice
í di es un parámetro
á t iimportante
t t para decidir
d idi lla
cobertura óptima de la cartera
Ver. 28/09/2006, Slide # 6
El modelo lineal general (V): Cuestiones abiertas

El MLG plantea, inicialmente, tres problemas estadísticos relevantes:


Estimación que consiste en obtener una buena aproximación al valor de los
• Estimación,
parámetros a partir de una muestra de las variables xt e yt.
• Inferencia (o contraste de hipótesis), acerca del verdadero valor de los
parámetros.
parámetros
• Previsión de valores no observados de la variable endógena a partir del
modelo estimado y los correspondientes valores de las variables exógenas.
Para resolver estos tres problemas es necesario hacer una serie de hipótesis acerca
del MLG. Esto da lugar un cuarto problema:
• Diagnosis que consiste en, una vez estimado el modelo tentativo:
• detectar incumplimientos de las hipótesis,
• valorar sus posibles efectos negativos sobre la estimación, inferencia y
previsión y,
y si se considera necesario
necesario,
• resolver los problemas que puedan producirse.

Ver. 28/09/2006, Slide # 7


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 8


Hipótesis del modelo (I)
[H.1] El modelo está correctamente especificado. Dentro de esta hipótesis general,
pueden distinguirse tres hipótesis parciales:
[H.1.1] La relación entre la variable endógena y las variables explicativas es lineal.
[H.1.2] El modelo incluye todas las variables explicativas relevantes.
[H.1.3] El modelo no incluye ninguna variable explicativa irrelevante.
[H.2] Los parámetros del modelo son constantes, al menos dentro de la muestra
que se está considerando.
[H.3]
[H 3] S
Suficientes
fi i t grados
d de lib t d El número
d libertad. ú d
de observaciones
b i es all menos iiguall
que el número de parámetros que se desea estimar. Matemáticamente: n ≥ k.
[H.4] Regresores no estocásticos. Las variables explicativas son deterministas.
[H.5] Ausencia de colinealidad. Las variables explicativas son linealmente
independientes o, equivalentemente, que X T X ≠ 0
[H.6] Perturbaciones esféricas:
[H.6.1] Esperanza nula: E ( εt ) = 0 (t = 1, 2, … , n )
2 2
[H.6.2] Homoscedasticidad: var( εt ) = E (εt ) = σ (t = 1, 2, … , n )
[H.6.3] Ausencia de autocorrelación: cov( εt , ετ ) = E ( εt ετ ) = 0 (t ≠ τ )

Ver. 28/09/2006, Slide # 9


Hipótesis del modelo (II)

[H.7] Normalidad. La distribución de probabilidad del término de error es normal.

A menudo las hipótesis [H.6] y [H.7] se resumen en el siguiente enunciado:

y idéntica e independientemente
“El término de error del MLG se distribuye p como una
variable aleatoria normal, de media nula y varianza constante”.

En notación matemática:

ε X ∼ N (0, σ 2 I ) o bien: εt x tT ∼ iid N (0, σ 2 ) (t = 1, 2, … , n )


Teniendo en cuenta la expresión (2) resulta trivial demostrar que:
T T 2
y X ∼ N ( X β, σ 2I ) o bien: y t x t ∼ iid N ( x t β, σ ) (t = 1, 2, … , n )

Por tanto, las hipótesis [H.1], [H.4], [H.6] y [H.7] permiten caracterizar completamente la
estructura estocástica de y dada la información disponible en X. X

Ver. 28/09/2006, Slide # 10


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 11


Mínimos cuadrados ordinarios (I): Estimador
Lo que caracteriza a un método de estimación es:
• el criterio que utiliza para estimar los parámetros β a partir de la muestra, y
• sus propiedades frente a otros estimadores.
A partir del MLG en forma vectorial [expresión (2)], y una estimación concreta de β, que
denotaremos β β̂ , definimos:
• el vector de valores ajustados o “previsiones intramuestrales”, yˆ = X βˆ
• el correspondiente vector de residuos como: εˆ = y − yˆ = y − X βˆ
Un posible criterio consiste en calcular el valor de β̂ que minimiza la suma de los residuos
al cuadrado. Este criterio se conoce como de mínimos cuadrados ordinarios (MCO).
Para aplicarlo es necesario resolver el siguiente problema de optimización:

Min S( βˆ ) = ( y − X βˆ )Τ ( y − X βˆ ) = y Τ y − 2 βˆ Τ X T y + βˆ Τ X T X βˆ
βˆ
C
Cuyas condiciones
di i d
de primer
i orden
d proporcionan
i lla siguiente
i i t solución
l ió (b
(bajo
j [H
[H.3]
3] y [H
[H.5]):
5])
δS( βˆ )
= 0; − 2 X T
y + 2 X T
X βˆΜCΟ = 0 ;
δβˆ Τ
(3)
X T X βˆΜCΟ = X T y ⇔ βˆΜCΟ = ( X T X )−1 X T y

Ver. 28/09/2006, Slide # 12


Mínimos cuadrados ordinarios (II): Normalidad e insesgadez
De acuerdo con [H.1], la expresión (3) puede escribirse como:
βˆΜCΟ = ( X T X )−1 X T ( X β + ε ) = β + ( X T X )−1 X T ε (4)

y, consecuentemente, si se cumplen [H.4], [H.6] y [H.7]:


• la distribución del estimador es normal, ya que βˆΜCΟ es una función lineal
determinista de una variable aleatoria normal
normal, y
• el estimador es insesgado; Aplicando el operador esperanza a ambos lados de
(4) se obtiene Ε ( βˆ ΜCΟ X ) = β + ( X X ) X Ε (ε X ) = β
T −1 T

Por tanto, β es un vector determinista, pero su estimador por MCO es un vector de


variables aleatorias normales, centradas en el valor que se quiere estimar.

Cada estimación de β es una muestra de


la variable βˆΜCΟ . La insesgadez significa
que esta muestra probablemente saldrá del
entorno del centro de la distribución, que
coincide con el verdadero valor.
f (β
β̂MCO )
β
Ver. 28/09/2006, Slide # 13
Mínimos cuadrados ordinarios (III): Eficiencia
Para caracterizar completamente la distribución del estimador, es necesario obtener su
matriz de covarianzas. A partir de (4):

cov ( βˆ ΜCΟ ) = E ⎢⎡( βˆ ΜCΟ − β )( βˆ ΜCΟ − β )T X ⎤⎥ =


⎣ ⎦
= E ⎡⎢⎣( X X ) X εε X ( X X ) ⎤⎥⎦ =
T − 1 T T T − 1

= ( X T X )−1 X T E (εεT X ) X ( X T X )−1 = σε2 ( X T X )−1 (5)

(Gauss Markov): Si se cumplen las hipótesis [H.1]


Teorema (Gauss-Markov): [H.1]-[H.6]
[H.6] del MLG, entonces
cov( β ) − cov( βˆΜCΟ )
es una matriz semidefinida positiva, siendo β cualquier estimador lineal e insesgado de β
• De forma sintética, este teorema puede enunciarse diciendo que el estimador
MCO es “BLUE” (Best Linear Unbiased Estimator)
• Este resultado es válido aunque los errores no sigan una distribución normal.
• Si los errores son normales, la estimación MCO es máximo verosímil y óptima
dentro de la familia de estimadores insesgados de β
E t teorema
Este t se demuestra
d t en ell Anexo
A A.1.
A1

Ver. 28/09/2006, Slide # 14


Mínimos cuadrados ordinarios (IV): Estimación de la varianza
residual y la matriz de covarianzas
Como vimos en (5), cov ( βˆΜCΟ ) = σε2 ( X T X )−1 . Evidentemente esta expresión no
2
es computable
t bl ya que ell verdadero
d d valor
l d de σε es, en generall d
desconocido.
id
Para estimar la varianza del término de error puede usarse la expresión:
1
σε2 =
σ̂ εˆT εˆ (6)
n −k
Que proporciona estimaciones insesgadas (ver Anexo A.2).
Consecuentemente,, la matriz de covarianzas del estimador MCO puede
p estimarse
usando la expresión:
ˆ ( βˆΜCΟ ) = σˆ ε2 ( X T X )−1
cov (7)
2 2
y, si E (σˆ ε ) = σε y las variables explicativas son números fijos, esta estimación será
insesgada.

Ver. 28/09/2006, Slide # 15


Mínimos cuadrados ordinarios (V): Distribución de los valores
ajustados y los residuos
A partir de (4) y de la definición de los valores ajustados, resulta inmediato que:
yˆ = X ⎡ β + ( X T X )−1 X T ε ⎤ = X β + X ( X T X )−1 X T ε
⎢⎣ ⎥⎦
y, consecuentemente, bajo las hipótesis [H.1], [H.4], [H.6] y [H.7] del MLG, resulta:
E ( yˆ X ) = X β
cov ( yˆ X ) = X ( X T X )−1 X T E (εεT ) X ( X T X )−1 X T = σε2 X ( X T X )−1 X T

luego: yˆ X ∼ N ( X β, σε2 X ( X T X )−1 X T )


Por otra parte,
εˆ = y − yˆ = X β + ε− X β − X ( X T X )−1 X T ε = ⎡⎢⎣ I − X ( X T X )−1 X T ⎥⎦⎤ ε
Por tanto, bajo las hipótesis del MLG podemos escribir:
E (εˆ X ) = 0
cov (εˆ X ) = ⎡⎢⎣ I − X ( X T X )−1 X T ⎤⎥⎦ E (εεT ) ⎡⎢⎣ I − X ( X T X )−1 X T ⎤⎥⎦
= σε2 ⎡⎢⎣I − X ( X T X )−1 X T ⎤⎥⎦ ⎡⎢⎣ I − X ( X T X )−1 X T ⎤⎥⎦ = σε2 ⎡⎢⎣ I − X ( X T X )−1 X T ⎤⎥⎦

{
luego: εˆ X ∼ N 0, σε
2 ⎡ I − X ( X T X )−1 X T ⎤
⎢⎣ ⎥⎦ }
Ver. 28/09/2006, Slide # 16
Mínimos cuadrados ordinarios (VI): Propiedades algebraicas
Cuando se estima el MLG por MCO, se cumplen las siguientes propiedades:
X T εˆ = 0 (8)
yˆ T εˆ = 0 (9)
y T y = yˆ T yˆ + εˆT εˆ (10)
y si el modelo tiene término constante se cumplen
y, cumplen, además
además, las siguientes propiedades:
i nT y = i nT yˆ (11)
i nT εˆ = 0 (12)
(y − μˆ y ) (y − μˆ y ) = (yˆ − μˆ yˆ ) (yˆ − μˆ yˆ ) + εˆT εˆ
T T
(13)

siendo in un vector (n×1) cuyas componentes son todas iguales a la unidad y μ


ˆ x un vector
(n×1) cuyas componentes son todas iguales a la media muestral de la variable que
aparece en el subíndice.
Por último, las propiedades (11)-(13) pueden expresarse de forma alternativa como:
μˆ y = μˆ yˆ (11’)
μˆ εˆ = 0 (12’)
σˆ y2 = σˆ y2ˆ + σˆ ε2ˆ (13’))
(13

Ver. 28/09/2006, Slide # 17


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 18


Máxima verosimilitud
Como vimos en apartados anteriores, bajo las hipótesis habituales se cumple que:
y X ∼ N ( X β, σ 2 I )
Por tanto la función de verosimilitud de las estimaciones, condicionada a la muestra es:

⎪⎧ 1 ⎪⎫
L( βˆ , σˆ 2 y , X ) = (2π )−n / 2 (σˆ 2 )−n / 2 exp ⎨− 2 ( y − X βˆ )Τ ( y − X βˆ )⎬
⎪⎩⎪ 2σˆ ⎪⎭⎪
y, consecuentemente, su logaritmo es:

n n 1
( βˆ , σˆ 2 y , X ) = − ln(2π ) − ln(σˆ 2 ) − 2 ( y − X βˆ )Τ ( y − X βˆ )
2 2 2σˆ
y las condiciones necesarias de primer orden para maximizar esta función son:
∂ () 1 ∂
∂βˆ Τ
= 0 ; −
2σ̂ ∂βˆ Τ
2 {( y − X ˆ )Τ ( y − X βˆ )} = 0 ; βˆ = ( X T X )−1 X T y
β ΜV

∂ () n 1 1 ˆ )Τ ( y − X βˆ ) = 0 ; σˆ 2 = 1 εˆT εˆ
= 0 ; − + ( y − X β MV
∂σˆ 2 2 σˆ 2 2σˆ 4 n
( ) de β coincide con el
Teniendo en cuenta resultados anteriores,, el estimador MV: (a)
MCO y (b) de la varianza del error es sesgado.

Ver. 28/09/2006, Slide # 19


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 20


Medidas de ajuste (I): El coeficiente de determinación
Las medidas de ajuste sirven para:
• cuantificar la reducción de incertidumbre que proporciona el modelo y
• comparar modelos alternativos para la misma muestra.
La medida de ajuste más conocida es el coeficiente de determinación o R2. Este
estadístico mide el porcentaje de la varianza de la variable dependiente que explica el
modelo. El coeficiente de determinación se define como:
(yˆ − μˆ yˆ ) (yˆ − μˆ yˆ )
T
ˆ yˆ )
var(
R2 = = (14)
(y − μˆ ) (y − μˆ )
T
ˆ y)
var(
y y

o, si el modelo tiene término constante:


2 εˆT εˆ ˆ εˆ))
var(
ar(
R = 1− = 1− (15)
(y − μˆ ) (y − μˆ )
T
ˆ y)
var(
y y

En principio
principio, un modelo es tanto mejor cuanto mayor sea su correspondiente R2 , ya que
un valor alto supone que el modelo explica gran parte de la variabilidad de y.

Ver. 28/09/2006, Slide # 21


Medidas de ajuste (II): Ajuste y sobreajuste
Las siguientes figuras muestran el ajuste de tres modelos distintos a una muestra que
recoge el peso y la edad de un grupo de ocho niños. Como puede verse, el mayor R2 no
siempre
p corresponde
p al mejor
j modelo.
65 65 65
2
p = 2.8367e + 20.612 p = -0.3573e + 10.119e - 14.545
60 2 p = -0.1663e 3 + 4.8722e 2 - 42.904e + 158.23
60 2
R = 0.8895 R = 0.9598 60
R2 = 0.9922

55 55 55
Peso (p)

Peso (p)

Peso (p)
50 50 50

45 45 45

40 40 40

35 35 35
6 8 10 12 14 16 6 8 10 12 14 16 6 8 10 12 14 16
Edad (e) Edad (e) Edad (e)

Una regresión lineal explica el Una regresión cuadrática Una regresión cúbica
89% de la varianza del peso mejora el R2 (96%) y muestra proporciona un ajuste de
El modelo es imperfecto un perfil intuitivamente más del 99%
(¿qué peso predice para un razonable Este es un buen resultado,
niño de 0 años?) A cambio, el nuevo modelo es siempre que estemos
Estas imperfecciones pueden más complejo, ya que dispuestos a aceptar que los
deberse a: (a) limitaciones de requiere
q estimar tres niños adelgazan
g appartir de
la muestra y (b) no linealidad parámetros en vez de dos los 13 años
de la relación
Ver. 28/09/2006, Slide # 22
Medidas de ajuste (III): Medidas alternativas

El uso mecánico del R2 induce a sobreajustar la muestra. Para resolver este problema,
a veces se usa un estadístico alternativo: el R2 corregido con grados de libertad:
εˆT εˆ
n-k n −1
R2 = 1 − = 1 − (1 − R 2 ) (16)
(y − μˆ y ) (y − μˆ y )
T
n−k
n −1
Este coeficiente: a) compara los estimadores insesgados de la varianza residual y de la
varianza de la variable dependiente y b) penaliza los modelos con un elevado número
de parámetros.
parámetros
Actualmente disponemos de medidas más sofisticadas para comparar modelos, como
por ejemplo los criterios de información de Akaike (AIC) y Schwartz (SBC)
εˆT εˆ
AIC = n ln(2π ) + n ln( ) + n + 2(k + 1) (17)
n
εˆT εˆ
SBC = n ln(2π ) + n ln( ) + n + (k + 1)ln(n ) (18)
n
El AIC prima la capacidad predictiva del modelo y tiende a sobreparametrizarlo, el SBC
prima la especificación correcta.

Ver. 28/09/2006, Slide # 23


Índice
• El modelo lineal general
• Hipótesis del modelo
• Mínimos cuadrados
ordinarios
• Máxima verosimilitud
• Medidas de ajuste
• Anexos

Ver. 28/09/2006, Slide # 24


Anexo A.1. Demostración del teorema de Gauss-Markov
Cualquier estimador lineal de β puede expresarse como:
β = ⎡⎢⎣( X T X )−1 X T + D ⎤⎥⎦ y = ⎡⎢⎣( X T X )−1 X T + D ⎤⎥⎦ ( X β + ε )
donde D es una matriz (k×n) arbitraria, que establece la diferencia entre el estimador
MCO y el estimador alternativo. Desarrollando la igualdad anterior y tomando esperanzas:
E ( β X ) = β + DX β ; E ( β X ) = β ⇔ DX = 0
por lo que el estimador alternativo sólo será insesgado si la matriz de distancia es
ortogonal a las variables explicativas. A continuación obtenemos la matriz de covarianzas
de este estimador
estimador.
β = β + DX β + ⎡⎣⎢( X T X )−1 X T + D ⎤⎥⎦ ε ...y, como DX = 0
= β + ⎡⎣⎢( X T X )−1 X T + D ⎤⎦⎥ ε ; β − β = ⎡⎢⎣( X T X )−1 X T + D ⎤⎦⎥ ε

por tanto:

{ T
cov( β ) = E ⎡⎣⎢( X T X )−1 X T + D ⎤⎦⎥ εεT ⎡⎣⎢( X T X )−1 X T + D ⎤⎦⎥ X }
= σε2 ⎡⎢⎣( X T X )−1 X T + D ⎤⎥⎦ ⎡⎢⎣ X ( X T X )−1 + DT ⎤⎥⎦
= σε2 ⎡⎢⎣( X T X )−1 + DDT ⎤⎥⎦

y DDT es una matriz semidefinida positiva, que es el resultado que queríamos demostrar.

Ver. 28/09/2006, Slide # 25


Anexo A.2. Insesgadez del estimador de la varianza del error

1
E (σˆ ε2 ) = E (εˆT εˆ X ) y, como : εˆ = ⎡⎢⎣I − X ( X T X )−1 X T ⎤⎥⎦ ε = M ε
n−k
1
= E (εT MM ε X ) por ser M idempotente,
n−k
1 1 1
= E (εT M ε X ) = E ⎡⎢tr (εT M ε) X ⎥⎤ = E ⎢⎡tr (M εεT ) X ) ⎥⎤
n−k n −k ⎣ ⎦ n−k ⎣ ⎦
1 1
= tr ⎡⎢M E (εεT X ) ⎤⎥ = σε2 tr (M )
n−k ⎣ ⎦ n−k
= σε2 ya que tr (M ) = n − k

Ver. 28/09/2006, Slide # 26


Miguel Jerez (mjerez@ccee.ucm.es)
Sonia Sotoca (sotoca@ccee.ucm.es)

Departamento de Fundamentos del Análisis Económico II


(Economía Cuantitativa)
Facultad de Ciencias Económicas, UCM

Más materiales en:


http://www.ucm.es/info/ecocuan/mjm/ectr1mj
http://econometriamj.blogspot.com/

Ver. 28/09/2006, Slide # 27

Você também pode gostar