Você está na página 1de 6

4.

8 ERROR DE ESPECIFICACION: INCLUSION VARIABLES IRRELEVANTES

𝑦 = 𝑋 ∗𝛽∗ + 𝑣
Demostración:

̂1 ∗ + 𝛽
𝑛𝛽 ̂2 ∗ ∑ 𝑋2𝑖 + 𝛽
̂3 ∗ ∑ 𝑋3𝑖 + ⋯ + 𝛽
̂𝑘 ∗ ∑ 𝑋𝑘𝑖 = ∑ 𝑦𝑖

̂1 ∗ ∑ 𝑋2𝑖 + 𝛽
𝛽 ̂2 ∗ ∑ 𝑋2𝑖
2 ̂3 ∗ ∑ 𝑋2𝑖 𝑋3𝑖 + … + 𝛽
+𝛽 ̂𝑘 ∗ ∑ 𝑋2𝑖 𝑋𝑘𝑖 = ∑ 𝑋2𝑖 𝑦𝑖

̂1 ∗ ∑ 𝑋3𝑖 + 𝛽
𝛽 ̂2 ∗ ∑ 𝑋3𝑖 𝑋2𝑖 + 𝛽
̂3 ∗ ∑ 𝑋3𝑖
2 ̂𝑘 ∗ ∑ 𝑋3𝑖 𝑋𝑘𝑖 = ∑ 𝑋3𝑖 𝑦𝑖
+…+ 𝛽

………………………………………………………….

̂1 ∗ ∑ 𝑋𝑘𝑖 + 𝛽
𝛽 ̂2 ∗ ∑ 𝑋𝑘𝑖 𝑋2𝑖 + 𝛽
̂3 ∗ ∑ 𝑋𝑘𝑖 𝑋3𝑖 + … + 𝛽
̂𝑘 ∗ ∑ 𝑘𝑋𝑖2 = ∑ 𝑋𝑘𝑖 𝑦𝑖

Expresando de la forma matricial se tiene:

𝑛 ∑ 𝑋2𝑖 ∑ 𝑋3𝑖 …. ∑ 𝑋𝑘𝑖 ̂1 ∗


𝛽 𝑦
1 1 … 1 𝑦1
̂2 ∗
𝛽
∑ 𝑋2𝑖 2
∑ 𝑋2𝑖 ∑ 𝑋2𝑖 𝑋3𝑖 … ∑ 𝑋2𝑖 𝑋𝑘𝑖 𝑋
= [ 21 𝑋22 … 𝑋2𝑛 ] [ ⋮2 ]
⋮ 𝑋𝑘1 𝑋𝑘2 … 𝑋𝑘𝑛 𝑦
2 ̂𝐾 ∗ ]
[𝛽 𝑛
[∑ 𝑋𝐾𝑖 ∑ 𝑋𝐾𝑖 𝑋2𝑖 ∑ 𝑋𝐾𝑖 𝑋3𝑖 … ∑ 𝑋𝐾𝑖 ]

(𝑋 ′ 𝑋) × 𝛽̂ ∗ = 𝑋′ × 𝑦

4.9 EL TEOREMA DE FRISCH-WAUGH


Sale considerando el Modelo

𝛽
𝑦 = [𝑋1 𝑋2 ] [ 1 ] + 𝓔
𝛽2
1. PASO Se regresiona 𝑦 sobre 𝑋𝐵 y se calcula residuos

Ɛ̂𝑌 − 𝐴 = 𝑦 − 𝑋2 𝛽̂2
= 𝑦 − 𝑋2 (𝑋´2 𝑋2 )−1 𝑋´2 𝑦

= (𝐼 − 𝑋2 (𝑋´2 𝑋2 )−1 𝑋´2 )𝑦


= 𝑀𝑋2 𝑦

METODO DE REGRECION LINEAL


Demostramos analíticamente que, en el modelo de regresión lineal simple
𝑦𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑢𝑖 , en el cuadro del coeficiente de correlación lineal coincide con el
coeficiente de determinación.
El coeficiente de correlación lineal simple para valores centrado es:
𝑆𝑥,𝑦 𝑥´𝑦
𝑟𝑥,𝑦 = =
𝑆𝑥 𝑆𝑦
√𝑥´𝑥√𝑦´𝑦

Por tanto su cuadro será:

2
(𝑥´𝑦) (𝑥´𝑦) 𝛽2 𝑥´𝑦
𝑟𝑥,𝑦 = . = = 𝑅2
(𝑥´𝑥) (𝑦´𝑦) 𝑦´𝑦
𝛽2 = (𝑥´𝑥)
Luego condiciones
𝑀𝑋2 𝑒𝑠 𝑜𝑟𝑡𝑜𝑔𝑜𝑛𝑎𝑙 𝑎 𝑋2 , 𝐼𝑑𝑒𝑚𝑝𝑜𝑡𝑒𝑛𝑡𝑒 𝑦 𝑠𝑖𝑚𝑒𝑡𝑟𝑖𝑐𝑎. 𝐴𝑑𝑒𝑚𝑎𝑠, 𝐼 − 𝑀𝑋2

𝑒𝑠 𝑠𝑒𝑚𝑖 𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑎 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑎 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜𝑋2

2. PASO Pre multiplicar por 𝑀𝑋2 el modelo inicial

= 𝑀𝑋2 𝑦 = 𝑀𝑋2 𝑋1 𝛽1 + 𝑀𝑋2 𝑋2 𝛽2 + 𝑀𝑋2 𝜀

𝑅𝑒𝑝𝑎𝑠𝑜 𝑋2 𝛽2 = 𝐼; 𝑀. 𝑋 = 0
= 𝑀𝑋2 𝑋1 𝛽1 + 𝑀𝑋2 𝑋

𝑃𝑎𝑟𝑎 𝑙𝑎 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛 𝑋 = 𝑀𝑋2 𝑋1

3. PASO Aplicar MCO en modelo pre multiplicado


−1
𝛽1 = ( (𝑀𝑋2 𝑋1 )´ (𝑀𝑋2 𝑋1 )) (𝑀𝑋2 𝑋1 )´𝑀𝑋2 𝑦
−1
= (𝑋´𝐴 𝑀´𝑋2 𝑀𝑋2 𝑋1 ) 𝑋´1 𝑀´𝑋2 𝑀𝑋2 𝑦
−1
= (𝑋´1 𝑀𝑋2 𝑋1 ) 𝑋´1 𝑀𝑋2 𝑦
4.10. DESCOMPOSICION DE LA SUMA DE CUADRADOS:
De forma similar al capítulo 2, si puede presentar el modelo de variables con sus
variables en desviaciones respecto a sus promedios muestrales. Para hacerlo en términos
matriciales, trabajemos con una matriz que transforma cualquier vector columna en
desviaciones respecto a la media. Esta matriz es:
1
𝐴 = 𝐼 − 𝑖(𝑖 ′ 𝑖)−1 𝑖 ′ = 𝐼 − 𝑛 𝑖𝑖 ′ (4.29)

Que es un caso especial de la matriz generadora de residuos 𝑀 = 𝐼 − 𝑋(𝑋 ′ 𝑋)−1 𝑋 ′


cuando 𝑋 = 𝑖, una columna de uno. Por ello, 𝐴 es simétrica e idempotente, además,
𝐴𝑖 = 0. Por ejemplo, si premultiplicamos al vector 𝑦 por la matriz 𝐴, tenemos:
𝑦1 − 𝑌̅
1 𝑌̅
𝐴𝑦 = 𝑦 − 𝑖𝑖 ′ 𝑦 = 𝑦 − 𝑖𝑦̅ = 𝑦2 −
𝑛 ⋮ ⋮ ⋮
[𝑦3 − ̅
𝑌]
Multiplicando el modelo estimado (4.13) por 𝐴, se obtiene:

𝐴𝑦 = 𝐴𝑋𝛽̂ + 𝐴𝑒
Particionamos a la matriz 𝑋 en su primetra columna (columna de unos, 𝑖) y el resto de
sus variables explicativas en una matriz llamada 𝑋2, quedando:

𝛽̂
𝐴𝑦 = 𝐴[𝑖 𝑋2 ] [ 1 ] + 𝐴𝑒
𝛽̂2
̂𝟐 es un vector k-1 x 1 de estimadores de las pendientes del modelo. Dado que
Donde 𝜷
𝑨𝒆 = 𝒆 (pues el promedio de 𝒆 es igual a cero) y como 𝑨𝒊 = 𝟎, resulta:
̂𝟐 + 𝒄
𝑨𝒚 = 𝑨𝑿𝟐 𝜷 (4.30)

La expresión (4.30) es la generalización matricial de la ecuación 𝒚𝒊 = 𝜷 ̂𝟐 𝒙𝒊 + 𝒆𝒊 . En


ambas no aparece el estimador del intercepto 𝛽 ̂1 . Para obtener la sumatoria de cuadrados
totales, tenemos que realizar el producto interno del vector 𝑨𝒚.

𝒚′ 𝑨′ 𝑨𝒚 = 𝜷̂𝟐 ′𝑿′𝟐 𝑨′ 𝑨𝑿𝟐 𝜷


̂𝟐 + 𝜷
̂𝟐 𝑿′𝟐 𝑨′ 𝒆 + 𝒆′ 𝑨𝑿𝟐 𝜷
̂𝟐 + 𝒆′𝒆

Contando con las propiedades de simetría e idempotencia de 𝑨 y sabiendo que 𝑨′ 𝒆 = 𝒆


y que 𝑿′𝟐 𝒆 = 𝟎, la última ecuación se reduce a:
̂𝟐 𝑿′𝟐 𝑨𝑿𝟐 𝜷
𝒚′ 𝑨𝒚 = 𝜷′ ̂𝟐 + 𝒆′𝒆

En donde 𝒚′ 𝑨𝒚 es la suma de cuadrados totales (SCT), 𝜷′̂𝟐 𝑿′𝟐 𝑨𝑿𝟐 𝜷


̂𝟐 es la suma de
cuadrados explicada por la regresión (SCE) y 𝒆′𝒆 es la suma de cuadrados de los
residuos (SCR).
Estas expresiones tienen versiones equivalentes, donde las equivalencias son fácilmente
comprobables. Se cumple que 𝒚′ 𝑨𝒚 es equivalente a 𝑦 ′ 𝑦 − 𝑛 𝑌̅ 2 . También es cierto que
la SCE 𝜷′̂𝟐 𝑿′𝟐 𝑨𝑿𝟐 𝜷 ̂𝟐 𝑿′𝟐 𝑨𝒚 y es exactamente igual a 𝛽′
̂𝟐 es equivalente a 𝜷′ ̂ 𝑋 ′ 𝑋𝛽̂ −
𝑛 𝑌̅ 2 .
Utilizando cualquiera de estas expresiones, podemos construir el <<coeficiente de
determinación>> R- cuadrado como:
̂𝟐 𝑿′𝟐 𝑨𝒚
𝜷′ ̂𝟐 𝑿′𝟐 𝑨𝑿𝟐 𝜷
𝜷′ ̂𝟐 𝒆′𝒆
𝑅2 = ′
= ′
= 1− ′
𝒚 𝑨𝒚 𝒚 𝑨𝒚 𝒚 𝑨𝒚

El R- cuadrado en el modelo multivariado tiene el problema que siempre aumenta


cuando se incorporan nuevas variables explicativas en la regresión. Este aumento se
produce inclusive si agregamos variables irrelevantes al modelo. Si consideramos tener
una R-cuadrada alto es algo bueno para la estimación, el investigador puede verse tetado
en adicionar muchas variables al modelo con el fin de elevar este indicador, pues el R-
cuadrado aumentará aun si se añaden variables irrelevantes. Esto acarrea problemas
dado el efecto que puede producirse sobre las varianzas de los estimadores cuando se
agregan variables irrelevantes de la regresión.

Para evitar la distorsión en el R-cuadrado, se ha propuesto una versión corregida de este


indicador de bondad de ajuste. El R-cuadrado ajustado se define como:
𝑆𝐶𝑅⁄
(𝑛−𝑘) 𝑛−1 𝑆𝐶𝑅
𝑅 2 Ajustado = 1- 𝑆𝐶𝑇 = 1 - (𝑛−𝑘) (𝑆𝐶𝑇 )
⁄(𝑛−1)

En donde se ha corregido la sumatoria de cuadrado residual y total por sus grados de


libertad. Esta fórmula castiga la inclusión de muchas variables, en el sentido que si K
aumenta, la SCR disminuye y paralelamente (𝑛 − 1⁄𝑛 − 𝑘) aumenta. Luego, para que
el R-cuadrado ajustado aumente, el efecto de la inclusión sobre la SCR debe ser más
fuerte que el ocasionado en (𝑛 − 1⁄𝑛 − 𝑘).Si ocurre así, se podría pensar que la
variable incluida si es relevante.

Existen otros criterios utilizados para comparar o decidir la inclusión o exclusión de


variables, similares al R-cuadrado ajustado. Uno de ellos es el ¨criterio de información
de Akaike¨ (Akaike 1973), que se calcula como:
𝑆𝐶𝑅 2𝐾
Criterio de información de Akaike = ln( )+
𝑛 𝑛

En ambos casos, el efecto de la adición de una variable se analiza en forma similar que
el

R-cuadrado ajustado, pues involucra el efecto de esta variable sobre la SCR y también
considerando el castigo por esta adición, que en estos casos se observa en la última
expresión de lado derecho. Se trata de encontrar la especificación que minimice estos
criterios lo cual es especialmente útil en modelos rezagos distribuidos, en donde una
variable explicativa aparece como múltiples rezagos temporales en la regresión y se
debe seleccionar cuantos rezagos incluir en el modelo.
 DEMOSTRACIÓN DE LA DESCOMPOSICION DE LA SUMA DE
CUADRADOS

1
A= I-i(i´i)−1i´=I-𝑛 = ii´

Si tenemos la matriz generadora de residuos:


M = I-X(X´X)−1X´
Sabemos que X es una matriz de n por k
Entonces cuando k=1, las columnas son 1 tenemos
M°=A=I-i(i´i)−1i´
Propiedades de la matriz A
 Es cuadrada:
I-i(i´i)−1i´
(nxn)-nx1 (1xn nx1)−1 1xn
(nxn)-nx1 1x1 1xn
(nxn)-nx1 1xn
(nxn)-(nxn)= nxn……… por ello se dice que es cuadrada
 Es simétrica:
I-i(i´i)−1i´=[I − i(i´i)−1 i´]´
= I´- i´(ii´)−1i
= I − i(i´i)−1 i´

 Es idempotente:
I − i(i´i)−1 i´(I − i(i´i)−1 i´)
Multiplicamos usando la distributiva
I − i(i´i)−1 i´ − i(i´i)−1 i´+ i(i´i)−1 i´i(i´i)−1 i´
denotemos a i´i con la letra a entonces tenemos
= I − i(i´i)−1 i´ − i(i´i)−1 i´+ i(i´i)−1 a(a)−1 i´
Sabemos que una matriz por su inversa es la identidad
= I − i(i´i)−1 i´ − i(i´i)−1 i´+ i(i´i)−1 Ii´
= I − i(i´i)−1 i´

Você também pode gostar