Você está na página 1de 41

Tema 3:

Procedimientos de
Constrastación y Selección
de Modelos

1
TEMA 3: PROCEDIMIENTOS DE
CONTRASTACIÓN Y SELECCIÓN DE
MODELOS
3.1) Introducción a los Modelos con Restricciones.
Estimación Restringida.
3.2) Contrastes de Selección de Modelos
- Razón de Verosimiltud
- Test de Wald
- Multiplicadores de Lagrange
- Contraste de Nulidad de un Subconjunto de
Parámetros
3.3) Contraste de Chow de Cambio Estructural.
3.4) Contraste RESET de Ramsey
2
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

d
MODELO Y = X ⋅ β +U U → N (ϑ , σ u2 ⋅ I )

MCO - LINEAL βˆ MCO = W ⋅ Y


- INSESGADO E ( βˆ MCO ) = β
βˆMCO = ( X '·X ) · X '·Y
−1

- CONSISTENTE lim βˆ MCO = β


n→∞

- ÓPTIMOS

PREGUNTA: ¿Se Podría Mejorar la Estimación MCO?


La incorporación al proceso de estimación de algún tipo de INFORMACIÓN
EXTRÍNSECA e INSESGADA sobre los parámetros del modelo podría
permitir una mayor precisión de los βˆMCO (varianza más pequeña). 3
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo: MODELO NO-LINEAL

MODELO BASADO EN LA
FUNCIÓN DE PRODUCCIÓN Yi = γ ·K iα ·Lβi ·U i ∀i = 1,..., n
COBB-DOUGLAS

en donde LINEALIZABLE

Y es el output
¿CÓMO?
K es el factor productivo capital

Considerando un Modelo
L es el factor productivo trabajo Doble-Log
γ , α y β Son los parámetros del modelo
4
U es la perturbación
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:
MODELO NO-LINEAL
α β
Yi = γ ·K i ·Li ·U i

LINEALIZABLE

ln(Yi ) = ln γ + α ·ln( K i ) + β ·ln( Li ) + ln(U i )


γˆ0 ¿CÓMO SE INTERPRETAN
MCO α̂ LOS COEFICIENTES ELASTICIDADES
ESTIMADOS?
β̂ 5
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

Vamos a suponer que disponemos de INFORMACIÓN EXTRÍNSECA E


INSESGADA que confirma la HIPÓTESIS DE RENDIMIENTOS
CONSTANTES A ESCALA

H0 :α + β = 1 β = 1−α

Incorporando la Información en el Modelo obtenemos

ln(Yi ) = ln γ + α ·ln( K i ) + β ·ln( Li ) + ln(U i )  Yi   Ki 


ln  = ln γ + α ·ln   + ln(U i )
α + β =1  Li   Li 
∀i = 1,..., n 6
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

Y  K  MODELO
ln i  = ln γ + α ·ln  i  + ln(U i ) RESTRINGIDO
 Li   Li  Modelo que resulta de
aplicar la restricción
¿QUÉ OBSERVAMOS? β = 1−α
1 Hay un Menor Número de Parámetros a Estimar

2 Las Variables del Modelo Restringido son Diferentes


Variable  Yi 
Dependiente ln  Output por Trabajador
 Li 
Variable  Ki 
ln   Capital por Unidad de Trabajo 7
Independiente
 Li 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

PREGUNTA: ¿La Estimación MCO en el Modelo Restringido será MÁS


PRECISA que en el Modelo General?

¿ Var (αˆ MCO


Modelo Re stringido Modelo General
) < Var (αˆ MCO )?

RESPUESTA: SÍ
Dado el mismo número de
¿Por qué? observaciones n, en el modelo
restringido hay que estimar un menor
número de parámetros.

8
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

 Yi   Ki 
 
ln  = ln γ + α ·ln   + ln(U i ) MÍNIMOS CUADRADOS RESTRINGIDOS
 Li   Li 
  K1  
(
βˆ * = βˆMCR = X *' · X * )
−1
· X *' ·Y *
  Y1   1 ln  
 ln  
  L  ¿QUÉ VENTAJAS SE OBTIENE DE MCR?
  L1    1
  Y    K2  
1 ln Si la Hipótesis es cierta ….
 ln 2    
  L2     L2   βˆ * = βˆMCR es un estimador Lineal
Y = . 
*
X* = . . 
    Insesgado, Consistente, Óptimo y con
 .   . . 
 .  . .  una menor varianza que β̂ MCO aplicado
    
 ln Yn    K
1 ln n  
  L  al modelo sin restricciones. 9
  n    L 
  n 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

¿CÓMO SABER SI LA HIPÓTESIS DE RENDIMIENTOS


PREGUNTA
CONSTANTES A ESCALA ES CIERTA? ¿α + β = 1?

1 Especificar el Contraste

H0 :α + β = 1

2 Definir el Estadístico
d
αˆ + βˆ − 1 αˆ + βˆ − 1
t= = → t n − K −1
Var (αˆ + β )
ˆ Var (αˆ ) + Var ( β ) − 2·Cov(αˆ , β )
ˆ ˆ

3 Regla de Decisión
Si t < t n − K −1 Aceptamos H 0 : α + β = 1 10
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

PROCEDIMIENTO SEGUIDO EN LA ESTIMACIÓN MCR

1 Incorporar la Restricción en el Modelo General

α + β =1 ln(Yi ) = ln γ + α ·ln( K i ) + β ·ln( Li ) + ln(U i )

2 Especificar el Modelo Transformado o Restringido


Y  K 
ln i  = ln γ + α ·ln  i  + ln(U i )
 Li   Li 
3 Calcular los MCO del Modelo Restringido

(
βˆ * = βˆMCR = X *' · X * )
−1
· X *' ·Y * 11
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.
Un Ejemplo:

PROBLEMAS DE
SEGUIR ESTE SOLUCIÓN
PROCEDIMIENTO

Definir los Estimadores MCR de


Existen complicaciones si el forma general
1 número de restricciones es
mayor que 1

Puede suceder que el modelo


2
restringido sea complejo

12
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

De forma general vamos a suponer que existe q restricciones lineales de los


parámetros:

R·β = r o R·β − r = 0

en donde

R(qx ( K +1)) Matriz de Coeficientes Constantes (no estocásticos)

β ( K +1)x1 Vector con los Parámetros del Modelo

rqX 1 Vector con Valores Correspondientes a la Hipótesis Nula 13


TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Ejemplos de la Notación Matricial R·β = r


1 H 0 : β1 = 1 Tenemos 1 Restricción (q = 1)
R[1x ( K +1) ]·β [( K +1) x1] = r1x1
 β0 
β 
 1
 . 
[0 1 0 . . . 0]·  = 1
 . 
 . 
  14
 β K 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Ejemplos de la Notación Matricial R·β = r


2 H 0 : β1 + β 2 = 0 Tenemos 1 Restricción (q = 1)
R[1x ( K +1) ]·β [( K +1) x1] = r1x1
 β0 
β 
 1
 . 
[0 1 1 . . . 0]·  = 1
 . 
 . 
  15
 β K 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Ejemplos de la Notación Matricial R·β = r


3 H 0 : β 0 + β1 = 3 y H 0 : β 2 − β 3 + β K = 0 Tenemos 2 Restricción

R[2 x ( K +1) ]·β [( K +1) x1] = r2 x1


(q = 2)
 β0 
β 
 1
 β2 
 
1 1 0 0 0 . . . 0   β 3   3 
0 0 1 − 1 0 . . . 1· .  =  0 
   
 
 . 
 . 
  16
 β K 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Ejemplos de la Notación Matricial R·β = r


4 H 0 : β1 = β 2 = ... = β K = 0 Tenemos K Restricción (q = K )
R[Kx ( K +1) ]·β [( K +1) x1] = rKx1
 β0 
0 1 0 0 . . . 0    0 
0 β1  
 0 1 0 . . . 0    0 
 β2   
0 0 0 1 . . . 
0   0
   β3   
. . . . . . . . · =.
 .   
. . . . . . . .    . 
  . 
. . . . . . . .    . 
0  .  
 0 0 0 . . . 1   0 17
 β K 
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Contrastar el Cumplimiento de las Restricciones

H 0 : R· β = r
(R·βˆ − r )'·[R·Vˆar (βˆ )·R '] ·(R ⋅ βˆ − r )
−1
d (Ver
F= →F q , n − K −1
demostración)
q
Otras formas equivalentes

(e ·e
*' *
− e'·e ) (βˆ *
) (
− βˆ '·X '·X · βˆ * − βˆ )
q o q
F= F=
e'·e e'·e
n − K −1 n − K −1
* *
donde e y β son los residuos y los coeficientes estimados de la regresión
18
restringida.
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

Contrastar el Cumplimiento de las Restricciones

REGLA DE DECISIÓN

Se Rechaza la Hipótesis Nula


· Si F > Fq ,n − K −1,α NO MCR
H 0 : R· β = r

Se Acepta la Hipótesis Nula


· Si F ≤ Fq ,n − K −1,α H 0 : R· β = r SÍ MCR

19
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.1) Introducción a los Modelos con Restricciones.

MÍNIMOS CUADRADOS RESTRINGIDOS

¿Cómo Calcular los EMCR?

min SCE
{β }
ˆ
= e '·e = (Y − X ·βˆ )'·(Y − X ·βˆ )
(Ver
demostración)
S .a. : R·βˆ = r

( )
βˆR = βˆMCO + ( X '·X )−1 ·R'· R·( X '·X )−1 ·R' ·(r − R·βˆMCO )
−1

20
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.1) El Contraste de Razón de Verosimilitud
Sea:
· ϑ un Vector de Parámetros a Estimar.

· H 0 la Hipótesis Nula en la que se indica alguna restricción: H 0 : R·θ = θ 0

· ϑ̂u el Estimador de Máxima Verosimilitud sin tener en cuenta la restricción


· ϑ̂R el Estimador de Máxima Verosimilitud teniendo en cuenta la restricción

( )
· Lˆu ϑ̂u y Lˆ R ϑ̂R ( ) las funciones de verosimilitud evaluadas en ϑ̂u y ϑ̂R
respectivamente:
Lˆu = max L(Y , ϑ ) en donde Θ es el espacio de parámetros y W
{ϑ∈Θ}
es un subconjunto de ese espacio:
Lˆ R = max L(Y , ϑ ) ϑR ∈ w ⊂ Θ
{ϑ∈W } 21
ϑu ∈ Θ
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.1) El Contraste de Razón de Verosimilitud

Definición: La Razón de Verosimilitud


Idea: Si λ toma un valor muy
Lˆ R
λ= λ ∈ [0,1] bajo entonces dudaremos de la
Lˆu validez de la restricción (¿por
qué?).

ESTADÍSTICO DEL CONTRASTE RAZÓN DE VEROSIMILITUD:

d donde q es el
RV = −2·log(λ ) = 2·[log( Lˆu ) − log( Lˆ R )]→ χ q2 número de
restricciones.
Regla de Decisión:
Se Rechaza la Hipótesis Nula de
Si RV > χ q2,α Validez de las Restricciones. 22
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.2) El Contraste de Wald
Sea:
· ϑ̂u el Vector de Parámetros Estimados obtenido sin tener en cuenta las
restricciones.

· La Hipótesis Nula en la que se indica alguna restricción:

H 0 : R·θ = ϑ0
ESTADÍSTICO DE WALD:
d
'
[
W = [R·ϑˆu − ϑ0 ] · R·Vˆar (ϑˆu )·R ] ·[R·ϑˆ − ϑ ]→ χ
' −1
0
2
q

Regla de Decisión: Si W > χ q2,α Se Rechaza la Hipótesis Nula de


Validez de las Restricciones.
23
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.2) El Contraste de Wald
Ejemplo: El Contraste de Wald con una Restricción

H 0 : θ = θ0
W = [θˆ − ϑ0 − 0] ·[Var (θˆ)] ·[θˆ − ϑ0 − 0]
' −1

 H1 : θ ≠ θ 0

W=
(θˆ − ϑ ) 0
2
d
→ χ12
Var (ϑˆ )

Regla de Decisión: Si W > χ12,α Se Rechaza la Hipótesis Nula de


Validez de las Restricciones.
24
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.3) El Contraste del Multiplicador de Lagrange

FUNCIÓN DE
MÁXIMA Lu (ϑ ) = max L(Y , ϑ ) ϑ ∈Θ
{ϑ }
VEROSIMILITUD

C.P.O:

∂ log(Lu (Y ,ϑ ) ) SCORES DEL


[(K + 1)x1]
S (ϑ ) = =0 MODELO
∂ϑ

ϑˆu S (ϑˆu ) = 0
25
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.3) El Contraste del Multiplicador de Lagrange

Supongamos ahora el Modelo Restringido considerando la Hipótesis Nula

H 0 : R·θ = ϑ0

Si esta Hipótesis es cierta, entonces …

Si la Hipótesis Nula es Cierta,


ˆ ∂ log(Lu (Y , ϑˆR ) ) entonces la expresión del SCORE del
S (ϑR ) = ≈0 Modelo No Restringido evaluado en el
∂ϑ
punto ϑ̂ debe ser próximo a cero.
R

26
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.3) El Contraste del Multiplicador de Lagrange

ESTADÍSTICO DEL CONTRASTE DEL MULTIPLICADOR DE LAGRANGE:

 ∂ log(Lu (Y ,ϑˆR ) ) −1  ∂ log (Lu (Y , ϑˆR ) ) d 2


'

L= '  ·[Var (ϑˆR )] · '  → χq


 ∂ϑ   ∂ϑ 

Regla de Decisión: Si L > χ q2,α Se Rechaza la Hipótesis Nula de


Validez de las Restricciones.
Las Restricciones impuestas no son
Válidas: H 0 : R·θ = ϑ0
27
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.4) Contraste de Nulidad Conjunta de un Subconjunto de Parámetros

MODELO DE REGRESIÓN LINEAL MÚLTIPLE

Yi = β 0 + β1 · X 1i + β 2 · X 2i + ... + β h · X hi + β h +1 · X h +1i + β h + 2 · X h + 2i + ... + β k · X ki + U i

El Contraste a Realizar será:

 H 0 : β h +1 = β h + 2 = ... = β K = 0

 H1 : A lg uno ≠ 0

28
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.4) Contraste de Nulidad Conjunta de un Subconjunto de Parámetros

El Estadístico a emplear será:

SCE R − SCEu
d
F= K − h → FK −h ,n − K −1
SCEu
n − K −1
en donde:
SCE R es la Suma de los Cuadrados de los Errores del Modelo Restringido. Es
decir, es la SCE obtenida al regresar Y X 0 , X 1 ,..., X h

SCEu es la Suma de los Cuadrados de los Errores del Modelo Sin Restringir.
Es decir, es la SCE obtenida al regresar Y X 0 , X 1 ,..., X h , X h +1 , X h + 2 ,..., X K
29
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.2) Contrastes de Selección de Modelos.
3.2.4) Contraste de Nulidad Conjunta de un Subconjunto de Parámetros

La Regla de Decisión será:

Se Acepta la Hipótesis Nula de Validez de las


· Si F ≤ FK − h ,, n − K −1,α Restricciones.

Se Rechaza la Hipótesis Nula de Validez de las


· Si F > FK − h ,, n − K −1,α Restricciones.

Región
Aceptación α
(1 − α )
FK +1, n − K −1,α
30
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos

3.3) El Contraste de Chow de Cambio Estructural


Permanencia o Constancia Estructural
100

90

80
Yi = βˆ0 + βˆ1 · X 1i + ei
70

60

50

40

30

20

10

0
10 15 20 25 30 35 40 45 50

31
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos

3.3) El Contraste de Chow de Cambio Estructural


Cambio Estructural
90

Yi = βˆ0 + βˆ1· X 1i + ei
80

70 Yi A = αˆ 0 + αˆ1 · X 1i + ei
Yi = βˆ0 + βˆ1 · X 1i + ei
60

50

40

30

20
Yi B = δˆ0 + δˆ1 · X 1i + ei
10
20 25 30 35 40 45 50 55 60 65
32
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.3) El Contraste de Chow de Cambio Estructural
EL CONTRASTE DE CHOW: PROCEDIMIENTO

PRIMER PASO

Realizar la Partición de la Muestra en 2 Submuestras

-. La que tiene las N A Primeras Observaciones de la Muestra

-. La que tiene las N B Últimas Observaciones de la Muestra

N A + NB = N

33
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.3) El Contraste de Chow de Cambio Estructural
EL CONTRASTE DE CHOW: PROCEDIMIENTO

SEGUNDO PASO

Especificar el Contraste de Hipótesis

H 0 : β A = β B = β
 ¿ Y = X A ·β A + ε ≡ Y = X B ·β B + ε ?
 H1 : β A ≠ β B

-. Aceptar la Hipótesis Nula es Indicativo de Permanencia Estructural de los


Parámetros
-. Rechazar la Hipótesis Nula es Indicativo de Cambio Estructural. Los
Parámetros del Modelo no pueden considerarse constantes. 34
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.3) El Contraste de Chow de Cambio Estructural
EL CONTRASTE DE CHOW: PROCEDIMIENTO

TERCER PASO

Determinar el Estadístico

[e'·e − (e ·e
'
AA + e '
B ·eB )]
d
F= K + 1 → F( K +1),( N A + N B −2·( K +1))
'
( '
e A ·e A + eB ·eB )
(N A + N B − 2·(K + 1))

35
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.3) El Contraste de Chow de Cambio Estructural
EL CONTRASTE DE CHOW: PROCEDIMIENTO

CUARTO PASO

Regla de Decisión

-. Si F ≥ F( K +1),( N A + N B − 2·( K +1)),α Rechazar H 0

EXISTE UNA DIFERENCIA SIGNIFICATIVA ENTRE ESTIMAR


LAS REGRESIONES SEPARADAS O LA REGRESIÓN
CONJUNTA

-. Si F < F( K +1),( N A + N B − 2·( K +1)),α Aceptar H 0


36
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos

3.3) El Contraste de Chow de Cambio Estructural


EL CONTRASTE DE CHOW: CUESTIONES Y LIMITACIONES

Es necesario determinar previamente el Punto de Corte N A . Es


1
un elemento fundamental ya que el contraste es muy sensible a N A

La situación deseable es que N A determine 2 submuestras de


tamaño aproximadamente equivalente a la mitad del tamaño
2
muestral. Si N A está próximo a alguno de los extremos de la
muestra es aconsejable emplear

[e'·e − e ·e ]
'
A A [e'·e − e ·e ]
'
B B
d
NB d
o NA
F= → FN B , N A − K −1 F= → FN A , N B − K −1
(
eA' ·e A ) (
eB' ·eB )
(N A − 2·(K + 1)) (N B − 2·(K + 1))

3 El Test de Chow se puede emplear tanto con datos temporales37


como con datos de corte transversal.
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos

3.4) El Contraste Reset de Ramsey

MODELO DE
REGRESIÓN LINEAL Yi = β 0 + β1 · X 1i + ... + β K · X Ki + U i
MÚLTIPLE
FORMA FUNCIONAL LINEAL

¿Qué Sucede si la ESTIMADORES


Forma Funcional No SESGADOS Y POCO
es la Correcta? PRECISOS

¿Cómo verificar que


el Modelo está Bien TEST DE RAMSEY
Especificado?
38
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos

3.4) El Contraste Reset de Ramsey


¿ESTÁ EL MODELO DE REGRESIÓN CORRECTAMENTE
ESPECIFICADO?

PRIMER PASO

Estimar el Siguiente Modelo

p
Yi = β 0 + β1 · X 1i + ... + β K · X Ki + ∑ γ j ·Yˆi j + U i
j =2
p

en donde ∑ j i es la suma del ajuste obtenido Ŷi


γ ·Y
j =2
ˆ j
elevado a distintas
potencias (generalmente p=2).
39
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.4) El Contraste Reset de Ramsey
¿ESTÁ EL MODELO DE REGRESIÓN CORRECTAMENTE
ESPECIFICADO?

SEGUNDO PASO

Especificar el Contraste de Hipótesis

¿POR QUÉ ESTE  H 0 : γ 2 = ... = γ p = 0


CONTRASTE? 
 H1 : a lg uno es ≠ 0

Si algún γj es significativo, entonces la especificación inicial es Incorrecta


MAL
Yi = β 0 + β1 · X 1i + ... + β K · X Ki + U i ESPECIFICADO 40
TEMA 3: Procedimientos de Contrastación y
Selección de Modelos
3.4) El Contraste Reset de Ramsey
¿ESTÁ EL MODELO DE REGRESIÓN CORRECTAMENTE
ESPECIFICADO?

TERCER PASO

Determinar el Estadístico y la Regla de Decisión

1 El Estadístico F para contrastar la nulidad de un conjunto de parámetros.


Si F ≥ F( P −1),(n − K + p − 2 ),α El Modelo está MAL ESPECIFICADO.

2 El Estadístico t si se introduce sólo el cuadrado del ajuste (p=2).


Si t ≥ t n − K + p − 2,α El Modelo está MAL ESPECIFICADO.
41