Escolar Documentos
Profissional Documentos
Cultura Documentos
com/
TRABAJO DE ECONOMETRIA (Multicolinealidad)
10.2 Considrese el conjunto de datos hipotticos de la tabla 10.10. Supngase que desea ajustar el modelo
Yi = 1 + 2 X 2i + 3 X 3i + u i
TABLA 10.10
Y
X2
-10
-8
-6
-4
-2
0
2
4
6
8
10
X3
1
2
3
4
5
6
7
8
9
10
11
1
3
5
7
9
11
13
15
17
19
21
http://bajalibrosdeeconomia.blogspot.com/
A la informacin.
a).- Se puede estimar las tres incgnitas? Porqu si o por que no?
No se puede estimar las tres incgnitas debido a que existe multicolinealidad perfecta, puesto que el coeficiente de
correlacin r 23 es la unidad es decir la correlacin entre X 2 y X 3 es igual a 1.
b).- Si no se puede hacer; Qu funciones lineales de estos parmetros, las funciones estimables, se puede
estimar? Mustrense los clculos necesarios.
Para poder estimar estos parmetros partimos de que:
Y = 1 + 2 X 2i + u i
Donde:
1 = 1 3
2 = 2 + 2 3
X 3i = 2 X 2i 1
Por lo tanto reemplazando X 3i = 2 X 2i 1 en Yi = 1 + 2 X 2i + 3 X 3i + u i nos quedara:
Y = 1 + 2 X 2i + B3 (2 X 2i 1) + u i
10.3 Refirase al ejemplo de la mortalidad infantil analizado en el captulo 8. Dicho ejemplo implic hacer la
regresin de la tasa de mortalidad infantil (MI) sobre el PIB per cpita (PIBPC) y la tasa de alfabetizacin
para las mujeres (TAM).
Ahora, supngase que se aade la variable tasa de fertilidad total (TFT). Lo anterior da los siguientes
resultados de la regresin:
Depedent variable: CM
Variable
Coefficient Std. Error
C
168,3078 32,89165
PGNP
-0,005511 0,001878
FLR
-1,768029 0,248017
TFR
12,86864 4,190533
R-squared
adjusted R-squared
0,747372
0,73474
S.E of regression
Sum squuared resid
Log likelihood
Durbin-Watson stat
39,13127
91875,38
-323,4298
2,170318
t-Statistic
5,117003
-2,934275
-7,128663
3,070883
Mean dependet
var
S.D. dependet var
Akaike info
criterion
Schwarz criterion
F-statistic
Prob (F-statistic)
Prob
0,0000
0,0047
0,0000
0,0032
141,5000
75,97807
10,36711
10,36711
59,16767
0,000000
a).- Compare estos resultados de la regresin con los obtenidos en la ecuacin (8.2.1). Qu cambios se
observan? Cmo se explican?
Los resultados obtenidos en la ecuacin 8.2.1 son los siguientes:
M I t = 263.6416 0.0056 PIBPi 2.2316TAM i
ee = (11.5932) (0.0019) (0.2099)
t = (22.7411) (-2.8187) (-10.6293)
http://bajalibrosdeeconomia.blogspot.com/
p value = (0.0000) (0.0065) (0.0000)
R 2 = 0.7077
R 2 = 0.6981
Los coeficientes de 1 y 3 cambian significativamente debido a la introduccin de una nueva variable sin
embargo el coeficiente de 2 permanece siendo casi el mismo, de igual manera ocurre con las varianzas 1 y 3 es
decir las varianzas de estos se incrementan y por lo tanto la precisin es menor.
b).- Vale la pena aadir la variable TFT al modelo? Por qu?
Si porque debido a la introduccin de esta nueva variable obtenemos un R 2 =0.7473 mayor al R 2 =0.7077 del
modelo sin incluir la nueva variable, esto nos dira que el segundo modelo parece ajustarse mejor, en resumen
diramos que la Mortalidad Infantil esta explicada por estas tres variables en su conjunto.
c).- Puesto que todos los coeficientes t individuales son estadsticamente significativos, se puede decir que no
existe un problema de colinealidad en el presente caso?
No existe un problema de colinealidad, para afirmar esto nos basamos en la primera regla emprica de la deteccin
de colinealidad que nos seala que existe colinealidad cuando hay un R 2 alto y varias razones t poco
significativas.
10.5 Considrese el siguiente modelo:
Yt = 1 + 2 X t + 3 X t 1 + 4 X t 2 + 5 X t 3 + 6 X t 4 + u t
Donde Y= consumo, X= ingreso y t= tiempo. El modelo anterior postula que el gasto de consumo en el tiempo
t es funcin no solamente del ingreso en el tiempo t, sino tambin del ingreso en perodos anteriores. Por
tanto, el gasto de consumo en el primer trimestre del 2000 es funcin del ingreso en ese trimestre y en los
cuatro trimestres de 1999. Tales modelos se denominan modelos de rezago distribuido.
a).- Se esperara la presencia de multicolinealidad en tales modelos y por qu?
S, se esperara la presencia de multicolinealidad porque las variables ingreso y tiempo tienen una relacin directa
debido a que, a medida que transcurre el tiempo se espera que el ingreso se incremente.
b).- Si se espera la presencia de colinealidad, cmo se resolvera el problema?
Tomando en cuento que existe dos soluciones para resolver este problema que son:
1.-No hacer nada
2.- Eliminar la variable colineada
Pero en este caso no existe la posibilidad de eliminar la variable colineada ya que esta es relevante en el modelo y
esto ocasionara un sesgo de especificacin, por lo tanto optamos por la posibilidad de no hacer nada.
10.6 Considrese en ejemplo ilustrativo de la seccin 10.6. Cmo se interpretara la diferencia en la
propensin marginal a consumir obtenida de 10.6.1 y 10.6.4?
10.6.1
Yt = 24.7747 + 0.9415 X 2i 0.0424 X 3i
ee= (6.7525) (0.8229)
(0.0807)
t= (3.6690) (1.1442)
(-0.5261)
2
2
R = 0.7077
R = 0.6981 g de l =2
10.6.4
Yt = 24.4545 + 0.5091X 2i
ee= (6.4138) (0.0357)
t = (3.8128) (14.2432)
R 2 =0.9621
La diferencia que se puede observar es que en el primer modelo donde el consumo est en funcin del ingreso y la
riqueza tenemos una propensin marginal al consumo alta de 0.9415 debido a que existe multicolinealidad entre las
variables explicativas ingreso y riqueza, mientras que en el segundo modelo donde el consumo est explicado
nicamente por el ingreso tiene una propensin marginal al consumo de 0.5091, que es menor al primer modelo
esto se es debido a que el consumo est explicado por una sola variable y por lo tanto no habr multicolinealidad.
10.8 Supngase en el modelo
Yt = 1 + 2 X 2i + 3 X 3i + u t
que r 23 , el coeficiente de correlacin entre X 2 y X 3 , es cero. Por consiguiente, se requiere que se efectu las
siguientes regresiones:
Yi = 1 + 2 X 2i + u1i
Yi = Y1 + Y2 X 3i + u 2i
a).- Ser 2 = 2 y Y3 = 3 ? Por qu?
No es lo mismo porque estas variables son independientes y por lo tanto no tienen influencia de multicolinealidad
debido a que la correlacin entre X 2 y X 3 , es cero.
http://bajalibrosdeeconomia.blogspot.com/
b).- Ser 1 igual a 1 o Y1 o a alguna combinacin de estos?
No es igual a o Y porque es igual a + X
1
( )
( )
3i
( )
c).- Si una regresin auxiliar muestra que una Ri particular es alta, entonces hay evidencia clara de
colinealidad. ( V )
Es verdadero porque nos muestra que existe una relacin fuerte entre las variables explicativas del modelo.
d).- Las correlaciones altas entre parejas de regresoras no sugieren la existencia de alta multicolinealidad. (
F )
Es Falso porque un coeficiente de correlacin alto nos indica que s existe multicolinealidad, es decir existe una
relacin alta pero no determinstica entre todas o algunas variables del modelo.
e).- La multicolinealidad es inofensiva si el objetivo del anlisis es solamente la prediccin. ( V )
Es verdadero porque para predecir se desea conocer el comportamiento de la variable en el futuro y no se necesitan
datos realmente comprobados.
f).- Entre mayor sea el FIV, ceteris paribus, ms grandes son las varianzas de los estimadores MCO. ( V )
Es verdadero porque entre mayor sea el Factor Inflador de Varianza mayor ser la varianza de los estimadores de
Mnimos Cuadrados Ordinarios (MCO) sin embargo sus estimadores siguen siendo MELI.
g).- La tolerancia (TOL) es una medida de multicolinealidad mejor que el FIV.
( F )
Esto es falso porque la tolerancia (TOL), el FIV y otros mtodos podran utilizarse nicamente como expedicin
de pesca, ya que no puede decirse cules de ellos funcionan en una aplicacin particular.
h).- No podr obtenerse un valor R 2 elevado en una regresin mltiple si todos los coeficientes parciales de
pendiente no son estadsticamente significativos, a nivel individual, con base en la prueba t usual. ( F )
Es falso porque an cuando las pruebas t individuales sean poco significativas se puede obtener un R 2 alto, es
decir individualmente las variables independientes no explican a la variable dependiente pero si explican de mejor
manera en su conjunto.
i).- En la regresin de Y sobre X 2 y X 3 , supngase que hay poca variabilidad en los valores de X 3 . Esto
aumentara la var . En el extremo si todas las X fueran idnticas, var fueran infinitas. ( F )
3
Es falso porque si existe poca variabilidad en los valores de X 3 nos indica que existe una mayor precisin por lo
tanto las varianzas sern mnimas.
10.15 En notacin matricial, puede demostrarse (apndice c) que
= ( X X )1 X y
a).- Qu sucede con cuando hay colinealidad perfecta entre las x?
Cuando hay multicolinealidad perfecta los siguen siendo estimadores MELI pero con la nica diferencia que su
varianza es inflada.
b).- Como se sabe si existe colinealidad perfecta?
Se sabe que existe multicolinealidad perfecta matricialmente cuando el rango de X es diferente de K [R( X ) K ] .
10.17 Considrese la siguiente matriz de correlacin:
X2
X 3 . X k
http://bajalibrosdeeconomia.blogspot.com/
X2 1
X 3 r 32
R=
X k r k2
r 23
1
r k3
r 2k
r 3k
http://bajalibrosdeeconomia.blogspot.com/
H a : ( 2 + 3 ) 1
n= 24
g de l = 20
= 0.05
t d = 1.725
+ 3 ( 2 + 3 )
tc= 2
ee 2 + 3
tc =
-5.67
- 1.725
1.725
No existe suficiente evidencia estadstica para aceptar la H 0 : ( 2 + 3 ) = 1 con un 95% de confianza debido a que
el t calculado esta fuera de la zona de aceptacin por lo tanto se acepta la H a : ( 2 + 3 ) 1 , y econmicamente se
dira que no existen rendimientos constantes a escala.
h).- Son comparables los valores R 2 de las dos regresiones? Por qu si o porque no? Cmo puede hacerse
comparables, si no lo son en la forma actual?
No, no son comparables los R 2 y debido que para que sean comparables las variables de los dos modelos deben ser
iguales, y en este caso no lo son.
Para
tener
la
misma
variable
dependiente
se
realiza
lo
siguiente:
log Y log L = 0.11 + 0.11 log K 0.11 log L + 0.006t
log Y = 0.11 + 0.11 log K 0.11 log L + 0.006t + log L
log Y = 0.11 + 0.11 log K log L(0.11 1) + 0.006t
log Y = 0.11 + 0.11 log K + 0.81 log L + 0.006t
A partir de este modelo se puede comparar los R 2 ya que las variables dependientes ahora s son las mismas.
10.26 klein y Goldberger intentaron ajustar el siguiente modelo de regresin a la economa de Estados
Unidos:
Yt = 1 + 2 X 2i + 3 X 3i + 4 X 4i + u i
donde Y = consumo, X 2 = ingreso salarial, X 3 = ingreso no salarial, no procedente del campo y X 4 = ingreso
procedente del campo. Pero, puesto que se espera que X 2 , X 3 y X 4 sean altamente colineales, ellos
obtuvieron los siguientes estimaciones de 3 y 4 del anlisis de corte transversal: 3 =0.75 2 y 4 =
0.625 2 .
Utilizando estas estimaciones, ellos reformularon su funcin de consumo de la siguiente forma:
Yt = 1 + 2 ( X 2i + 0.75 X 3i + 0.625 X 4i ) + u i = 1 + 2 Z i + u i
donde Z i = X 2i + 0.75 X 3i + 0.625 X 4i
Tabla 10.11
Ao
Y
1936
1937
1938
1939
1940
1941
1945*
1946
1947
1948
1949
1950
1951
1952
X2
62,8
65
63,9
67,5
71,3
76,6
86,3
95,7
98,3
100,3
103,2
108,9
108,5
111,4
X3
43,41
46,44
44,35
47,82
51,02
58,71
87,69
76,73
75,91
77,62
78,01
83,57
90,59
95,47
X4
17,1
18,65
17,09
19,28
23,24
28,11
30,29
28,26
27,91
32,3
31,39
35,61
37,54
35,17
3,96
5,48
4,37
4,51
4,88
6,37
8,96
9,76
9,31
9,85
7,21
7,39
7,98
7,42
http://bajalibrosdeeconomia.blogspot.com/
a) Ajstese el modelo modificado a los datos de la tabla 10.11 y obtngase estimaciones de 1 a 4 .
Con los datos de la tabla anterior procedemos a correr el modelo en el EViews, y obtenemos los siguientes resultados:
Variable
Coefficient
Std. Error
t-Statistic
Prob.
Z
C
0.503074
20.72698
0.052527
7.153282
9.577428
2.897549
0.0000
0.0134
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.884312
0.874671
6.600008
522.7212
-45.20508
0.796342
87.12143
18.64313
6.743582
6.834876
91.72712
0.000001
PNB
38,8
40,5
41,8
44,4
49,3
53,8
56,9
60,6
65,2
72,6
82,4
90,9
96,5
99,6
103,9
107,6
109,6
113,6
118,3
124
130,7
136,2
140,3
144,5
148,2
152,4
158,9
160,5
163
1039,7
1128,6
1240,4
1385,5
1501
1635,2
1823,9
2031,4
2295,9
2566,4
2795
3131,2
3259,2
3534,9
3932,7
4213
4452,9
4742,5
5108,3
5489,1
5803,2
5986,2
6318,9
6642,3
7054,3
7400,5
7813,2
8300,8
8759,9
Importaciones
39866
45579
55797
70499
103811
98185
124228
151907
176002
212007
249750
235007
247642
268901
332418
338088
368425
409765
447189
477365
498337
490981
536458
589441
668590
749574
803327
876366
917178
http://bajalibrosdeeconomia.blogspot.com/
Dependent Variable: IMPOR
Method: Least Squares
Date: 04/25/07 Time: 18:16
Sample: 1970 1998
Included observations: 29
IMPOR=C(1)+C(2)*PNB+C(3)*LNIPC
C(1)
C(2)
C(3)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Coefficient
Std. Error
t-Statistic
Prob.
1.737832
1.170334
0.267969
0.777294
0.402363
0.564399
2.235746
2.908650
0.474785
0.0342
0.0073
0.6389
0.982883
0.981566
0.122891
0.392656
21.23148
12.48633
0.905137
-1.257343
-1.115899
0.523606
ln Im
portacionest = 1.738 + 1.170 ln PNB t + 0.268 ln IPC t
ee = (0.78) (0.40)
(0.56)
t = (2.24) (2.91)
(0.47)
Coefficient
Std. Error
t-Statistic
Prob.
1.395046
1.360637
0.283816
0.034708
4.915316
39.20240
0.0000
0.0000
0.982735
0.982095
0.121115
0.396060
21.10630
12.48633
0.905137
-1.317676
-1.223380
0.514920
Coefficient
Std. Error
t-Statistic
Prob.
3.902843
1.903308
0.252998
0.055808
15.42638
34.10464
0.0000
0.0000
0.977313
0.976473
0.138834
0.520424
17.14669
12.48633
0.905137
-1.044599
-0.950303
0.519796
http://bajalibrosdeeconomia.blogspot.com/
ln Im
portaciones t = 3.903 + 1.903 ln IP C t
ee = (0.253) (0.056)
t = (15.43) (34.11)
3) ln PNBt = C1 + C 2 ln IPC t
Dependent Variable: PNB
Method: Least Squares
Date: 04/25/07 Time: 18:19
Sample: 1970 1998
Included observations: 29
PNB=C(1)+C(2)*LNIPC
C(1)
C(2)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Coefficient
Std. Error
t-Statistic
Prob.
1.849908
1.397327
0.107112
0.023628
17.27073
59.13983
0.0000
0.0000
0.992339
0.992056
0.058779
0.093283
42.07229
8.151538
0.659462
-2.763606
-2.669310
0.365873
CAPITAL
TRABAJO TIEMPO
20,787
11,113
1
21,257
11,262
2
21,727
11,424
3
22,2294
11,605
4
22,7317
11,81
5
23,203
11,679
6
23,6742
11,504
7
21,2198
11,668
8
24,7653
11,891
9
25,5707
11,829
10
26,1899
11,891
11
27,9064
11,994
12
26,623
12,118
13
31,9305
12,174
14
34,238
12,28
15
36,711
12,41
16
39,184
12,539
17
41,8341
12,609
18
44,4842
12,642
19
47,8136
12,939
20
51,1434
12,955
21
Con los datos proporcionados en la tabla utilizando el programa EViews, y obtenemos los siguientes resultados:
http://bajalibrosdeeconomia.blogspot.com/
Coefficient
Std. Error
t-Statistic
Prob.
C
LNTRABAJO
LNCAPITALL
TIEMPO
-0.674319
0.403773
0.628648
0.039676
2.575361
1.137211
0.155539
0.008026
-0.261835
0.355056
4.041736
4.943527
0.7966
0.7269
0.0008
0.0001
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.991804
0.990358
0.043566
0.032267
38.22389
0.479947
2.888762
0.443670
-3.259419
-3.060462
685.7265
0.000000
1.000000
0.977958
0.986022
0.990562
LNTRABAJO
0.977958
1.000000
0.970110
0.975764
LNCAPITAL
TIEMPO
0.986022
0.970110
1.000000
0.970396
0.990562
0.975764
0.970396
1.000000
Analizando las correlaciones entre pares de variables explicativas trabajo-capital, trabajo-tiempo, capital-tiempo se
puede concluir diciendo que, de acuerdo a esta prueba si existe multicolinealidad ya que estas son correlaciones
altas.
R1
R2
R3
R4
C1
C2
C3
C4
1.000000
0.977958
0.986022
0.990562
0.977958
1.000000
0.970110
0.975764
0.986022
0.970110
1.000000
0.970396
0.990562
0.975764
0.970396
1.000000
4.- Correr regresiones auxiliares entre cada variable explicativa y las dems explicativas; luego obtiene el
coeficiente de determinacin de cada regresin auxiliar R 2 j y el valor F.
Regresin 1
http://bajalibrosdeeconomia.blogspot.com/
Dependent Variable: LNTRABAJO
Method: Least Squares
Date: 04/26/07 Time: 10:23
Sample: 2001 2021
Included observations: 21
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LNCAPITALL
TIEMPO
C
0.060124
0.004139
2.236741
0.028956
0.001347
0.083510
2.076419
3.072043
26.78403
0.0525
0.0066
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.961368
0.957076
0.009030
0.001468
70.67280
1.219962
2.485329
0.043584
-6.445028
-6.295811
223.9691
0.000000
Regresin 2
Dependent Variable: LNCAPITALL
Method: Least Squares
Date: 04/26/07 Time: 10:09
Sample: 2001 2021
Included observations: 21
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LNTRABAJO
TIEMPO
C
3.214045
0.023125
-4.865026
1.547879
0.010873
3.730408
2.076419
2.126903
-1.304154
0.0525
0.0475
0.2086
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.952940
0.947712
0.066020
0.078456
28.89462
0.328898
3.377305
0.288717
-2.466154
-2.316937
182.2470
0.000000
Regresin 3
Dependent Variable: TIEMPO
Method: Least Squares
Date: 04/26/07 Time: 10:11
Sample: 2001 2021
Included observations: 21
Variable
Coefficient
Std. Error
t-Statistic
Prob.
LNTRABAJO
LNCAPITALL
C
83.10117
8.685160
-224.8661
27.05078
4.083477
53.95576
3.072043
2.126903
-4.167602
0.0066
0.0475
0.0006
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.961732
0.957480
1.279457
29.46618
-33.35428
0.467259
11.00000
6.204837
3.462312
3.611530
226.1848
0.000000
Corridos las regresiones con los datos proporcionados obtuvimos los siguientes valores:
2
R global
=0.992
R 1 2 j =0.961
F1= 223.97
Relacionando las variables explicativas trabajo en funcin del capital y el tiempo podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.961 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.
2
R global
=0.992
R2 2 j = 0.953
F2= 182.25
Relacionando las variables explicativas capital en funcin del trabajo y el tiempo podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.953 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando
http://bajalibrosdeeconomia.blogspot.com/
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.
2
R global
=0.992
R3 2 j = 0.962
F3 = 226.18
Relacionando las variables explicativas tiempo en funcin del trabajo y el capital podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.962 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.
Regresin 1
FIV =
1
= 25.885
(1 0.961368)
Regla prctica
En general si el FIV es mayor o igual a 10 ( R 2j 0.9) hay evidencia de alta colinealidad
Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mayor que 10.
Regresin 2
FIV =
1
= 21.249
(1 0.952940)
Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mucho mayor que 10.
Regresin 3
FIV =
1
= 26.131
(1 0.961732)
Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mucho mayor que 10.
Dimensin
1
Autovalor
Indice de
condicin
3.835
1.000
(Constante)
.00
LNTRABAJ
.00
LNCAPITA
.00
TIEMPO
.00
.164
4.832
.00
.00
.00
.04
.000
118.864
.01
.00
.86
.55
6.200E-06
a Variable dependiente: LNPIB
786.516
.99
1.00
.14
.40
http://bajalibrosdeeconomia.blogspot.com/
A partir del ndice de condicin de 2 se obtiene el valor de K que es de 23.35
Como este valor esta entre 10 y 30 se puede decir que existe multicolinealidad entre moderada y fuerte.
A partir del ndice de condicin de 3 se obtiene el valor de K que es de 14128.65
Como este valor excede a 1000 se dice entonces que existe una multicolinealidad severa.
A partir del ndice de condicin de 4 se obtiene el valor de K que es de 618607.42
Como este valor excede a 1000 se dice entonces que existe una multicolinealidad severa.
7.- Prueba de Farrar-Glauber
H 0 : Rx = 1
H a : Rx = 0
con K
K 1
grados de libertad
2
Gd = 9.34840 con / 2
Gd = 0.215795 con 1- / 2
gl = 3
1
Gc = n 1 (2 K + 5) ln R x
6
Gc = 21 1 (2 * 3 + 5) ln 0.0000184693301439
6
Gc = 21 1 (2 * 3 + 5) (10.89939903)
6
Gc = 198.01
Interpretacin
Debido a que el G calculado es mayor que el G dado, no existe suficiente evidencia estadstica para aceptar la
hiptesis nula de que H 0 : Rx = 1 con un 95% de confianza, es decir se acepta la H a : Rx = 0 por lo tanto si existe
multicolinealidad.
Correccin de la Multicolinealidad
Como medida correctiva para la multicolinealidad nosotras hemos tomado la decisin de no hacer nada ya que
las variables explicativas tienen una relevancia terica importante en la especificacin del modelo, es decir si
eliminaramos cualquier variable provocaramos un sesgo de especificacin.
http://bajalibrosdeeconomia.blogspot.com/