Você está na página 1de 13

http://bajalibrosdeeconomia.blogspot.

com/
TRABAJO DE ECONOMETRIA (Multicolinealidad)
10.2 Considrese el conjunto de datos hipotticos de la tabla 10.10. Supngase que desea ajustar el modelo
Yi = 1 + 2 X 2i + 3 X 3i + u i
TABLA 10.10
Y

X2
-10
-8
-6
-4
-2
0
2
4
6
8
10

X3

1
2
3
4
5
6
7
8
9
10
11

1
3
5
7
9
11
13
15
17
19
21

http://bajalibrosdeeconomia.blogspot.com/

A la informacin.
a).- Se puede estimar las tres incgnitas? Porqu si o por que no?
No se puede estimar las tres incgnitas debido a que existe multicolinealidad perfecta, puesto que el coeficiente de
correlacin r 23 es la unidad es decir la correlacin entre X 2 y X 3 es igual a 1.
b).- Si no se puede hacer; Qu funciones lineales de estos parmetros, las funciones estimables, se puede
estimar? Mustrense los clculos necesarios.
Para poder estimar estos parmetros partimos de que:
Y = 1 + 2 X 2i + u i
Donde:
1 = 1 3
2 = 2 + 2 3
X 3i = 2 X 2i 1
Por lo tanto reemplazando X 3i = 2 X 2i 1 en Yi = 1 + 2 X 2i + 3 X 3i + u i nos quedara:
Y = 1 + 2 X 2i + B3 (2 X 2i 1) + u i
10.3 Refirase al ejemplo de la mortalidad infantil analizado en el captulo 8. Dicho ejemplo implic hacer la
regresin de la tasa de mortalidad infantil (MI) sobre el PIB per cpita (PIBPC) y la tasa de alfabetizacin
para las mujeres (TAM).
Ahora, supngase que se aade la variable tasa de fertilidad total (TFT). Lo anterior da los siguientes
resultados de la regresin:

Depedent variable: CM
Variable
Coefficient Std. Error
C
168,3078 32,89165
PGNP
-0,005511 0,001878
FLR
-1,768029 0,248017
TFR
12,86864 4,190533
R-squared
adjusted R-squared

0,747372
0,73474

S.E of regression
Sum squuared resid
Log likelihood
Durbin-Watson stat

39,13127
91875,38
-323,4298
2,170318

t-Statistic
5,117003
-2,934275
-7,128663
3,070883
Mean dependet
var
S.D. dependet var
Akaike info
criterion
Schwarz criterion
F-statistic
Prob (F-statistic)

Prob
0,0000
0,0047
0,0000
0,0032
141,5000
75,97807
10,36711
10,36711
59,16767
0,000000

a).- Compare estos resultados de la regresin con los obtenidos en la ecuacin (8.2.1). Qu cambios se
observan? Cmo se explican?
Los resultados obtenidos en la ecuacin 8.2.1 son los siguientes:
M I t = 263.6416 0.0056 PIBPi 2.2316TAM i
ee = (11.5932) (0.0019) (0.2099)
t = (22.7411) (-2.8187) (-10.6293)

http://bajalibrosdeeconomia.blogspot.com/
p value = (0.0000) (0.0065) (0.0000)
R 2 = 0.7077
R 2 = 0.6981
Los coeficientes de 1 y 3 cambian significativamente debido a la introduccin de una nueva variable sin
embargo el coeficiente de 2 permanece siendo casi el mismo, de igual manera ocurre con las varianzas 1 y 3 es
decir las varianzas de estos se incrementan y por lo tanto la precisin es menor.
b).- Vale la pena aadir la variable TFT al modelo? Por qu?
Si porque debido a la introduccin de esta nueva variable obtenemos un R 2 =0.7473 mayor al R 2 =0.7077 del
modelo sin incluir la nueva variable, esto nos dira que el segundo modelo parece ajustarse mejor, en resumen
diramos que la Mortalidad Infantil esta explicada por estas tres variables en su conjunto.
c).- Puesto que todos los coeficientes t individuales son estadsticamente significativos, se puede decir que no
existe un problema de colinealidad en el presente caso?
No existe un problema de colinealidad, para afirmar esto nos basamos en la primera regla emprica de la deteccin
de colinealidad que nos seala que existe colinealidad cuando hay un R 2 alto y varias razones t poco
significativas.
10.5 Considrese el siguiente modelo:
Yt = 1 + 2 X t + 3 X t 1 + 4 X t 2 + 5 X t 3 + 6 X t 4 + u t
Donde Y= consumo, X= ingreso y t= tiempo. El modelo anterior postula que el gasto de consumo en el tiempo
t es funcin no solamente del ingreso en el tiempo t, sino tambin del ingreso en perodos anteriores. Por
tanto, el gasto de consumo en el primer trimestre del 2000 es funcin del ingreso en ese trimestre y en los
cuatro trimestres de 1999. Tales modelos se denominan modelos de rezago distribuido.
a).- Se esperara la presencia de multicolinealidad en tales modelos y por qu?
S, se esperara la presencia de multicolinealidad porque las variables ingreso y tiempo tienen una relacin directa
debido a que, a medida que transcurre el tiempo se espera que el ingreso se incremente.
b).- Si se espera la presencia de colinealidad, cmo se resolvera el problema?
Tomando en cuento que existe dos soluciones para resolver este problema que son:
1.-No hacer nada
2.- Eliminar la variable colineada
Pero en este caso no existe la posibilidad de eliminar la variable colineada ya que esta es relevante en el modelo y
esto ocasionara un sesgo de especificacin, por lo tanto optamos por la posibilidad de no hacer nada.
10.6 Considrese en ejemplo ilustrativo de la seccin 10.6. Cmo se interpretara la diferencia en la
propensin marginal a consumir obtenida de 10.6.1 y 10.6.4?
10.6.1
Yt = 24.7747 + 0.9415 X 2i 0.0424 X 3i
ee= (6.7525) (0.8229)
(0.0807)
t= (3.6690) (1.1442)
(-0.5261)
2
2
R = 0.7077
R = 0.6981 g de l =2
10.6.4
Yt = 24.4545 + 0.5091X 2i
ee= (6.4138) (0.0357)
t = (3.8128) (14.2432)
R 2 =0.9621
La diferencia que se puede observar es que en el primer modelo donde el consumo est en funcin del ingreso y la
riqueza tenemos una propensin marginal al consumo alta de 0.9415 debido a que existe multicolinealidad entre las
variables explicativas ingreso y riqueza, mientras que en el segundo modelo donde el consumo est explicado
nicamente por el ingreso tiene una propensin marginal al consumo de 0.5091, que es menor al primer modelo
esto se es debido a que el consumo est explicado por una sola variable y por lo tanto no habr multicolinealidad.
10.8 Supngase en el modelo
Yt = 1 + 2 X 2i + 3 X 3i + u t
que r 23 , el coeficiente de correlacin entre X 2 y X 3 , es cero. Por consiguiente, se requiere que se efectu las
siguientes regresiones:
Yi = 1 + 2 X 2i + u1i
Yi = Y1 + Y2 X 3i + u 2i
a).- Ser 2 = 2 y Y3 = 3 ? Por qu?
No es lo mismo porque estas variables son independientes y por lo tanto no tienen influencia de multicolinealidad
debido a que la correlacin entre X 2 y X 3 , es cero.

http://bajalibrosdeeconomia.blogspot.com/
b).- Ser 1 igual a 1 o Y1 o a alguna combinacin de estos?
No es igual a o Y porque es igual a + X
1

( )

( )

3i

( )

c).- Ser 2 = var( 2 ) y var 3 = var Y3 ?


Si porque no existe la presencia de multicolinealidad debido a que existe homocedasticidad es decir, la varianza
permanece constante.
10.12 Establzcase si las siguientes afirmaciones son ciertas, falsas o inciertas y explique la respuesta.
a).- A pesar de la presencia de multicolinealidad perfecta, los estimadores MCO son MELI. ( F )
Es falso porque cuando existe multicolinealidad perfecta sus varianzas son infinitas y por lo tanto ya no cumple con
la condicin de que son estimadores MELI es decir con varianza mnima.
b).- En los casos de alta multicolinealidad, no es posible evaluar la significancia individual de una o ms
coeficientes de regresin parcial. ( V )
Si es verdadero porque las pruebas t de uno de uno o ms coeficientes son poco significativas debido a que la
varianza tiende a inflarse y por lo tanto no hay precisin de los estimadores.
2

c).- Si una regresin auxiliar muestra que una Ri particular es alta, entonces hay evidencia clara de
colinealidad. ( V )
Es verdadero porque nos muestra que existe una relacin fuerte entre las variables explicativas del modelo.
d).- Las correlaciones altas entre parejas de regresoras no sugieren la existencia de alta multicolinealidad. (
F )
Es Falso porque un coeficiente de correlacin alto nos indica que s existe multicolinealidad, es decir existe una
relacin alta pero no determinstica entre todas o algunas variables del modelo.
e).- La multicolinealidad es inofensiva si el objetivo del anlisis es solamente la prediccin. ( V )
Es verdadero porque para predecir se desea conocer el comportamiento de la variable en el futuro y no se necesitan
datos realmente comprobados.
f).- Entre mayor sea el FIV, ceteris paribus, ms grandes son las varianzas de los estimadores MCO. ( V )
Es verdadero porque entre mayor sea el Factor Inflador de Varianza mayor ser la varianza de los estimadores de
Mnimos Cuadrados Ordinarios (MCO) sin embargo sus estimadores siguen siendo MELI.
g).- La tolerancia (TOL) es una medida de multicolinealidad mejor que el FIV.
( F )
Esto es falso porque la tolerancia (TOL), el FIV y otros mtodos podran utilizarse nicamente como expedicin
de pesca, ya que no puede decirse cules de ellos funcionan en una aplicacin particular.
h).- No podr obtenerse un valor R 2 elevado en una regresin mltiple si todos los coeficientes parciales de
pendiente no son estadsticamente significativos, a nivel individual, con base en la prueba t usual. ( F )
Es falso porque an cuando las pruebas t individuales sean poco significativas se puede obtener un R 2 alto, es
decir individualmente las variables independientes no explican a la variable dependiente pero si explican de mejor
manera en su conjunto.
i).- En la regresin de Y sobre X 2 y X 3 , supngase que hay poca variabilidad en los valores de X 3 . Esto
aumentara la var . En el extremo si todas las X fueran idnticas, var fueran infinitas. ( F )
3

Es falso porque si existe poca variabilidad en los valores de X 3 nos indica que existe una mayor precisin por lo
tanto las varianzas sern mnimas.
10.15 En notacin matricial, puede demostrarse (apndice c) que
= ( X X )1 X y
a).- Qu sucede con cuando hay colinealidad perfecta entre las x?
Cuando hay multicolinealidad perfecta los siguen siendo estimadores MELI pero con la nica diferencia que su
varianza es inflada.
b).- Como se sabe si existe colinealidad perfecta?
Se sabe que existe multicolinealidad perfecta matricialmente cuando el rango de X es diferente de K [R( X ) K ] .
10.17 Considrese la siguiente matriz de correlacin:
X2
X 3 . X k

http://bajalibrosdeeconomia.blogspot.com/
X2 1
X 3 r 32
R=

X k r k2

r 23
1

r k3

r 2k
r 3k

Cmo se averigua, a partir de la matriz de correlacin, si


a).- hay colinealidad perfecta?
Se detecta que hay colinealidad perfecta cuando al menos una de las correlaciones entre pares de variables es igual
a 1.
b).- hay colinealidad menos que perfecta?
Se detecta que hay colinealidad menos que perfecta cuando por lo menos una o alguna correlacin entre pares de
variables explicativa esta entre 0.8 y 0.95.
c).- las X no estn correlacionadas?
Pista: puede utilizarse R para responder estas preguntas, donde R denota el determinante de R.
Nos damos cuenta que las X no estn correlacionadas cuando el coeficiente de correlacin global (R) tiende a
acercarse a cero.
10.24 Con base en la informacin anual para el sector manufacturero de Estados Unidos durante el perodo
1899-1922, Dougherty obtuvo los siguientes resultados de regresin:
log Y = 2.81 0.53 log K + 0.91log L + 0.047t
ee = (1.38) (0.34)
(0.14)
(0.021)
2
R = 0.97 F= 189.8
Donde Y= ndice de produccin real, K=ndice de insumo de capital real, L= ndice de insumo trabajo real,
t= tiempo o tendencia.
Utilizando la misma informacin, obtuvo tambin la siguiente regresin:
log Y = 0.11 + 0.11log(K / L ) + 0.006t
ee = (0.03)
(0.15)
(0.006)
2
R = 0.65 F=19.5
a) Existe multicolinealidad en la regresin (1)? Cmo se sabe?
Si existe multicolonealidad debido a que las pruebas de significancia individual en su mayora son poco
significativas, y como tenemos un R 2 alto nos indica que individualmente las variables independientes no explican
el ndice de produccin real pero que en forma global las variables explican al modelo en su conjunto.
b) En la regresin (1), cul es el signo a priori de log K? Concuerdan los resultados con esta expectativa?
Por qu s o por qu no?
El signo a priori del ndice de insumo de capital real debe ser positivo ya que la produccin y el capital tienen una
relacin directa, es decir si se incrementa el capital se espera que la produccin tambien se incrementa y viceversa.
c) Cmo justificara usted la forma funcional de la regresin (1)? (Pista: funcin de produccin de CobbDouglas).
Esta forma funcional de la produccin a travs del tiempo se justifica de mejor manera con un modelo logartmico
que con un modelo lineal, debido a que la recta de regresin se ajusta mejor a los datos.
d) Interprtese la regresin (1). Cul es el papel de la variable de tendencia en esta regresin?
Es importe introducir en esta regresin la variable tendencia o de tiempo ya que tanto el capital como el trabajo son
variables en el largo plazo.
e) Cul es la lgica detrs de la estimacin de la regresin (2)?
La lgica de esta estimacin es que este modelo nos dara la elasticidad media de la produccin con relacin al
trabajo, con lo cul se medira la influencia que tiene el factor trabajo en la produccin y el capital.
f) Si hubo multicolinealidad en la regresin (1), se vio sta reducida por la regresin (2)? Cmo se sabe?
En la regresin 1 se pudo observar que existe multicolinealidad, lo cual pudimos darnos cuenta por los valores t,
con el objetivo de mejorar la multicolinealidad se estima el segundo modelo pero al parecer este no es el modelo
adecuado para reducir la multicoinealidad ya que obtuvimos valores t mas bajos que el primer modelo al igual
que el R 2 , y por lo tanto nos estara ocasionando un problema ms grave que el anterior.
g) Si la regresin (2) es una versin restringida de la regresin (1), qu restriccin es impuesta por el autor?
(Pista: rendimientos a escala) Cmo se sabe si esta restriccin es vlida? Cul prueba se utiliza?
Mustrense todos los clculos.
H 0 : ( 2 + 3 ) = 1

http://bajalibrosdeeconomia.blogspot.com/
H a : ( 2 + 3 ) 1
n= 24
g de l = 20
= 0.05
t d = 1.725
+ 3 ( 2 + 3 )
tc= 2
ee 2 + 3

tc =

(0.11 + 0.006) 1 = 5.67


(0.15 + 0.006)

-5.67

- 1.725

1.725

No existe suficiente evidencia estadstica para aceptar la H 0 : ( 2 + 3 ) = 1 con un 95% de confianza debido a que
el t calculado esta fuera de la zona de aceptacin por lo tanto se acepta la H a : ( 2 + 3 ) 1 , y econmicamente se
dira que no existen rendimientos constantes a escala.
h).- Son comparables los valores R 2 de las dos regresiones? Por qu si o porque no? Cmo puede hacerse
comparables, si no lo son en la forma actual?
No, no son comparables los R 2 y debido que para que sean comparables las variables de los dos modelos deben ser
iguales, y en este caso no lo son.
Para
tener
la
misma
variable
dependiente
se
realiza
lo
siguiente:
log Y log L = 0.11 + 0.11 log K 0.11 log L + 0.006t
log Y = 0.11 + 0.11 log K 0.11 log L + 0.006t + log L
log Y = 0.11 + 0.11 log K log L(0.11 1) + 0.006t
log Y = 0.11 + 0.11 log K + 0.81 log L + 0.006t
A partir de este modelo se puede comparar los R 2 ya que las variables dependientes ahora s son las mismas.
10.26 klein y Goldberger intentaron ajustar el siguiente modelo de regresin a la economa de Estados
Unidos:
Yt = 1 + 2 X 2i + 3 X 3i + 4 X 4i + u i
donde Y = consumo, X 2 = ingreso salarial, X 3 = ingreso no salarial, no procedente del campo y X 4 = ingreso
procedente del campo. Pero, puesto que se espera que X 2 , X 3 y X 4 sean altamente colineales, ellos
obtuvieron los siguientes estimaciones de 3 y 4 del anlisis de corte transversal: 3 =0.75 2 y 4 =
0.625 2 .
Utilizando estas estimaciones, ellos reformularon su funcin de consumo de la siguiente forma:
Yt = 1 + 2 ( X 2i + 0.75 X 3i + 0.625 X 4i ) + u i = 1 + 2 Z i + u i
donde Z i = X 2i + 0.75 X 3i + 0.625 X 4i
Tabla 10.11
Ao

Y
1936
1937
1938
1939
1940
1941
1945*
1946
1947
1948
1949
1950
1951
1952

X2
62,8
65
63,9
67,5
71,3
76,6
86,3
95,7
98,3
100,3
103,2
108,9
108,5
111,4

X3
43,41
46,44
44,35
47,82
51,02
58,71
87,69
76,73
75,91
77,62
78,01
83,57
90,59
95,47

X4
17,1
18,65
17,09
19,28
23,24
28,11
30,29
28,26
27,91
32,3
31,39
35,61
37,54
35,17

3,96
5,48
4,37
4,51
4,88
6,37
8,96
9,76
9,31
9,85
7,21
7,39
7,98
7,42

http://bajalibrosdeeconomia.blogspot.com/
a) Ajstese el modelo modificado a los datos de la tabla 10.11 y obtngase estimaciones de 1 a 4 .
Con los datos de la tabla anterior procedemos a correr el modelo en el EViews, y obtenemos los siguientes resultados:
Variable

Coefficient

Std. Error

t-Statistic

Prob.

Z
C

0.503074
20.72698

0.052527
7.153282

9.577428
2.897549

0.0000
0.0134

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.884312
0.874671
6.600008
522.7212
-45.20508
0.796342

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

87.12143
18.64313
6.743582
6.834876
91.72712
0.000001

Yi= 1+ 2Zi+ui, en donde:


Z= (X2i + 0.75X3i + 0.625X4i )
Yi= 20,726 + 0,5030 Zi
Como 3 y 4 dependen de 2 , entonces solamente al obtener el valor de 2 podemos saber el valor de los otros
estimadores, es as entonces como se obtienen los datos siguientes:
B2 = 0,5030 * X2i
= 0,5030 X2i
B3 = 0,5030 * 0,75* X3i = 0,3773 X3i
B4 = 0,5030 * 0,625* X4i = 0,3144 X4i
Restaurando el modelo con los datos anteriores obtenemos la siguiente regresin.

Yi= 20,726 + 0,5030X2i + 0,3773X3i + 0,3144X4i


b) Cmo se interpretara la variable Z?
Dado un incremento unitario en Z se estima que el consumo tambin se incrementara en 1.1947 dlares porque Z =
0,5030 X2i +0,3773 X3i+ 0,3144 X4i adems se puede ver que existe una relacin directa entre las variables.
10.27 La tabla 10.12 proporciona cifras sobre importaciones, PNB e ndice de precios al consumidor (IPC)
para Estados Unidos, durante el perodo 1970-1998. Se pide considerar el siguiente modelo:
ln Im portaciones t = 1 + 2 ln PNBt + 3 ln IPC t + u t
Tabla 10.12
observacin IPC
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998

PNB
38,8
40,5
41,8
44,4
49,3
53,8
56,9
60,6
65,2
72,6
82,4
90,9
96,5
99,6
103,9
107,6
109,6
113,6
118,3
124
130,7
136,2
140,3
144,5
148,2
152,4
158,9
160,5
163

1039,7
1128,6
1240,4
1385,5
1501
1635,2
1823,9
2031,4
2295,9
2566,4
2795
3131,2
3259,2
3534,9
3932,7
4213
4452,9
4742,5
5108,3
5489,1
5803,2
5986,2
6318,9
6642,3
7054,3
7400,5
7813,2
8300,8
8759,9

Importaciones
39866
45579
55797
70499
103811
98185
124228
151907
176002
212007
249750
235007
247642
268901
332418
338088
368425
409765
447189
477365
498337
490981
536458
589441
668590
749574
803327
876366
917178

a) Estmese los parmetros de este modelo utilizando la informacin dada en la tabla.


Con los datos proporcionados corremos el modelo en el programa EViews, y obtenemos los siguientes resultados:

http://bajalibrosdeeconomia.blogspot.com/
Dependent Variable: IMPOR
Method: Least Squares
Date: 04/25/07 Time: 18:16
Sample: 1970 1998
Included observations: 29
IMPOR=C(1)+C(2)*PNB+C(3)*LNIPC
C(1)
C(2)
C(3)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Coefficient

Std. Error

t-Statistic

Prob.

1.737832
1.170334
0.267969

0.777294
0.402363
0.564399

2.235746
2.908650
0.474785

0.0342
0.0073
0.6389

0.982883
0.981566
0.122891
0.392656
21.23148

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

12.48633
0.905137
-1.257343
-1.115899
0.523606

ln Im
portacionest = 1.738 + 1.170 ln PNB t + 0.268 ln IPC t
ee = (0.78) (0.40)
(0.56)
t = (2.24) (2.91)
(0.47)

b) Se sospecha que hay multicolinealidad en los datos?


Si existe multicolinealidad en los datos porque al observar los resultados nos damos cuenta que los valores t son
poco significativos a pesar de que tenemos un R 2 alto, es decir nos indica que individualmente las variables
independientes no explican las variaciones en la importaciones pero si lo hacen de manera global.
c) Efectense las regresiones:
1) ln Im portaciones t = A1 + A2 ln PNBt
Dependent Variable: IMPOR
Method: Least Squares
Date: 04/25/07 Time: 18:18
Sample: 1970 1998
Included observations: 29
IMPOR=C(1)+C(2)*PNB
C(1)
C(2)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Coefficient

Std. Error

t-Statistic

Prob.

1.395046
1.360637

0.283816
0.034708

4.915316
39.20240

0.0000
0.0000

0.982735
0.982095
0.121115
0.396060
21.10630

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

12.48633
0.905137
-1.317676
-1.223380
0.514920

A partir del modelo corrido construimos la regresin que es la siguiente.


ln Im
portaciones t = 1.395 + 1.361 ln PNB t
ee= (0.284) (0.035)
t= (4.915) (39.20)
2) ln Im portaciones t = 1 + 2 ln IPC t
Dependent Variable: IMPOR
Method: Least Squares
Date: 04/25/07 Time: 18:18
Sample: 1970 1998
Included observations: 29
IMPOR=C(1)+C(2)*LNIPC
C(1)
C(2)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Coefficient

Std. Error

t-Statistic

Prob.

3.902843
1.903308

0.252998
0.055808

15.42638
34.10464

0.0000
0.0000

0.977313
0.976473
0.138834
0.520424
17.14669

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

12.48633
0.905137
-1.044599
-0.950303
0.519796

A partir del modelo corrido construimos la regresin que es la siguiente.

http://bajalibrosdeeconomia.blogspot.com/
ln Im
portaciones t = 3.903 + 1.903 ln IP C t
ee = (0.253) (0.056)
t = (15.43) (34.11)

3) ln PNBt = C1 + C 2 ln IPC t
Dependent Variable: PNB
Method: Least Squares
Date: 04/25/07 Time: 18:19
Sample: 1970 1998
Included observations: 29
PNB=C(1)+C(2)*LNIPC
C(1)
C(2)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Coefficient

Std. Error

t-Statistic

Prob.

1.849908
1.397327

0.107112
0.023628

17.27073
59.13983

0.0000
0.0000

0.992339
0.992056
0.058779
0.093283
42.07229

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

8.151538
0.659462
-2.763606
-2.669310
0.365873

A partir del modelo corrido construimos la regresin que es la siguiente.


ln PN Bt = 1.85 + 1.40 ln IP C t
ee = (0.11) (0.02)
t = (17.27) (59.14)
Con base en estas regresiones, qu se puede decir sobre la naturaleza de la multicolinealidad en la
informacin?
En base a estas regresiones se puede decir que el producto nacional bruto (PNB) y el ndice de precios al
consumidor (IPC) para Estados Unidos estn altamente correlacionados, es por esta razn que existe
multicolinealidad, es decir en conjunto estas dos variables explican las variaciones en las importaciones,
d) Supngase que existe multicolinealidad en los datos, pero que 2 y 3 son significativos individualmente
al nivel del 5% y que la prueba global F es tambin significativa. En este caso, debe preocupar el problema
de colinealidad?
A pesar de que 2 y 3 son significativos individualmente al nivel del 5% y que la prueba global F existe
multicolinealidad pero esto no se considera un problema grave ya que se encontrara en un rango muy bajo de 0 a
0.5 es decir existe una multicolinealidad baja.
EJERCICIO
Datos
PIB
9,7937
10,2285
11,0429
11,3861
12,0335
11,7738
11,8811
13,2206
14,4959
15,3725
16,9171
13,7007
20,7069
22,2
24,085
26,3838
23,5866
30,0748
32,6428
35,5308
37,3065

CAPITAL
TRABAJO TIEMPO
20,787
11,113
1
21,257
11,262
2
21,727
11,424
3
22,2294
11,605
4
22,7317
11,81
5
23,203
11,679
6
23,6742
11,504
7
21,2198
11,668
8
24,7653
11,891
9
25,5707
11,829
10
26,1899
11,891
11
27,9064
11,994
12
26,623
12,118
13
31,9305
12,174
14
34,238
12,28
15
36,711
12,41
16
39,184
12,539
17
41,8341
12,609
18
44,4842
12,642
19
47,8136
12,939
20
51,1434
12,955
21

Con los datos proporcionados en la tabla utilizando el programa EViews, y obtenemos los siguientes resultados:

http://bajalibrosdeeconomia.blogspot.com/

Dependet Variable: LNPNB


Method: Least Squares
Date: 04/26/07 Time: 09:31
Sample: 2001 2021
Included observations: 21
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
LNTRABAJO
LNCAPITALL
TIEMPO

-0.674319
0.403773
0.628648
0.039676

2.575361
1.137211
0.155539
0.008026

-0.261835
0.355056
4.041736
4.943527

0.7966
0.7269
0.0008
0.0001

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.991804
0.990358
0.043566
0.032267
38.22389
0.479947

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

2.888762
0.443670
-3.259419
-3.060462
685.7265
0.000000

Pruebas para la deteccin de la Multicolinealidad


1.- Un R 2 alto y varias razones t poco significativas
En esta regresin tenemos un R 2 =0.99 y el valor t de la prueba de significancia individual del trabajo es poco
significativo por lo que determinamos que si existe multicolinealidad ya que individualmente el trabajo no explica
las variaciones en el PNB pero conjuntamente las variables independientes si explican las variaciones en el PNB.
2.- Altas correlaciones simples entre pares de variables
Correlaciones
LNPIB
LNPIB
LNTRABAJO
LNCAPITALL
TIEMPO

1.000000
0.977958
0.986022
0.990562

LNTRABAJO
0.977958
1.000000
0.970110
0.975764

LNCAPITAL

TIEMPO

0.986022
0.970110
1.000000
0.970396

0.990562
0.975764
0.970396
1.000000

Analizando las correlaciones entre pares de variables explicativas trabajo-capital, trabajo-tiempo, capital-tiempo se
puede concluir diciendo que, de acuerdo a esta prueba si existe multicolinealidad ya que estas son correlaciones
altas.

3.- Examen de correlaciones parciales


2
R global
=0.992
2
es mayor a los valores de las correlaciones parciales queda comprobado con esta prueba una
Debido a que el R global
vez ms que si existe multicolinealidad entre las variables explicativas del modelo.

Matriz de correlaciones parciales

R1
R2
R3
R4

C1

C2

C3

C4

1.000000
0.977958
0.986022
0.990562

0.977958
1.000000
0.970110
0.975764

0.986022
0.970110
1.000000
0.970396

0.990562
0.975764
0.970396
1.000000

4.- Correr regresiones auxiliares entre cada variable explicativa y las dems explicativas; luego obtiene el
coeficiente de determinacin de cada regresin auxiliar R 2 j y el valor F.

Regresin 1

http://bajalibrosdeeconomia.blogspot.com/
Dependent Variable: LNTRABAJO
Method: Least Squares
Date: 04/26/07 Time: 10:23
Sample: 2001 2021
Included observations: 21
Variable

Coefficient

Std. Error

t-Statistic

Prob.

LNCAPITALL
TIEMPO
C

0.060124
0.004139
2.236741

0.028956
0.001347
0.083510

2.076419
3.072043
26.78403

0.0525
0.0066
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.961368
0.957076
0.009030
0.001468
70.67280
1.219962

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

2.485329
0.043584
-6.445028
-6.295811
223.9691
0.000000

Regresin 2
Dependent Variable: LNCAPITALL
Method: Least Squares
Date: 04/26/07 Time: 10:09
Sample: 2001 2021
Included observations: 21
Variable

Coefficient

Std. Error

t-Statistic

Prob.

LNTRABAJO
TIEMPO
C

3.214045
0.023125
-4.865026

1.547879
0.010873
3.730408

2.076419
2.126903
-1.304154

0.0525
0.0475
0.2086

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.952940
0.947712
0.066020
0.078456
28.89462
0.328898

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

3.377305
0.288717
-2.466154
-2.316937
182.2470
0.000000

Regresin 3
Dependent Variable: TIEMPO
Method: Least Squares
Date: 04/26/07 Time: 10:11
Sample: 2001 2021
Included observations: 21
Variable

Coefficient

Std. Error

t-Statistic

Prob.

LNTRABAJO
LNCAPITALL
C

83.10117
8.685160
-224.8661

27.05078
4.083477
53.95576

3.072043
2.126903
-4.167602

0.0066
0.0475
0.0006

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.961732
0.957480
1.279457
29.46618
-33.35428
0.467259

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

11.00000
6.204837
3.462312
3.611530
226.1848
0.000000

Corridos las regresiones con los datos proporcionados obtuvimos los siguientes valores:
2
R global
=0.992

R 1 2 j =0.961
F1= 223.97
Relacionando las variables explicativas trabajo en funcin del capital y el tiempo podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.961 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.
2
R global
=0.992

R2 2 j = 0.953
F2= 182.25
Relacionando las variables explicativas capital en funcin del trabajo y el tiempo podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.953 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando

http://bajalibrosdeeconomia.blogspot.com/
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.
2
R global
=0.992

R3 2 j = 0.962
F3 = 226.18
Relacionando las variables explicativas tiempo en funcin del trabajo y el capital podemos darnos cuenta que el
R 2 de la regresin auxiliar es igual a 0.962 y por lo tanto es menor que el R 2 global de 0.992 lo cual podramos
decir que existe un problema de multicolinealidad pero este no es grave ya que el problema es preocupante cuando
el R 2 global es menor al R 2 auxiliar, es decir que existe mayor relacin entre la variable dependiente con las
explicativas que entre las explicativas mismas.

5.- Anlisis del Factor Inflador de la Varianza


Para el clculo del Factor Inflador de la Varianza se procede de la siguiente manera:
1
FIV =
1 R 2j

Regresin 1
FIV =

1
= 25.885
(1 0.961368)

Regla prctica
En general si el FIV es mayor o igual a 10 ( R 2j 0.9) hay evidencia de alta colinealidad
Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mayor que 10.
Regresin 2
FIV =

1
= 21.249
(1 0.952940)

Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mucho mayor que 10.
Regresin 3
FIV =

1
= 26.131
(1 0.961732)

Tomando en cuenta la regla prctica podemos decir que s existe un alto grado de colinealidad entre las variables
explicativas del modelo debido a que el Factor Inflador de la Varianza en este caso es mucho mayor que 10.

6.- Observar el nmero de condicin y el ndice de condicin


Diagnstico de colinealidad
Proporciones de la varianza
Modelo
1

Dimensin
1

Autovalor

Indice de
condicin

3.835

1.000

(Constante)
.00

LNTRABAJ
.00

LNCAPITA
.00

TIEMPO
.00

.164

4.832

.00

.00

.00

.04

.000

118.864

.01

.00

.86

.55

6.200E-06
a Variable dependiente: LNPIB

786.516

.99

1.00

.14

.40

Para ello aplicamos la siguiente formula:


Mximo, valor , propio
Nmero de condicin K =
Mnimo, valor , propio
Como:
IC = K
Obtuvimos primero el ndice de Condicin y a partir de este podemos obtener K de la siguiente manera:
K = IC 2

http://bajalibrosdeeconomia.blogspot.com/
A partir del ndice de condicin de 2 se obtiene el valor de K que es de 23.35
Como este valor esta entre 10 y 30 se puede decir que existe multicolinealidad entre moderada y fuerte.
A partir del ndice de condicin de 3 se obtiene el valor de K que es de 14128.65
Como este valor excede a 1000 se dice entonces que existe una multicolinealidad severa.
A partir del ndice de condicin de 4 se obtiene el valor de K que es de 618607.42
Como este valor excede a 1000 se dice entonces que existe una multicolinealidad severa.
7.- Prueba de Farrar-Glauber

H 0 : Rx = 1
H a : Rx = 0
con K

K 1
grados de libertad
2

Gd = 9.34840 con / 2
Gd = 0.215795 con 1- / 2
gl = 3
1

Gc = n 1 (2 K + 5) ln R x
6

Gc = 21 1 (2 * 3 + 5) ln 0.0000184693301439
6

Gc = 21 1 (2 * 3 + 5) (10.89939903)
6

Gc = 198.01

Interpretacin
Debido a que el G calculado es mayor que el G dado, no existe suficiente evidencia estadstica para aceptar la
hiptesis nula de que H 0 : Rx = 1 con un 95% de confianza, es decir se acepta la H a : Rx = 0 por lo tanto si existe
multicolinealidad.
Correccin de la Multicolinealidad
Como medida correctiva para la multicolinealidad nosotras hemos tomado la decisin de no hacer nada ya que
las variables explicativas tienen una relevancia terica importante en la especificacin del modelo, es decir si
eliminaramos cualquier variable provocaramos un sesgo de especificacin.

http://bajalibrosdeeconomia.blogspot.com/

Você também pode gostar