Escolar Documentos
Profissional Documentos
Cultura Documentos
NDICE DE CONTENIDOS
CONCEPTOS BSICOS SOBRE LA HETEROCEDASTICIDAD EN EL MODELO
BSICO DE REGRESIN LINEAL........................................................................................1
1.- Qu es.....................................................................................................................3
2.- Causas frecuentes de heterocedasticidad..............................................................3
3.- Efectos de la heterocedasticidad sobre el MBRL.................................................5
4.- Cmo se detecta la presencia de Heterocedasticidad..........................................7
A. Contrastes Grficos................................................................................................7
A.1) Grfica del error a travs de las distintas observaciones del modelo................7
A.2) Grfica del valor cuadrtico del error y los valores de Y y Xs..................8
B. Contrastes numricos.............................................................................................8
B.1.) Contraste de Glesjer..........................................................................................8
B.2.) Contraste de Breusch-Pagan.............................................................................9
B.3.) Contraste de White (prueba general de heterocedasticidad de White)...........10
B.4.) Contraste a partir del coeficiente de correlacin por rangos de Spearman ... 12
5.- Cmo se corrige....................................................................................................13
TRATAMIENTO DE LA HETEROCEDASTICIDAD EN E-VIEWS.................................15
EJEMPLO PRCTICO DE ANLISIS DE HETEROCEDASTICIDAD...........................22
1.- Qu es
El modelo bsico de regresin lineal exige que la varianza condicional de las perturbaciones
aleatorias a los valores de los regresores X sea constante:
Varui
/X
Varu i
Para comprender de forma intuitiva esta restriccin podemos razonar del siguiente modo.
Iguales varianzas de u para los distintos valores de x implica necesariamente igual
dispersin (varianzas) de y para distintos valores de x lo que implica necesariamente que la
recta de regresin va a representar con igual precisin la relacin entre x e y
independientemente de los valores de x. Esto es muy importante porque debe recordarse
que el anlisis de regresin es un anlisis de regresin condicional de y sobre x lo cual
implica, por lgica, que si se desea obtener un parmetro de relacin estable y til entre ambas
variables, los valores muestrales de y deben mostrarse igualmente dispersos ante variaciones
de x. Dicho de otro modo, y en trminos del error, aunque el error ser mayor para mayores
valores de x (no se fuerza que el error tenga un tamao igual para el recorrido de x) la
dispersin del error alrededor de la recta de regresin ser la misma. Esto permite considerar
igualmente vlidos todos los datos muestrales de los regresores x para determinar la relacin
condicional de y a los valores de x sin tener que ponderar ms o menos unos valores u otros
de x en funcin de la menor o mayor dispersin de y en los distintos casos.
En un plano puramente analtico, la matriz de varianzas-covarianzas de las perturbaciones de un
modelo heterocedstico se representara del siguiente modo:
E(u ) 2
1
E(UU ' )
E(u u )
1 2
E(u 1 ) 2
0
E(u2 ) 2
0
0
E(u2 )
...
E(u1u n
)
E(u ) 2
E(u 2 u n )
i I n
...
0
E(un
) 2
MCG
X ' X 1
X' Y
Etimolgicamente, por cierto, la palabra deriva de hetero (distinto) y el verbo griego skedanime que
significa dispersar o esparcir.
De hecho, los parmetros estimados "recogern mejor" el comportamiento de la serie en aquella de las dos
estructuras distintas que se produzca durante mayor nmero de observaciones, ya que los parmetros estimados en
presencia de un cambio de estructura sern una media ponderada de los que resultaran de una estimacin particular
para cada una de las dos submuestras
Esta causa, apuntada por Gujarati , se refiere a la modelizacin de fenmenos que contienen un
mecanismo de auto - aprendizaje en funcin de los errores (desajustes) previos. En este tipo de
fenmenos, el paso del tiempo implica progresivamente, no slo un menor tamao del error,
sino adems una varianza progresivamente inferior.
B.4.- Presencia de puntos atpicos
La presencia de algunos valores atpicos en la muestra de datos implicar necesariamente un
desajuste en la varianza de la perturbacin (en cierto modo, un punto atpico puede considerarse
un elemento muestral perteneciente a otra distribucin y, por tanto, potencialmente con varianza
distinta).
En todo caso, sea cul sea el origen del problema, en muchas ocasiones es posible asociar la
varianza no constante de las perturbaciones aleatorias a los valores de alguna de las variables
4
incluidas en el modelo. Dicho de otro modo, podra suponerse que la varianza de la
perturbacin se compone de una parte constante, homocedstica, y otra que vara segn los
valores de una determinada variable Zi:
i2 f (2 Zi )
donde sera la parte fija de la varianza, y Zi la variable o incluso la matriz de variables cuyos
valores se asocian con los cambios en la varianza de las perturbaciones aleatorias.
2
Es muy probable que esta asociacin entre el proceso de heterocedasticidad y una determinada
variable o una combinacin de ellas sea algo simplista, probablemente no sea muy realista y y
quiz no alcance a ser completamente satisfactoria para explicar el patrn de movimiento de
la varianza. Sin embargo, asumir este tipo de conexin entre varianza de U y una/s variable/ss
est en la base de la mayora de los procedimientos de deteccin de la heterocedasticidad y,
desde luego, resulta imprescindible para los mecanismos de solucin de la heterocedasticidad.
Efectivamente, este tipo de funcin podra ser empleada precisamente como el supuesto
simplificador al que anteriormente se haca referencia para posibilitar la estimacin mediante
MCG sin encontrarnos con ms incgnitas (elementos de la matriz ) que observaciones.
3
4
valores de alguna variable no incluida en el modelo (una variable omitida, consciente o inconscientemente) aunque,
en general, y quiz por un criterio de sencillez operativa, los mtodos de correccin y deteccin se suelen concentrar
en la lista de variables exgenas incluidas en la especificacin.
de modo que, si se
~2
e' e
n k
de modo que, adems del error de clculo en la estimacin de la varianza de los parmetros,
todos aquellos contrastes o tests basados en este estimador insesgado sern tambin incorrectos.
En todo caso, un error frecuente consiste en pensar que cualquier clculo que implique la
utilizacin de los errores de un modelo heterocedstico ser incorrecto cuando, en realidad, no
2
es as. Un ejemplo interesante es el clculo del coeficiente de determinacin R (o su versin
corregida) que no se ve afectado por la existencia de heterocedasticidad. La razn estriba en que
2
el clculo de la R se realiza a partir del clculo de las varianzas poblaciones de u (u) y de
y (y) y el hecho de que utilicemos conceptos poblaciones, no muestrales, implica que
5
Sobre esta reflexin puede ser interesante recordar un par de experimentos. El primero, realizado por Goldfeldt y
Quandt en 1972 (Non Linnear Methods in Econometrics. North Holland, pp 280.) lleg a dos conclusiones: (1) que la
prdida de eficiencia de MCO respecto a MCG puede ser de hasta 10 veces en el parmetro constante y de 4 veces en
los parmetros que acompaan a variables explicativas y (2) que el clculo incorrecto de de la varianza de los
estimadores ignorando la heterocedasticidad produce en general un sesgo por infravaloracin de la real del orden del
doble. El segundo, realizado por Davidson y Mackinnon en 1993 (Estimation and Inference in Econometrics, OUP,
Nueva Cork, 19993, pp. 549-550) concluy que el uso de MCO (con o sin correccin) sobreestima consistentemente
el verdadero error estndar de los parmetros obtenido mediante el procedimiento correcto (MCG) mientras que la
utilizacin de MCO sin corregir tienden a ofrecer menores varianzas que las obtenidos por MCO corregidos, para los
parmetros de pendiente, y mayores para el trmino independiente.
A.Contrastes Grficos
A.1) Grfica del error a travs de las distintas observaciones del modelo
Dado que las series econmicas presentan casi siempre una tendencia definida (positiva o
negativa), la simple grfica de error puede servir para conocer intuitivamente si el mero
transcurso del tiempo da lugar a un incremento/decremento continuado del error, lo que sera
significativo de una relacin entre la evolucin de las variables del modelo y los valores cada
vez mayores o cada vez menores de ste.
Grficos del error sintomticos de presencia de heterocedasticidad
10
5
0
-5
-10
15
6
4
2
0
-2
-4
-6
En ambos, la mera evolucin del tiempo est correlacionada con valores cada vez mayores
(izquierda) del error o cada vez menores (derecha), con lo que el clculo de la varianza por
subperodos arrojara valores significativamente diferentes; es decir la serie del error sera
heterocedstica. Evidentemente, este tipo de grficos SLO tiene sentido si el modelo es
temporal ya que, en el caso del modelo transversal, la ordenacin de valores del eje X
depender del criterio elegido para ordenar la muestra, un criterio que puede no coincidir con el
patrn de crecimiento o decrecimiento de la varianza.
La representacin de los valores del error al cuadrado y la variable endgena o cada una de las
variables exgenas puede revelar la existencia de algn patrn sistemtico en la varianza de la
perturbacin (se entiende que el error al cuadrado se asocia con la dispersin del error). Este
tipo de grfico, no slo permite obtener una idea preliminar de si existe o no heterocedasticidad
sino tambin de la o las variables que pudieran estar conectadas con la misma.
B. Contrastes numricos
Todos los procedimientos presentados aqu tratan de cuantificar la presencia de
heterocedasticidad. Algunos de ellos, no slo se limitan a cuantificarla sino que, adems,
permiten valorar la existencia de heterocedasticidad en trminos de probabilidad recurriendo a
distribuciones estadsticas conocidas; este ltimo grupo de contrates se denominan, por ello,
7
contrastes "paramtricos".
B.1.) Contraste de Glesjer
De forma similar al caso anterior, Glesjer propone descartar la variacin del error en funcin de
una variable z, que ahora pueden estar elevadas a una potencia "h" que estara comprendida
entre -1 y 1. El modelo que se propone es:
1. Estimar el modelo inicial, sobre el que se pretende saber si hay o no heterocedasticidad,
empleando MCO y determinando los errores.
6
7
Eventualmente podran tambin realizarse los grficos con valores absolutos del residuo.
En particular, los contrastes que se presentan parten de una estructura acorde a la del Multiplicador de Lagrange. De
forma muy intuitiva, sin querer hacer una argumentacin estrictamente acadmica, diremos que en este tipo de
contrastes se propone siempre dos modelos, uno inicial y otro en el que se incorpora algn aadido en la
especificacin. A partir de un ratio sobre los errores de cada uno de estos modelos (o alguna transformada de estos),
se compara si el modelo ms completo aporta suficiente explicacin adicional de la endgena como para compensar
el coste de incorporar ms variables.
| ei
h1,0.5,0.5,1
| 0 1 z
e' e
2
n
3. Estimas una regresin del error calculado en el paso (2) explicado por una constante y
el conjunto de las variables Z que se pretende saber si producen o no heterocedasticidad
2
en el modelo, obtenindose la R de este modelo y la varianza de la estimada:
~e 2
z
i
Re~
1 1i
2
2i
... z
p
pi
1
0
4. En principio, dado que el modelo tiene trmino constante, se cumple la regla general de
las regresiones segn la cual la varianza de la endgena real es igual a la suma de la
varianza de la endgena estimada ms la varianza del error obtenido en el modelo
2
2
los autores demuestran que, en el caso de un modelo homocedstico, se distribuye como
2
una p , con lo que, si el valor del ratio supera al valor de tablas, se rechaza la hiptesis
nula (homocedasticidad); es decir, se acepta que el conjunto de variables Z est
produciendo heterocedasticidad en el modelo original.
El contraste de Breusch Pagan efectivamente nos servir para aceptar o descartar la presencia de
heterocedasticidad debida a ese conjunto de variables Z citado, pero su operatividad es limitada.
Si el conjunto de las variables Z contiene variables no incluidas en el modelo original, parece
difcil no haberlas tenido en cuenta antes para realizar una buena especificacin y s tenerlas en
cuenta ahora para la contrastacin. Por otro lado, la lista de variables Z debe ser necesariamente
pequea para poder realizarse el contraste.
B.3.) Contraste de White (prueba general de heterocedasticidad de White)
Aunque en apariencia esta prueba es parecida a las mencionadas anteriormente, parece admitido
que algo ms robusta al no requerir supuestos previos como, por ejemplo, la normalidad de las
perturbaciones. Por otro lado, tal y como se ver a continuacin, la prueba no exigir determinar
a priori las variables explicativas de la heterocedasticidad (lo cual no es necesariamente una
virtud) y es por esta razn por lo que se denomina prueba general.
En este contraste la idea subyacente es determinar si las variables explicativas del modelo, sus
cuadrados y todos sus cruces posibles no repetidos sirven para determinar la evolucin del error
al cuadrado. Es decir; si la evolucin de las variables explicativas y de sus varianzas y
covarianzas son significativas para determinar el valor de la varianza muestral de los errores,
entendida sta como una estimacin de las varianzas de las perturbaciones aleatorias.
El proceso a seguir para realizar este contraste sera el siguiente:
1. Estimar el modelo original por MCO, determinando la serie de los errores. Escrito esto
en forma matricial para un modelo con "n" observaciones y "k" variables explicativas:
Y X U
1
X ' X X
'Y Y X
e Y Y
2. Estimar un modelo en el que la endgena sera los valores al cuadrado de los errores
obtenidos previamente (paso 1) con todas las variables explicativas del modelo inicial,
sus cuadrados y sus combinaciones no repetidas.
2
El valor de la R de este segundo modelo (paso 2) nos dir si las variables elegidas
e
sirven o no para estimar la evolucin variante del error al cuadrado, representativo de la
varianza estimada de las perturbaciones aleatorias. Evidentemente, si la varianza de
stas fuera constante (homocedasticidad), el carcter no constante de las variables
2
explicativas implicadas en el modelo no servira para explicar la endgena, luego la R e
debiera ser muy pequea.
En principio, la
por la estimada, debiera ser muy pequea si la capacidad explicativa de los regresores
considerados tambin es muy pequea, siendo estos regresores, por su construccin,
representativos de varianzas y covarianzas de todas las explicativas del modelo original. Dicho
2
esto, evidentemente un valor de la R suficientemente pequeo servir para concluir que no
existe heterocedasticidad en el modelo producida por los valores de las explicativas
consideradas en el modelo inicial. Para encontrar el valor crtico en esa consideracin de
suficientemente pequeo se emplea la expresin deducida por Breusch y Pagan como
2
producto del coeficiente R por el nmero de datos del modelo, que se distribuira del siguiente
modo:
2
nR p1
e
En definitiva, si obtenemos un valor del producto nR e mayor que el reflejado por las tablas de
En este caso, la endgena real ser el valor del error muestral al cuadrado de la primera regresin practicada. En el
caso de homocedasticidad, este debe ser casi constante, por lo que difcilmente la evolucin de otras variables podra
explicar un valor fijo. Por ello es intuitivo pensar que cuanto mayor sea la R2 de este modelo, ms probable ser la
heterocedasticidad.
r 1
6d i
i1
n(n
1)
En esta expresin, una coincidencia mxima (todas las distancias son igual a cero), dara lugar a
una correlacin de Spearman igual a uno; mientras que una distancia mxima, provocara un
9
valor cero de dicho coeficiente de correlacin .
En la siguiente tabla se hace un pequeo ejemplo numrico de clculo del coeficiente de
Spearman para clarificar lo dicho hasta ahora.
Series originales
Puest
o
1
2
3
4
5
x
j
1.83
8424
501
2.33
2688
|
e
1
1,
1,
1,
1,
,
Series ordenadas
Puest
|
o
e
2
1
3
1,
5
1,
1
1,
4
1,
,
x
j
424
501
688
1.83
8
2.33
2
n
r 1
6di
i1
n(n
1)
Puest
o
3
4
2
5
1
d
2-3=1
3-4=152=3
1-5=441=3
1
1
9
1
69
6 * 30 1 1,8 0,8
5(25
1)
En este caso, el grado de correlacin negativa de ambas series sera bastante elevado, dado que
los extremos de correlacin seran +/-1.
Para valorar la significatividad o no de esta correlacin, se conoce la funcin de distribucin del
siguiente ratio bajo la hiptesis nula de no significatividad, demostrado por el autor:
de correlacin lineal
r(x, y)
cov(x, y)
Sx S y
segn la progresin de una de ellas. Para ver el detalle del denominador, se puede acudir a MartnGuzmn y Martn Pliego (1985), pginas 312-314.
rsN 2
1 r 2S
tn2
Con ello, si el resultado del ratio es superior al valor de tablas podremos afirmar que la
correlacin es significativa o, de cara a nuestro inters en este caso, que hay indicios de
heterocedasticidad en el modelo provocada por la variable xji.
B.5) Otros contrastes
Aunque no se comentarn aqu, si es conveniente citar otros contrastes habituales para la
determinacin de la heterocedasticidad, como:
-
Contraste de Harvey
Contraste test de Park
Contraste RESET de Ramsey
Golfeld-Quandt
Contraste de picos
LM Arch
i2 f (2 Zi )
Por lgica, el modo de subsanar el problema detectado ser operar convenientemente la
variables del modelo precisamente eliminando la fuente de heterocedasticidad que habremos
podido definir cuando detectamos la misma. Como veremos a continuacin, si el conjunto total
de las variables del modelo (endgena incluida) es dividido por la forma estimada de esta
funcin de la raz de la varianza heterocedstica (una vez algn mtodo de deteccin nos haya
E(UU ' )
E(u ) 2
1
E(u1u 2 )
E(u2 )
E(u 1 ) 2
0
...
E(u ) 2
E(u 2 u n )
E(u1u n
)
E(u2 ) 2
i I n
...
0
E(un
es decir, volveramos al caso de una matriz de varianzas covarianzas escalar tal y como la que se
supone en el modelo bsico de regresin lineal.
Formalmente, para probar esto seguimos los siguientes pasos. Dado que la matriz es una
matriz semidefinida positiva (todos los elementos de su diagonal principal son necesariamente
positivos), siempre podremos descomponerla en dos matrices de la forma:
PP'
'
E(u ) 2
E(u2 )
0
0
...
0
' es:
2
1
0
2
2
0
0
2
0
... E(u
n
0
2
0
)
'
.
.
1
0
0
0
1
0
n
0
...
2
0 n
0
0
2 PP'
0
0
...
0 n
Si multiplicamos cada variable del modelo por esta matriz P, tal y como se ha sugerido,
obtenemos unas nuevas variables del siguiente tipo:
1
P Y P
x P U Y X U
donde:
*
1
1
E(U
U
')
E(P
UU '
P
' ) P
P
E(UU ' )
I n
Por lo que podemos afirmar que el modelo transformado (aquel por el que se han dividido todas
las variables por la desviacin tpica estimada de las perturbaciones aleatorias) soporta una
matriz de varianzas covarianzas de las perturbaciones aleatorias escalar, con lo que se puede
estimar con toda garanta por MCO.
En definitiva, y a modo de breve receta, los pasos para la correccin de la heterocedasticidad
seran los siguientes:
a) Se estiman los parmetros del modelo por MCO, ignorando por el momento el
problema de la heterocedasticidad de las perturbaciones aleatorias
b)
Realizada una primera regresin, los resultados obtenidos son los siguientes:
1000
800
600
400
20
200
10
0
-10
-20
-30
6
Residual
10
12
Actual
14
16
18
20
Fitted
VTASBK
PRECIOSB
K
PRECIOSMA
C RENTA PC
VTASBK
1.00000
0
0.36090
0
0.22608
5
0.99956
6
PRECIOSB
K 0.360900
1.000000
0.704328
0.367945
PRECIOSMA
C 0.226085
0.704328
1.000000
0.235402
RENTAP
C0.999566
0.367945
0.235402
1.000000
2
En principio, el contraste expresado por White sera la segunda opcin, pero, en modelos con
escasas observaciones, a lo mejor no es posible realizar la estimacin con tantos regresores y es
ms recomendable la primera opcin (por no eliminar completamente los grados de libertad).
En nuestro caso, el nmero de observaciones es 20 (pases) y el nmero de explicativas tres ms
la constante, luego el contraste de White con trminos cruzados equivaldra a incluir 10
variables explicativas sobre el cuadrado de los errores de la regresin inicial (la constante, las
tres explicativas, sus tres cuadrados y los tres cruces posibles no repetidos entre ellas).
Para aplicar este contraste en E-views, desde la misma ventana donde se ha realizado la
regresin, se sigue el siguiente trayecto:
Los resultado de este Test de residuos White heteroskedasticity (cross terms) son:
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
7.45877
17.4069
4
Probability
Probability
0.0021
0.0427
12
Como resultado, se nos ofrecen dos formas de contrastar la validez de las variables elegidas para
explicar un comportamiento no homogneo del error al cuadrado (estimador de la varianza de la
perturbacin aleatoria en este caso):
-
F-stastitic (como siempre con k-1; n-k grados de libertad), nos vendra a dar una medida
de la bondad del modelo (probabilidad de heterocedasticidad si se confirma la validez
conjunta de las variables elegidas para determinar la variacin del error al cuadrado - la
endgena-).
Obs*R-squared ( nR ): supuesta la hiptesis nula de homocedasticidad, el
e
p1
2
clculo propuesto debera comportarse como una con p-1 grados de libertad. En
p
1
nuestro caso p=10 (las explicativas de la regresin practicada). (El valor de tablas de
2
La misma salida nos muestra la regresin utilizada para realizar estos clculos, que sera la
siguiente:
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 04/04/01 Time: 18:13
Sample: 1 20
Included observations: 20
Variable
C
PRECIOSBK
PRECIOSBK^2
PRECIOSBK*PRECIOSMA
C PRECIOSBK*RENTAPC
PRECIOSMAC
PRECIOSMAC^2
PRECIOSMAC*RENTAPC
RENTAPC
RENTAPC^2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Coefficie
nt
3872.14
1071.91
-9
423.386
0.06558
8
6562.12
-5
2332.04
0.04849
-5
0.09023
-7.94E07
0.87034
0.75365
9
51.7143
8
26743.7
-7
100.362
1.81078
9
Std.
tError
Statisti
761.410
4225.29
4
0.91642
452.857
2.3670
4
3433.56
-12
8
0.12330
0.01929
3.3985
9
29
4306.57
1.5237
8
3209.94
-45
5
0.72650
0.03957
1.2254
4
0.03450
-23
42.13E-2.61506
07
3.71929
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Pro
b.
0.13
0.38
10
0.03
95
0.90
43
0.00
68
0.15
86
0.48
42
0.24
85
0.02
58
0.00
40
57.081
104.19
42
11.036
20
11.534
07
7.4587
79
0.0021
02
2 X ' X 1 e
n
x'
n k
i1
it
1
x X ' X
t
Para lograr una estimacin empleando esta correccin en E-views, es necesario, una vez se
ejecuta una estimacin lineal normal, pulsar el botn de estimate. Aparecer entonces, a la
derecha, un botn de opciones que, pulsado, permite sealar Heteroskedasticity: consistent
covariance White.
2
0
Coefficie
nt
23.7879
-2.35625
16.7407
0.02527
8
0.99922
0.99907
8
8.44700
7
1141.63
-1
68.8235
2.37676
3
Std. Error
Statistic
8.785312
7.695290
0.306194
13.70312
1.221674
0.000213
t-
Pro
b.
0.01
0.76
34
0.23
95
0.00
00
421.89
278.25
93
7.2823
58
7.4815
04
6867.3
46
0.0000
00
Referencias bibliogrficas
GUJARATI, D. (2006): Principios de Econometra. Mc Graw Hill, Captulo 13. pag.385
GOLFEDLD,SM Y QUANDT (1972): Non Linnear Methods in Econometrics. North Holland,
pag. 280.
Coefficient
C
VENTAS
BENEFICIOS
-139.3921
0.012558
0.239862
R-squared
Adjusted Rsquared
S.E.
of regression
Sum squared
residlikelihood
Log
Durbin-Watson
stat
0.524535
0.461139
27204.69
1.11E+10
-207.7006
3.173929
Std. Error
Statistic
9920.038
0.017998
0.198594
t-
Pro
b.
0.98
0.49
60
0.24
58
30568.
37060.
02
23.4111
8
23.559
57
8.2740
23
0.00378
Signos correctos
Variables no significativas ni individualmente ni de forma conjunta
2
R escaso
100000
50000
0
-50000
-100000
Residual
10
12
Actual
14
16
Fitted
18
RESID2
4.E+09
3.E+09
2.E+09
1.E+09
0.E+00
1000000
2000000
VENTAS
30000
5.E+09
RESID2
4.E+09
3.E+09
2.E+09
1.E+09
0.E+00
RESID_AT
8.E+08
6.E+08
4.E+08
2.E+08
0.E+00
1000000
2000000
VENTAS
30000
RESID_AT
8.E+08
6.E+08
4.E+08
2.E+08
0.E+00
0
i
vi
2
Para estas regresiones, observamos el valor del coeficiente de determinacin R y el pvalue del contraste t de Student para el coeficiente 1.
Beneficios
2
Ventas
2
R
p-value
R
p-value
0.
0.0004
0.46
0.0019
0.
0.0001
0.42
0.0034
63
0.
0.0000
0.27
0.0280
68
0.
0.0358
0.33
0.0123
25
0.
0.0862
0.23
0.0461
17
0.
0.1392
0.11
0.1842
13
A la vista de los resultados, se confirma la evidente relacin del error con las variables
exgenas, especialmente con la variable de beneficios. La parametrizacin con mejores
h=0,
h=1
h=2
h=0.5
h=-1
h=-2
e
~
ei i
Para realizar este clculo, primero necesitamos conocer el valor de la varianza residual
de los residuos originales que resulta ser:
2
2i
11.101.429.732,93
18
616.746.096,27
10
ei
-480,17
-4.156,22
-581,86
-6.806,36
1.228,31
-2.099,32
5.018,89
-11.846,96
-15.734,91
22.961,39
16.594,31
-21.285,29
25.552,56
-10.109,80
-9.424,18
62.836,05
-66.054,61
14.388,17
RGID_2ST
ei 2
e 2
0,0004
0,0280
0,0005
0,0751
0,0024
0,0071
0,0408
0,2276
0,4014
0,8549
0,4465
0,7346
1,0587
0,1657
0,1440
6,4019
7,0746
0,3357
i
10
vi
R-
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
BENEFICIOS
BENEFICIOS^2
0.544613
-2.62E-05
2.23E-10
0.586361
1.54E-05
7.09E-11
0.928802
-1.698895
3.144029
0.3677
0.1100
0.0067
squared
0.699449 Mean dependent var
Adjusted R-squared
0.659376 S.D. dependent var
S-E. of regression
1.234069
Akaike info criterion
Sum squared resid 22.84389 Schwarz criterion
Log likelihood
-27.68570 F-statistic
Durbin-Watson stat
1.798649 Prob(F-statistic)
1.000000
2.114471
3.409522
3.557918
17.45420
0.000121
e~
i
56.2901
es decir:
e ~
28.14500503
11
La opcin cross terms utiliza como exgenas los productos cruzados de las variables exgenas
mientras que opcin no cross terms slo emplea las exgenas y sus cuadrados.
19.4175
16.0199
4
Probability
Probability
0.0000
0.0067
87
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 03/02/06 Time: 15:29
Sample: 1 18
Included observations: 18
Variable
Coefficient
C
VENTAS
VENTAS^2
VENTAS*BENEFICI
OS BENEFICIOS
BENEFICIOS^2
69515964
1349.794
-0.002708
0.050108
-19656.93
-0.116371
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.889997
0.844162
5.15E+08
3.18E+18
-382.9592
2.127352
Std.
tError
Statisti
2.65E+0
0.2620
1077.11
1.2531
4
0.00079
-57
0
3.4267
0.02074
2.4153
6
12978.0
-48
5
0.14663
-1.5146
2
0.7936
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Pro
b.
0.79
0.23
40
0.00
50
0.03
26
0.15
58
0.44
28
6.17E+
1.30E+
09
43.217
68
43.514
48
19.417
56
0.00002
Una vez ms, los indicios de autocorrelacin son claros. Los resultados del test de
2
White muestran, por un lado, el elevado valor de la R en la regresin instrumental, que
supera el valor de una Chi cuadrado con p-1=6-1 grados de libertad, para un nivel
de significacin del 0.67%, es decir, del 99,3%. Por otro lado, aparecen coeficientes
estadsticamente significativos al 99,5% para la variable de Beneficios al cuadrado y
al 96,8% para el producto cruzado de los Beneficios por las Ventas.
3
0
Ventas1
Benef1
1 Ventas2
Benef2
1 Ventas3
..
.. Ventas18
Benef3
Benef1
1
Benef
Ventas1
1
Benef
3
..
..
Benef18
Benef18
Benef1
Ventas2
Benef2
Ventas3
Benef3
1
1
V entas18
Benef18
Coefficient
1/BENEFICIOS
VENTAS/BENEFICIO
BENEFICIOS/BENEFICIOS
-1269.387
0.022273
0.124798
0.0703
0.819102
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.794982
0.225319
0.761527
2.924325
2.486807
Std.
Error
365.608
0.00151
0.064034
tStatistic
14.7545
1.948917
Mean dependent
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Pro
b.
0.00
0.00
0.4678
0.4976
24
0.0084
08
0.1568
04
33.959
85
0.00000
Si se desea comparar los coeficientes de esta nueva regresin con los de la original,
podra multiplicarse toda la regresin por la variable Beneficios. Los parmetros de
la regresin original son ahora ligeramente distintos a los de la original, sus errores
estndar mucho ms reducidos y el coeficiente de determinacin ha mejorado
sustancialmente:
Regresin Inicial
Trmino Independiente
Std. Error
p-value
Ventas
Std. Error
p-value
Beneficios
Std. Error
p-value
Regresin Corregida
-139.39
9920.038
0.98
90
0.012558
0.017998
0.49
60
0.239862
0.198594
0.24
58
0.52
45
R2
365.60
84
0.0034
0.0222
73
0.0015
10
0.0000
0.1247
98
0.0640
34
0.0703
0.8191
2.5
2.0
1.5
1.0
0.5
0.4
0.0
0.2
0.0
-0.2
-0.4
Residual
10
12
Actual
14
16
18
Fitted
Coefficient
C
VENTAS
BENEFICIOS
-139.3921
0.012558
0.239862
R-squared
Adjusted Rsquared
S.E.
of regression
Sum squared
residlikelihood
Log
Durbin-Watson
stat
0.524535
0.461139
27204.69
1.11E+10
-207.7006
3.173929
Std. Error
Statistic
6783.051
0.014446
0.244817
t-
Pro
b.
0.98
0.39
84
0.34
27
30568.
37060.
02
23.4111
8
23.559
57
8.2740
23
0.00378