Você está na página 1de 16

1

GUIA DE EVIEWS
Manuel Echanda.
1.

Para correr una regresin


LS PIB C IDEP GCP UTILIDADES DIVIDENDOS
Estamos trabajando con una base de 88 observaciones y 4 variables, 5 coeficientes.

NOTA: GUARDAR LA ECUACIN CON NAME YA QUE CADA VEZ QUE SE


EFECTUA UNA NUEVA REGRESION SE VUELVEN A CALCULAR LOS RESIDUOS
2.
2.A.

CAMBIO ESTRUCTURAL
Diagnostico General
La idea es hacer pruebas de cada coeficiente o conjunto de ellas con el fin de
evaluar la estabilidad bajo restricciones

2.1

Cambio de intercepto y/o pendiente, sujeto a algunos constantes :


EJEMPLO 1 :
Ho : c(1) = c(1) S.A : c(2)= c(2); c(3)= c(3) Pendientes iguales.
Ha :

c(1) c(1)

S.A : c(2)= c(2); c(3)= c(3) Pendientes iguales.

Menu: View / stability test/ Recursive Estimation / Recursive Coeficiente / en la


caja que aparece solo incluir el coeficiente que se evalua
La idea es que si la serie se sale de las bandas se rechaza la hiptesis nula.
EJEMPLO 2 :
Ho : c(2) = c(2) S.A : c(1)= c(1); c(3)= c(3) Intercepto y una Pendiente
igual.
c(2) c(2)

Ha :

S.A : c(1)= c(1); c(3)= c(3) Intercepto y una Pendiente


igual.
Menu: View / stability test/ Recursive Estimation / Recursive Coeficiente / en la
caja que aparece solo incluir el o los coeficientes que se evalan
Se identifica el posible ao de coste de la serie o los posibles aos. Pero el que no
sea estable no significa que halla cambio estructural, por lo que hay que hacer el test
de chow. St = Cuadrados de los residuos. Est basado en:
t

St

w r
k 1

wr

k 1

2.2

Prueba de Cusum Cuadrado:


EJEMPLO 1 :
Ho : El valor esperado de S E(St) va de 0 a 1
Ha :
Menu: View / stability test/ Recursive Estimation / Cusum Scua / ?? ???? ??
Tambien, la idea es identificar periodos de corte.
Para el siguiente grafico se realizo un cusum squares para todos los coeficientes.

Ahora tenemos hacer la prueba de chow.


2.3
a.

Pruebas de CHOW:
Prueba de CHOW BREAK POINT : Parte la regresin en 2.
Menu: View / stability test/ test chow break point / se incluye el ao de posible
corte (1984:1).
La idea es que se separa las dos muestras y a traves de la formula de chow, este
verifica que si los coeficientes de las dos regresiones son iguales o no.
Para el caso del ejemplo se identifico como posible ao de corte a 1984:1
Chow Breakpoint Test: 1984:1
F-statistic
14.12791
Log likelihood ratio
56.74375

Ho :
Ha :

Probability
Probability

0.000000
0.000000

Hay estabilidad estructural Bi = Bj para todo el periodo.


No hay estabilidad.

Ftabla[p+1,T-2*(P+1),] = Ftabla[5,78,5%]=2.37 < 14.12 (Calculado).


Por tanto se rechaza la hiptesis nula. .

b.

Prueba de CHOW FORESTCATS: Parte la regresin en 2.


Menu: View / stability test/ test chow forestcats / ella analiza periodos (1983:1
1984:4).
Chow Forecast Test: Forecast from 1983:1 to 1991:4
F-statistic
2.010292 Probability
Log likelihood ratio
82.02346 Probability
Test Equation:
Dependent Variable: PIB
Method: Least Squares
Date: 09/25/00 Time: 16:24
Sample: 1970:1 1982:4
Included observations: 52
Variable
Coefficient
C
1124.327
IDP
0.454437
GCP
0.384537
UTILIDADES
2.370857
DIVIDENDOS
1.839993
R-squared
0.993262
Adjusted R-squared
0.992688
S.E. of regression
28.09534
Sum squared resid
37099.36
Log likelihood
-244.6077
Durbin-Watson stat
1.514176

Std. Error
143.7154
0.153002
0.177997
0.298704
0.847149
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.012491
0.000019

t-Statistic
7.823289
2.970129
2.160360
7.937134
2.171984

Prob.
0.0000
0.0047
0.0359
0.0000
0.0349
3421.517
328.5693
9.600296
9.787916
1732.045
0.000000

De similar forma al caso anterior el Fcalculado > Ftabla, por lo que se rechaza la
hiptesis de estabilidad.
Tambin se utiliza el criterio de la probabilidad, 5%> Pvalor, entonces se rechaza
Ho.
3.
3.1

ESTABILIDAD DE RESIDUOS
Pruebas de Jaque Bera
Ho: N(0,2 ) los errores se distribuyen normalmente

Criterio : Pvalor de JB < 1- .......Rechaza Ho.


3.2

Pruebas de Ramsey Test


Ho: N(0,2 ) Errores normales
Ha: Errores no son normales
1. Primero se genera la variable de residuos : Genr ET= resid
2. Luego se grafico el residuo con la variable dependiente
group gra pib et
agrupa las variables.
gra.scat(r)

grafica el grupo

6
100

ET

50

-50

-100
2500

3000

3500

4000

4500

5000

PIB

3. Se ve la forma del grafico :


Si tiene la forma lineal 1.
Si tiene la forma cuadrtica 2.
Y as sucesivamente.
4. Identificado el grado se corre ramsey colocando los rezagos identificados. (para el
caso asumamos =1)
Ramsey RESET Test:
F-statistic
Log likelihood ratio
Test Equation:
Dependent Variable: PIB
Method: Least Squares
Date: 09/25/00 Time: 16:56
Sample: 1970:1 1991:4
Included observations: 88
Variable
C
IDP
GCP
UTILIDADES
DIVIDENDOS
FITTED^2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

25.74142
24.02531

Coefficient
998.5123
0.439588
0.221386
0.497420
-1.786245
7.39E-05
0.997923
0.997797
29.57273
71712.83
-419.8025
1.263732

Probability
Probability

Std. Error
104.3608
0.109974
0.190236
0.205297
0.842822
1.46E-05
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.000002
0.000001

t-Statistic
9.567887
3.997221
1.163743
2.422924
-2.119364
5.073601

Prob.
0.0000
0.0001
0.2479
0.0176
0.0371
0.0000
3865.833
630.0072
9.677329
9.846238
7880.511
0.000000

En este caso tambien se rechaza la hiptesis de normalidad 5%> 0.000002.

4.
4.1

OTRAS PRUEBAS
Test de Wald : Para coeficientes restringidos.
Ho: Se cumple la restriccin propuesta Rb = r
Ha: No se cumple la restriccin.
View / Coefficient test / Wald coefi. Restric. en la ventana colocar la restriccin.
Por ejemplo si tengo tres restricciones :
C(1) + C(2) + C(4) = 1 , C(3) =0.5, C(4) = C(2)
Wald Test:
Equation: Untitled
Null Hypothesis:

F-statistic
Chi-square

C(1)+C(2)+C(4)=1
C(3)=0.5
C(4)=C(2)
35.19857
105.5957

Probability
Probability

0.000000
0.000000

En este caso el criterio, para el caso de la prueba F, es


> Pvalor ......Rechazo Ho.
4.2

Variables omitidas
Supongamos que hacemos una regresion de la forma
LS PIB C GCP UTILIDADES DIVIDENDOS....................es decir sin IDP.
Para evaluar la signficancia de la inclusin de esta variable tenemos lo siguiente :
View / coefficient test / omitted variables en el recuadro incluimos la variable que
queremos evaluar IDP.
Resultando lo siguiente :
Omitted Variables: IDP
F-statistic
Log likelihood ratio
Test Equation:
Dependent Variable: PIB
Method: Least Squares
Date: 09/25/00 Time: 18:09
Sample: 1970:1 1991:4
Included observations: 88
Variable
C
GCP
UTILIDADES
DIVIDENDOS
IDP
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.917662
0.967603

Coefficient
716.6578
1.034981
1.216363
1.441099
0.094281
0.997271
0.997140
33.69332
94224.90
-431.8151
1.042841

Ho: El coeficiente es cero de IDP


Ha: El coeficiente de IDP no es cero

Probability
Probability

0.340872
0.325279

Std. Error
t-Statistic
100.6559
7.119876
0.116608
8.875710
0.169250
7.186800
0.629960
2.287603
0.098420
0.957947
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0000
0.0000
0.0000
0.0247
0.3409
3865.833
630.0072
9.927616
10.06837
7583.610
0.000000

La probabilidad es 34%> , por lo que se acepta la hiptesis nula.


4.3

Variables redundantes (caso inverso)


En este caso tenemos el modelo completo, incluyendo IDP, y ahora evaluamos si es
pertinente eliminarlo.
Ho: El coeficiente es cero de IDP
Ha: El coeficiente de IDP no es cero
La probabilidad es 34%> , por lo que se acepta la hiptesis nula.
Redundant Variables: IDP
F-statistic
Log likelihood ratio
Test Equation:
Dependent Variable: PIB
Method: Least Squares
Date: 09/25/00 Time: 18:21
Sample: 1970:1 1991:4
Included observations: 88
Variable
C
GCP
UTILIDADES
DIVIDENDOS
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.917662
0.967603

Coefficient
738.1327
1.130094
1.211241
1.468500
0.997241
0.997143
33.67680
95266.67
-432.2989
1.086418

Probability
Probability

0.340872
0.325279

Std. Error
t-Statistic
98.07969 7.525847
0.061120 18.48990
0.169082 7.163625
0.629002 2.334652
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0000
0.0000
0.0000
0.0219
3865.833
630.0072
9.915885
10.02849
10121.09
0.000000

DETECCION DE AUTOCORRELACION DE ORDEN 1 y SUPERIOR.

5.1

Mtodo grfico:
Evaluamos et y et-1 .
Agrupando
:
Creando el grfico :

Genr et1=et(-1) generando et-1


group manuel et et1
manuel.scat(r)

100

ET1

50

-50

-100
-100

-50

50

100

ET

El problema es que este metodo no es concluyente. Depende de la decisin del


investigador.
5.2

Analizando el Durbin:
Ho: Dw=2 (p=0)
No existe autocorrelacin de orden 1.
Ha: Dw2 (p0)
Existe autocorrelacin de orden 1.

Zo n a
re c h a z o
ho.

Zo n a
a c e p t a c io n
ho.

In d e c is i n

DL
1 .5

DU
1 .7

In d e c is i n

4 -D L

4 -D U

Zo n a
re c h a z o
ho.

10

5.3

Prueba del Correlograma


View / residual test / correlograma squeare residual/ Incluir el numero de rezagos
(36).

Las lneas puntuadas corresponden a bandas, si la grafica sale de la banda nos


encontraremos en el rezago a la que ella corresponda. En nuestro caso de orden 1.
Por otro lado debemos tener en consideracin que el valor de AC es el ,
Nota: este metodo se pude usar tambien para autocorrelacin de orden superior.
5.4

Prueba Asinttica
Si -1.96 < * (T^1/2) < 1.96

acepto Ho.

Primero clculo de , por lo que se hace la regresin entre et y et-1


et = *et-1 + ..
Ls et et1
Scalar Rho
Define la variable escalar
Rho = C(1)
Asigna el valor del primer coeficiente a Rho.

11

Ls pib c idp gcp utilidades dividendo


Scalar Rho1
Rho1 = 1- @DW/2
Para calcular el rho con el durbin de la regresin.
Nota los dos Rho, deberan ser iguales.
Scalar critd
Critd = Rho * sqr (@regobs)

regobs es el numero de observaciones.


Es decir calculando * (T^1/2).

Scalar critd1
Critd1 = Rho1 * sqr (@regobs)

Zo n a
re c h a z o
ho.

-1 .9 6

5.5

Zo n a
re c h a z o
ho.

Zo n a
a c e p t a c io n
ho.

1 .9 6

Breush Godfrey
Ho: p1=0, p2=0, p3=0,
No existe autocorrelacin de orden superior.
Ha: Existe autocorrelacin de orden superior.
View / Residual Test / Serial Correlation L.M. Incluir 36 rezagos.
El modelo que se esta provando es :
Et= 1*Et(1)+ 2*Et(2)++ n*Et(n).
(T-Q)*R^2
T

X2 q

12

Breusch-Godfrey Serial Correlation LM Test:


F-statistic
1.457334
Obs*R-squared
46.41713

Probability
Probability

0.112098
0.114512

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 09/25/00 Time: 18:30
Variable
C
IDP
GCP
UTILIDADES
DIVIDENDOS
RESID(-1)
RESID(-2)
RESID(-3)
RESID(-4)
RESID(-5)
RESID(-6)
RESID(-7)
RESID(-8)
RESID(-9)
RESID(-10)
RESID(-11)
RESID(-12)
RESID(-13)
RESID(-14)
RESID(-15)
RESID(-16)
RESID(-17)
RESID(-18)
RESID(-19)
RESID(-20)
RESID(-21)
RESID(-22)
RESID(-23)
RESID(-24)
RESID(-25)
RESID(-26)
RESID(-27)
RESID(-28)
RESID(-29)
RESID(-30)
RESID(-31)
RESID(-32)
RESID(-33)
RESID(-34)
RESID(-35)
RESID(-36)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

Std. Error
t-Statistic
110.9965
1.048303
0.107759
-0.273658
0.118815
-0.304354
0.222379
1.517839
0.763273
0.202758
0.147086
1.468481
0.148940
0.773674
0.148172
1.274361
0.153397
1.474255
0.152574
-0.677384
0.155926
-0.394404
0.156035
-1.496474
0.156129
0.101715
0.156195
-0.528420
0.156930
-0.370833
0.159921
-0.166557
0.158793
0.062751
0.157755
-0.177880
0.166302
0.331401
0.163689
-0.058430
0.159510
-1.351853
0.171809
-1.016407
0.173631
-1.480314
0.167439
-0.057911
0.172702
0.505204
0.174366
1.052026
0.170907
-0.223977
0.172631
-0.817760
0.198431
-0.275337
0.183779
-1.628292
0.194756
0.476149
0.196601
-0.489959
0.192977
0.315003
0.191616
0.753975
0.194409
-0.836244
0.191707
-0.359395
0.189511
-0.972771
0.190756
-0.971114
0.187633
0.145260
0.190608
-0.294029
0.196620
-1.237265
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.2999
0.7855
0.7622
0.1358
0.8402
0.1486
0.4430
0.2088
0.1471
0.5015
0.6951
0.1412
0.9194
0.5997
0.7124
0.8684
0.9502
0.8596
0.7418
0.9537
0.1829
0.3146
0.1455
0.9541
0.6158
0.2982
0.8237
0.4176
0.7843
0.1101
0.6362
0.6264
0.7542
0.4546
0.4072
0.7209
0.3356
0.3365
0.8851
0.7700
0.2221
8.95E-13
32.90965
9.996150
11.15036
1.311601
0.184982

Coefficient
116.3581
-0.029489
-0.036162
0.337535
0.154760
0.215993
0.115231
0.188825
0.226146
-0.103351
-0.061498
-0.233502
0.015881
-0.082536
-0.058195
-0.026636
0.009964
-0.028061
0.055113
-0.009564
-0.215634
-0.174628
-0.257029
-0.009696
0.087250
0.183438
-0.038279
-0.141170
-0.054635
-0.299245
0.092733
-0.096327
0.060788
0.144474
-0.162574
-0.068898
-0.184351
-0.185246
0.027256
-0.056044
-0.243272
0.527467
0.125312
30.77867
44524.34
-398.8306
2.098777

Para calcular el valor en tables se hace.


Chitab=@qchisq(0.95,4)= @qchisq(1-,var. exaogenas)

13

5.6

Prueba de Beranblutt Wtbb


Ho: No hay autocorrelacin
Ha:
Hay autocorrelacin.
g= (SECen diferencia / SEC)
Si g<dL ....Rechazo Ho.
g>dL ....Acepta Ho.
Scalar SEC1=@ssr captura el denominador
- Calculo del numerador :
equation reglin1.ls d(pib) d(gcp) d(idp) d(utilidades) d(dividendos)
Nota d(*) denonta diferencias
Scalar SEC2=@SSR
SCALAR g=sec2/sec1.

Zo n a
re c h a z o
ho.

Zo n a
a c e p t a c io n
ho.

In d e c is i n

DL
1 .5

DU
1 .7

14

CORRECION DE AUTOCORRELACION.
Se recomienda corregir por de la siguiente forma, para metodos autocorrelaciones
de orden 1.
Este metodo es conocido por el de Crocor cord.
Equation.ls pib c idp utilidades dividendos ar(1)
Nota la prueba de cambio estructural no se puede correr para las regresiones
corregidas de esta forma.

15

7
7.1

HETEROCEDASTICIDAD.
Mtodo grfico, se calculan los errores Et al cuadrado y se efecta un grfico en
relacin con xt, la variable que se cree que causa la heteroscedasticidad ,
. serie et=resid
Guardar los errores
. series et2=et^2
. group Manuel idp et^
. Manuel.scat(r)

7.2

Prueba de White : Calcula la siguiente ecuacin


E^2 = ao + a1X1 + a2X2+ a3X1^2 +a4X2^2+a5X1X2
View/residual/white
Ho: 1 =2
No existe heterocedasticidad.
Ha. Existe
Criterio : Pvalor < ....... Rechazo Ho.
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 09/25/00 Time: 19:49
Sample: 1970:1 1991:4
Included observations: 88
Variable
C
IDP
IDP^2
GCP
GCP^2
UTILIDADES
UTILIDADES^2
DIVIDENDOS
DIVIDENDOS^2
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

7.3

4.342238
26.87702

Coefficient
-102790.9
112.2707
-0.021449
-28.04018
0.006020
-125.2615
0.365192
-50.54367
1.028689
0.305421
0.235084
1461.613
1.69E+08
-761.4015
0.931815

Probability
Probability

Std. Error
27198.64
36.29599
0.006466
38.71343
0.007329
54.58877
0.181666
70.48490
0.424786
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prueba de Park : No se encuentra en eveiws.


Lne^2 = Bo + B1*LnX1+C1
Ecuation park.ls log(et2) c Log(IDP)
Ho : 1 = 0
Ha : 1 0

0.000226
0.000742

t-Statistic
-3.779267
3.093199
-3.317243
-0.724301
0.821398
-2.294639
2.010232
-0.717085
2.421665

Prob.
0.0003
0.0027
0.0014
0.4710
0.4139
0.0244
0.0478
0.4754
0.0177
1070.737
1671.188
17.50913
17.76249
4.342238
0.000226

16

Si t R Ho Heterocedasticidad
7.4

Prueba de Gleser Similar a la Prueba de Park,

al obtener

et se efecta una regresin con la variable que genera la heterocedasticidad.

et

et

et

H :
H :
0

x v
i

x v
i

vi

Etc.

0
0

t si se R Ho. Existe heteroscedasticidad.


Golfeld y Quandt.

Você também pode gostar