Você está na página 1de 50

GUJARATI USANDO STATA

Por: GEÁSI MORAIS

Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11.

Estimação da função consumo (I.3.3) com dados da tabela I.1

reg

y x

15

-------------+------------------------------ F(

0.0000

= 0.9984

=

-------------+------------------------------ Adj R-squared = 0.9983

20.285

------------------------------------------------------------------------------

Source |

SS

df

MS

Number of obs =

1,

Prob > F R-squared

Root MSE

13) = 8144.59

=

Model | 3351406.23 Residual | 5349.35306

Total | 3356755.58

1 3351406.23

13 411.488697

14 239768.256

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y |

Coef.

Std. Err.

t

P>|t|

x

|

.706408 -184.0779
.706408
-184.0779

.0078275

90.25

0.000

.6894978

.7233182

_cons |

46.26183

-3.98

0.002

-284.0205

-84.13525

------------------------------------------------------------------------------

Estimação da regressão 3.6.1

A regressão 3.6.1 é estimada com dados da tabela 3.2

reg

y x

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------

F(

1,

8) =

202.87

Model | 8552.72727 Residual | 337.272727

1 8552.72727

Prob > F R-squared

=

0.0000

8

42.1590909

=

0.9621
0.9621

-------------+------------------------------ Adj R-squared = 0.9573

6.493

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y |

8890

Coef.

9 987.777778

t

Root MSE

=

Std. Err.

P>|t|

x

|

.5090909 24.45455
.5090909
24.45455
.0357428 6.413817
.0357428
6.413817

14.24

0.000

.4266678

.591514

_cons |

3.81

0.005

9.664256

39.24483

------------------------------------------------------------------------------

A

covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov):

.

mat a = e(V)

.

mat list a

symmetric a[2,2] x _cons x .00127755 _cons -.2171832 41.137052
symmetric a[2,2]
x
_cons
x
.00127755
_cons
-.2171832
41.137052

Onde os elementos da diagonal principal são as variância de beta 1 (variância do termo de intercepto, a constante) e a variância de beta 2 (a variância do coeficiente de x, o coeficiente angular).

Os outros elementos fora da diagonal principal são as covariâncias, no nosso caso, a covariância de beta1 e beta2.

A equação 3.7.1, estimada a partir dos dados da tabela 3.4 é dada por:

reg

y x

Source |

SS

df

MS

Number of obs =

11

-------------+------------------------------

F(

1,

9) =

17.69

Model |

.29297476

1

.29297476

Prob > F R-squared

=

0.0023

Residual |

.1490797

9

.016564411

= 0.6628

-------------+------------------------------ Adj R-squared = 0.6253

.1287

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y

|

.44205446

Coef.

10 .044205446

t

Root MSE

=

Std. Err.

P>|t|

x

|

-.479529 2.691124
-.479529
2.691124

.1140218

-4.21

0.002

-.7374642

-.2215939

_cons |

.1216225

22.13

0.000

2.415995

2.966253

------------------------------------------------------------------------------

.

mat a = e(V)

.

mat list a

symmetric a[2,2] x

.01300097

_cons -.01314279

x

_cons

.01479203

Estimação da equação 3.7.2 a partir dos dados da tabela I.1

reg

15

13) = 8144.59

0.0000

= 0.9984

-------------+------------------------------ Adj R-squared = 0.9983

20.285

------------------------------------------------------------------------------

y x

Source |

SS

df

MS

Number of obs =

1,

Prob > F R-squared

Root MSE

=

=

-------------+------------------------------ F(

Model | 3351406.23 Residual | 5349.35306

Total | 3356755.58

1 3351406.23

13 411.488697

14 239768.256

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y

|

Coef.

Std. Err.

t

P>|t|

x

|

.706408

.0078275

90.25

0.000

.6894978

.7233182

_cons | -184.0779

46.26183

-3.98

0.002

-284.0205

-84.13525

------------------------------------------------------------------------------

O teste t da equação 5.7.4

Sabemos que a equação do consumo-renda é:

reg

y x

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------

F(

1,

8) =

202.87

Model | 8552.72727

1

8552.72727

Prob > F

=

0.0000

Residual | 337.272727

8 42.1590909

R-squared

= 0.9621

-------------+------------------------------ Adj R-squared = 0.9573

6.493

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y

|

8890

Coef.

9 987.777778

t

Root MSE

=

Std. Err.

P>|t|

x

|

.5090909

.0357428

14.24

0.000

.4266678

.591514

_cons |

24.45455

6.413817

3.81

0.005

9.664256

39.24483

------------------------------------------------------------------------------

Para testar a hipótese que beta2 é igual a 0.3 basta digitar o comando:

test x=0.3

( 1)

x = .3

F(

1,

8) =

Prob > F =

34.22

0.0004

Na saída temos que o valor de F=34.22. Porém sabemos a raiz quadra do valor de F numa regressão simples é igual a t. Assim t=raiz de 34.22=5.85

A tabela ANOVA 5.4 do exemplo consumo-renda pode ser obtida pela mesma saída da regressão:

reg

y x

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------

F(

1,

8) =

202.87

 

Model |

8552.72727 337.272727
8552.72727
337.272727
1 8552.72727 8 42.1590909
1
8552.72727
8
42.1590909

Prob > F

=

0.0000

Residual |

R-squared

= 0.9621

-------------+------------------------------ Adj R-squared = 0.9573

6.493

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y

|

8890

Coef.

9 987.777778

t

Root MSE

=

Std. Err.

P>|t|

x

|

.5090909

.0357428

14.24

0.000

.4266678

.591514

_cons |

24.45455

6.413817

3.81

0.005

9.664256

39.24483

------------------------------------------------------------------------------

Regressão 5.12.2 usando a tabela 7.2

reg despalim desptot

Source |

SS

df

MS

Number of obs =

55

-------------+------------------------------

F(

1,

53) =

31.10

Model |

139022.82

1

139022.82

Prob > F

= 0.0000

Residual | 236893.616

53
53

4469.69087

R-squared

= 0.3698

= 66.856

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total | 375916.436

Coef.

54 6961.41549

t

Root MSE

despalim |

Std. Err.

P>|t|

desptot |

_cons |

.4368088 .0783226 94.20878 50.85635
.4368088
.0783226
94.20878
50.85635
desptot | _cons | .4368088 .0783226 94.20878 50.85635 5.58 1.85 0.000 0.070 .2797135 .593904 -7.796134

5.58

1.85

0.000

0.070

.2797135

.593904

-7.796134

196.2137

------------------------------------------------------------------------------

No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5:

H0: beta 2=0.5

test desptot=0.5

( 1)

desptot = .5

F(

1,

53) =

0.65

Prob > F =

0.4234

Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5.

Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro:

H0: os termos de erro tem distribuição normal:

Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima.

O comando para gerar os resíduos é:

predict residuos, r

A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o

série de resíduos

O comando para fazer o teste Jarque Bera é:

jb6 residuos Jarque-Bera normality test: .2576 Chi(2) .8792 Jarque-Bera test for Ho: normality: (residuos)

O valor da estatística JB é 0.2576 e a probabilidade de obter esse número é aproximadamente

88%, o que nos leva a não rejeitar a hipótese H0 de normalidade dos termos de erro.

No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata para isso é summarize ou simplesmente sum.

sum

Variable |

Obs

Mean

Std. Dev.

Min

Max

-------------+--------------------------------------------------------

despalim |

55

373.3455

83.4351

196

610

desptot |

55

639.0364

116.1595

382

801

residuos |

55

1.76e-07

66.23382 -153.7664

171.5859

desse modo, obtemos o número de observações, a media, o desvio padrão, o mínimo e o máximo e todas as variáveis que temos.

Para obter essas medidas de uma variável especifica basta digitar o nome da variável depois do comando sum.

sum residuos

Max

-------------+--------------------------------------------------------

171.5859

Variable |

residuos |

Obs

55

Mean

Std. Dev.

Min

1.76e-07

66.23382 -153.7664

Estimação da equação 6.1.12 com base nos dados da tabela 6.1

reg

y x, noconst

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------

F(

1,

9) =

32.38

Model | 12364.2629

1 12364.2629

Prob > F

= 0.0003 = 0.7825
= 0.0003
=
0.7825

Residual | 3437.14716

9

381.90524

R-squared

-------------+------------------------------ Adj R-squared = 0.7583

19.542

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

5.69 0.000 .6565926 1.523231

------------------------------------------------------------------------------

A única diferença no comando para fazer a regressão sem intercepto é o acréscimo de uma

Total | 15801.4101

y

x

|

|

Coef.

1.089912
1.089912

10 1580.14101

t

Root MSE

=

Std. Err.

.1915512

P>|t|

virgula e a palavra noconst.

A regressão com intercepto é:

reg

y x

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------

F(

1,

8) =

20.12

0.0020

= 0.7155

-------------+------------------------------ Adj R-squared = 0.6800

20.692

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Model | 8616.40362

3425.2855

1

8 428.160687

8616.40362

Prob > F R-squared

Root MSE

Residual |

=

=

Total | 12041.6891

y

|

Coef.

9 1337.96546

t

Std. Err.

P>|t|

x

|

1.069084

.2383154

4.49

0.002

.5195275

1.61864

_cons |

1.279718

7.68856

0.17

0.872

-16.45013

19.00957

------------------------------------------------------------------------------

Estimação da regressão 6.5.5 com base nos dados da tabela 6.3

Para estimar a regressão 6.5.5 que é um modelo log-log (ou log-linear), temos que primeiro transforma as variáveis para ln (logaritmo natural). O comando no Stata é:

gen lndespalim = ln(despalim)

gen lndesptot = ln(desptot)

O comando acima está logaritmizando as variáveis, isto pode ser feito numa planilha do Excel

antes de por os dados no Stata. O comanda gen significa que eu vou gerar uma nova variável através de

uma operação matemática. A palavra lndespalim é o nome da nova variável pode ser qualquer outro. E o lado direito da igualdade é a operação em si, ln(despalim) significa que estou tirando o logaritmo natural da variável despalim. O mesmo raciocino para a variável desptot.

Depois de gerara as variáveis podemos rodar a regressão:

reg lndespalim lndesptot

Source |

SS

df

MS

Number of obs =

55

-------------+------------------------------

F(

1,

53) =

37.21

Model | 1.16070799

1

1.16070799

Prob > F

=

0.0000

Residual | 1.65334333

53 .031195157

R-squared

= 0.4125

-------------+------------------------------ Adj R-squared = 0.4014

.17662

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total | 2.81405132

Coef.

54 .052112062

t

Root MSE

=

lndespalim |

Std. Err.

P>|t|

lndesptot |

.7363261 1.154333
.7363261
1.154333

.1207125

6.10

0.000

.4942075

.9784448

_cons |

.777959

1.48

0.144

-.4060553

2.714721

------------------------------------------------------------------------------

Estimação da regressão 6.7.2 com base nos dados da tabela 6.4

Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa no modelo reciproco:

gen inverpnb = 1/pnb

onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que vai gera a nova variável, ou seja a inversa do PNB. Depois basta fazer a regressão normalmente:

reg mi inverpnb

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

1,

62) =

52.61

Model | 166946.595

1

166946.595

Prob > F

=

0.0000

Residual | 196731.405

62 3173.08717

R-squared

= 0.4591

-------------+------------------------------ Adj R-squared = 0.4503

56.33

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

mi

|

363678

Coef.

63 5772.66667

Std. Err.

t

Root MSE

=

P>|t|

inverpnb |

27273.16 81.79436
27273.16
81.79436

3759.999

7.25

0.000

19757.03

34789.3

_cons |

10.83206

7.55

0.000

60.14138

103.4473

------------------------------------------------------------------------------

Estimação da regressão 6.7.5 com base nos dados da tabela 6.5

Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para declara que estamos trabalhando com uma serie temporal é:

tsset ano, yearly

time variable: ano, 1960 to 1998

delta:

1 year

ou basta clicar em Statistic , Time serie, Setup na utilities, Declare dataset to be data-serie

data.

Depois basta selecionar a variável que representa a série temporal, no nosso caso é ano (Time variable) e escolher a optação anualmente (Yearly) e clicar em OK.

Agora que o Stata sabe que estamos trabalhando com serie temporal temos que criar uma variável em primeira diferença para a taxa de inflação.

O comando é:

gen deltapi = pi-l1.pi (1 missing value generated)

O lado esquerdo da igualdade nos diz que estamos gerando uma nova variável com nome deltapi, que pode ser qualquer outro. O lado esquerdo da igualdade nos diz que estamos subtraindo de pi a sua primeira defasagem, ou seja pi do período anterior, representado por L1.pi, o L1 significa a primeira defasagem de uma variável, no caso de pi.

Agora que temos a variável em primeira diferença deltapi, podemos rodar a regressão como temos feito até agora:

reg deltapi un

Source |

SS

df

MS

Number of obs =

38

-------------+------------------------------

F(

1,

36) =

16.56

0.0002

= 0.3151

-------------+------------------------------ Adj R-squared = 0.2960

1.5358

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Model | 39.0574389

84.9123

1 39.0574389

2.358675

Prob > F R-squared

Root MSE

=

=

Residual |

36

Total | 123.969739

deltapi |

Coef.

37 3.35053348

t

Std. Err.

P>|t|

un |

-.6895286 4.178089
-.6895286
4.178089

.1694472

-4.07

0.000

-1.033183

-.3458737

_cons |

1.057162

3.95

0.000

2.034066

6.322112

------------------------------------------------------------------------------

Para a regressão 6.7.6 com base nos dados da tabela 6.5, basta gera a variável inversa da taxa desemprego (inverso de UN):

gen inversoun = 1/un

como já temos a primeira diferença da taxa de inflação, podemos rodar a regressão:

reg deltapi inversoun

Source |

SS

df

MS

Number of obs =

38

-------------+------------------------------

F(

1,

36) =

9.38

Model | 25.6226535

1

25.6226535

Prob > F

=

0.0041

Residual | 98.3470854

36 2.73186348

R-squared

= 0.2067

-------------+------------------------------ Adj R-squared = 0.1846

1.6528

Total | 123.969739

37 3.35053348

Root MSE

=

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

deltapi |

Coef.

Std. Err.

t

P>|t|

inversoun |

18.55085 -3.25137
18.55085
-3.25137

6.05733

3.06

0.004

6.266015

30.83568

_cons |

1.094158

-2.97

0.005

-5.470425

-1.032316

------------------------------------------------------------------------------

Estimação da regressão 7.3.1 com base nos dados da tabela 6.4

reg

mi taf

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

1,

62) =

125.65

Model | 243515.049

1

243515.049

Prob > F

=

0.0000

Residual | 120162.951

62 1938.11211

R-squared

= 0.6696

-------------+------------------------------ Adj R-squared = 0.6643

= 44.024

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

mi

|

363678

Coef.

63 5772.66667

Std. Err.

t

Root MSE

P>|t|

taf |

-2.390496

.2132625

-11.21

0.000

-2.816802

-1.96419

_cons |

263.8635

12.22499

21.58

0.000

239.4261

288.3009

------------------------------------------------------------------------------

Depois de rodar a regressão 7.3.1 é necessário gerar uma série com seus resíduos para podemos estimar a regressão 7.3.5. Os resíduos é gerado pelo comando:

predict u1, r

observe que foi crida uma nova coluna na planilha do Stata, com os resíduos. O nome que da série de resíduos é u1 que pode ser qualquer outro.

Agora vamos gerar a regressão 7.3.1 com os mesmos dado da regressão anterior é salvar seus resíduos para posteriormente rodarmos a regressão 7.3.5:

reg

pnb taf

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

1,

62) =

4.82

Model | 33750527.5

1

33750527.5

Prob > F

=

0.0319

Residual |

434302773

62

7004883.43

R-squared

= 0.0721

-------------+------------------------------ Adj R-squared = 0.0571

2646.7

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

pnb |

468053300

Coef.

63 7429417.46

Std. Err.

t

Root MSE

=

P>|t|

taf |

28.14268 -39.30328
28.14268
-39.30328

12.82111

2.20

0.032

2.513646

53.77171

_cons |

734.9526

-0.05

0.958

-1508.453

1429.846

------------------------------------------------------------------------------

Os resíduos:

predict u2, r

como anteriormente u2 é o nome da serie de resíduos da regressão 7.3.2, que pode ser qualquer outro.

Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5:

reg

u1 u2, noconst

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

1,

63) =

8.21

Model | 13847.3245

1

13847.3245

Prob > F

= 0.0057 = 0.1152
= 0.0057
=
0.1152

Residual | 106315.625

63 1687.54961

R-squared

-------------+------------------------------ Adj R-squared = 0.1012

41.08

------------------------------------------------------------------------------

Total |

120162.95

64 1877.54609

Root MSE

=

[95% Conf. Interval]

-------------+----------------------------------------------------------------

-2.86 0.006 -.0095857 -.0017075

------------------------------------------------------------------------------

u1 |

u2 |

Coef.

Std. Err.

t

P>|t|

-.0056466 .0019712
-.0056466
.0019712

Observe que a regressão dos resíduos é sem o intercepto (noconst).

Estimação da regressão 7.6.2 com base nos dados da tabela 6.4:

O procedimento para estima uma regressão múltipla é o mesmo para regressão simples, basta acrescentar a nova variável no modelo:

reg

mi pnb

taf

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

2,

61) =

73.83

Model | 257362.373 Residual | 106315.627

Total |

363678

128681.187

61 1742.87913

2

Prob > F R-squared

Root MSE

= 0.0000

=

0.7077 0.6981
0.7077
0.6981

-------------+------------------------------ Adj R-squared =

= 41.748

------------------------------------------------------------------------------

63 5772.66667

[95% Conf. Interval]

-------------+----------------------------------------------------------------

mi |

Coef.

Std. Err.

t

P>|t|

pnb |

taf |

_cons |

-.0056466 .0020033 -2.231586 .2099472 263.6416 11.59318
-.0056466
.0020033
-2.231586
.2099472
263.6416
11.59318

-2.82

0.006

-.0096524 -.0016408

-10.63

0.000

-2.651401

-1.81177

22.74

0.000

240.4596

286.8236

------------------------------------------------------------------------------

Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.1

7.8.8

. reg

y x

Source |

SS

df

MS

Number of obs =

11

-------------+------------------------------

F(

1,

9) =

17.69

Model |

.29297476

1

.29297476

Prob > F

= 0.0023

Residual |

.1490797
.1490797

9 .016564411

R-squared

=

0.6628
0.6628

-------------+------------------------------ Adj R-squared = 0.6253

.1287

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y |

.44205446

Coef.

10 .044205446

t

Root MSE

=

Std. Err.

P>|t|

x

|

-.479529 2.691124
-.479529
2.691124
.1140218 .1216225
.1140218
.1216225

-4.21

0.002

-.7374642 -.2215939

_cons |

22.13

0.000

2.415995

2.966253

------------------------------------------------------------------------------

7.8.9

.

gen lny = ln(y)

.

gen lnx = ln(x)

. reg

lny lnx

Source |

SS

df

MS

Number of obs =

11

-------------+------------------------------

F(

1,

9) =

26.27

Model | .066054476

Residual |

.02263302
.02263302

1 .066054476

.00251478

9

Prob > F R-squared

= 0.0006 = 0.7448
= 0.0006
=
0.7448

-------------+------------------------------ Adj R-squared = 0.7164

.05015

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total | .088687496

lny |

Coef.

10

.00886875

t

Root MSE

=

Std. Err.

P>|t|

lnx |

_cons |

-.2530461 .049374 .7774176 .0152421
-.2530461
.049374
.7774176
.0152421

-5.13

0.001

-.3647379

-.1413543

51.00

0.000

.7429375

.8118977

------------------------------------------------------------------------------

Estimação da regressão 7.9.4 com base nos dados da tabela 7.3

gen lny = ln(y)

.

gen lnx2 = ln(x2)

.

gen lnx3 = ln(x3)

.

reg

lny lnx2 lnx3

Source |

SS

df

MS

Number of obs =

15

-------------+------------------------------

F(

2,

12) =

48.07

Model | .538038027

2 .269019013

Prob > F

= 0.0000

Residual | .067158351

12
12

.005596529

R-squared

=

0.8890 0.8705
0.8890
0.8705

-------------+------------------------------

Adj R-squared =

Total | .605196377

14 .043228313

Root MSE

=

.07481

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

lny |

Coef.

Std. Err.

t

P>|t|

lnx2 |

lnx3 |

_cons |

lny | Coef. Std. Err. t P>|t| lnx2 | lnx3 | _cons | 1.498767 .4898585 -3.338459

1.498767

.4898585

-3.338459

.5398018

.1020435

2.449504

2.78 4.80 -1.36
2.78
4.80
-1.36

0.017

.3226405

2.674894

0.000

.2675249

.7121922

0.198

-8.675471

1.998552

------------------------------------------------------------------------------

Estimação da regressão 7.10.6 com base nos dados da tabela 7.4

Para estimamos essa regressão temos primeiro que gerar as variáveis x 2 e x 3 . No Stata o procedimento é:

.

gen x2 = x^2

.

gen x3 = x^3

One x2 e x3 são os nomes das variáveis x 2 e x 3 , que pode ser qualquer outro.

Depois de gerada as variáveis podemos rodar o modelo normalmente:

reg

y x x2 x3

Source |

SS

df

MS

Number of obs =

10

-------------+------------------------------ F(

12972.7187

10.7906371

-------------+------------------------------ Adj R-squared = 0.9975

3.2849

------------------------------------------------------------------------------

3,

6) = 1202.22 = 0.0000 = 0.9983
6) = 1202.22
= 0.0000
=
0.9983

=

Model | 38918.1562 Residual | 64.7438228

Total |

38982.9

3

6

Prob > F R-squared

Root MSE

9 4331.43333

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y |

Coef.

Std. Err.

t

P>|t|

|

x2 |

x3 |

_cons |

x

63.47766 4.778607 -12.96154 .9856646 .9395882 .0591056 141.7667 6.375322
63.47766
4.778607
-12.96154
.9856646
.9395882
.0591056
141.7667
6.375322

13.28

0.000

51.78483

75.17049

-13.15

0.000

-15.37337

-10.5497

15.90

0.000

.794962

1.084214

22.24

0.000

126.1668

157.3665

------------------------------------------------------------------------------

Estimação da regressão 8.2.1 com base nos dados da tabela 6.4

reg

mi pnb taf

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

2,

61) =

73.83

Model | 257362.373

2

128681.187

Prob > F

=

0.0000

Residual | 106315.627

61 1742.87913

R-squared

= 0.7077

-------------+------------------------------ Adj R-squared = 0.6981

= 41.748

------------------------------------------------------------------------------

Total |

363678

63 5772.66667

Root MSE

[95% Conf. Interval]

-------------+----------------------------------------------------------------

mi |

Coef.

Std. Err.

t

P>|t|

pnb |

-.0056466

.0020033

-2.82

0.006

-.0096524

-.0016408

taf |

-2.231586

.2099472

-10.63

0.000

-2.651401

-1.81177

_cons |

263.6416

11.59318

22.74

0.000

240.4596

286.8236

------------------------------------------------------------------------------

Fazendo o teste t (equação 8.4.1)

test pnb=0

( 1)

pnb = 0

F(

1,

61) =

Prob > F =

7.95
7.95

0.0065

Na saída temos o favor F=7.95, que é igual a t^2=(-2.8187)^2

Fazendo o teste Jarque Bera de normalidade dos resíduos. Primeiro temos que gerar a series de resíduos:

predict resid, r

onde resid, é o nome da série de resíduos que vamos gerar, pode ser qualquer outro. A hipótese H0: os erros tem distribuição normal

. jb6 resid Jarque-Bera normality test: .5594 Chi(2) Jarque-Bera test for Ho: normality: (resid)

.756
.756

Pelo valor da probabilidade, 0.756, não podemos rejeitar a hipótese H0 de normalidade dos temos de erro.

A tabela ANOVA 8.3 também pode ser vista na saída da regressão:

reg

mi pnb taf

Source |

SS

df

MS

Number of obs =

64

-------------+------------------------------

F(

2,

61) =

73.83

0.0000

= 0.7077

-------------+------------------------------ Adj R-squared = 0.6981

= 41.748

------------------------------------------------------------------------------

128681.187

Model |

Residual |

257362.373 106315.627
257362.373
106315.627

363678

128681.187 Model | Residual | 257362.373 106315.627 363678 2 61 1742.87913 63 5772.66667 Prob > F

2

61

1742.87913

63 5772.66667

Prob > F R-squared

Root MSE

=

Total |

[95% Conf. Interval]

-------------+----------------------------------------------------------------

mi |

Coef.

Std. Err.

t

P>|t|

pnb |

-.0056466

.0020033

-2.82

0.006

-.0096524

-.0016408

taf |

-2.231586

.2099472

-10.63

0.000

-2.651401

-1.81177

_cons |

263.6416

11.59318

22.74

0.000

240.4596

286.8236

------------------------------------------------------------------------------

Fazendo o teste de igualdade de coeficiente da equação 8.6.6

Primeiro, temos que fazer a regressão 7.10.6 e obter os betas, as variâncias dos betas e a covariância dos betas.

.

gen x2=x^2

 

.

gen x3=x^3

.

reg

y x x2 x3

 

Source |

SS

df

MS

Number of obs =

10

6) = 1202.22

0.0000

= 0.9983

-------------+------------------------------ Adj R-squared = 0.9975

3.2849

-------------+------------------------------ F(

12972.7187

10.7906371

3,

Model | 38918.1562 Residual | 64.7438228

Total |

38982.9

3

6

Prob > F R-squared

Root MSE

=

=

9 4331.43333

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y

|

Coef.

Std. Err.

t

P>|t|

|

x2 |

x3 |

_cons |

x

63.47766 4.778607 -12.96154 .9856646 .9395882 .0591056 141.7667 6.375322
63.47766
4.778607
-12.96154
.9856646
.9395882
.0591056
141.7667
6.375322

13.28

0.000

51.78483

75.17049

-13.15

0.000

-15.37337

-10.5497

15.90

0.000

.794962

1.084214

22.24

0.000

126.1668

157.3665

------------------------------------------------------------------------------

A matriz de variância e covariância é dada por:

mat a = e(V) mat list a

symmetric a[4,4] x

22.835081

x2 -4.6113834

.26585324

_cons -28.475292

x

x3

x2

x3

_cons

.97153464

-.05764229

.00349347

5.3953186 -.29973992

40.644733

Observe que a diagonal principal da matriz é a variância dos betas e o restante as covariâncias. Desse modo basta pegar os valores e substituir na formula do teste t de igualdade de coeficiente. Ou fazer o teste diretamente no Stata. O comando é:

test x2=x3

( 1)

x2 - x3 = 0

F(

1,

6) =

Prob > F =

177.23
177.23

0.0000

Como o valor da probabilidade é igual a zero, isso nos leva a rejeitar a hipótese nula de igualdade entre os coeficiente de x 2 e x 3 . Observe que o valor F é igual a t^2.

Teste F da equação 8.7.10

Esse teste é para escolha entre duas regressões: uma com restrição (8.7.24) e outra irrestrita(8.7.23). observe que a equação com restrição é igual a equação sem restrição quando os coeficiente de lnx4 e lnx5 são iguais a zero. Desse modo basta fazer um teste que nos diga se lnx4 e lnx5 é igual a zero. Se for igual a zero é óbvio que o modelo restrito é melhor e se for diferente de zero o modelo irrestrito é melhor.

Desse modo, primeiro rodamos a regressão completa.

.

gen lny=ln(y)

.

gen lnx2=ln(x2)

.

gen lnx3=ln(x3)

.

gen lnx4=ln(x4)

.

gen lnx5=ln(x5)

.

reg

lny lnx2 lnx3 lnx4 lnx5

Source |

SS

df

MS

Number of obs =

23

-------------+------------------------------

F(

4,

18) =

249.93

Model | .761050242

4 .190262561

Prob > F

=

0.0000

Residual | .013702848

18 .000761269

R-squared

= 0.9823

-------------+------------------------------ Adj R-squared = 0.9784

.02759

------------------------------------------------------------------------------

Total |

.77475309

22

.03521605

Root MSE

=

[95% Conf. Interval]

-------------+----------------------------------------------------------------

lny |

Coef.

Std. Err.

t

P>|t|

lnx2 |

.3425546

.0832663

4.11

0.001

.1676186

.5174907

lnx3 |

-.5045934

.1108943

-4.55

0.000

-.7375737

-.2716132

lnx4 |

.1485461

.0996726

1.49

0.153

-.0608583

.3579505

lnx5 |

.0911056

.1007164

0.90

0.378

-.1204917

.302703

_cons |

2.189793

.1557149

14.06

0.000

1.862648

2.516938

------------------------------------------------------------------------------

Agora, fazemos o teste para verificar se o coeficiente de lnx4 e lnx5 é igual a zero. A hipótese nula é:

H0: beta de lnx4= beta de lnx5=0

test lnx4=lnx5=0

(

1)

lnx4 - lnx5 = 0

(

2)

lnx4 = 0

F(

2,

18) =

1.14

Prob > F =

0.3421

O valo F=1.12, com probabilidade 0.3421, nos leva a não rejeitar a hipótese H0. Ou seja, os coeficientes de lnx4 e lnx5 são iguais a zero. Desse modo o modelo no qual essas variáveis são excluídas é melhor (regressão 8.7.24).

Exemplo 8.5, teste MWD

TESTE MWD

H0: Modelo linear

H1: modelo log-log

Etapas:

I. Estimação do modelo linear e obtenção dos valores estimados de Y (yf).

reg

16

-------------+------------------------------ F(

= 0.0001

=

-------------+------------------------------ Adj R-squared = 0.7354

1050.9

------------------------------------------------------------------------------

y x2 x3

Source |

SS

df

2

MS

Number of obs =

2,

13) =

Prob > F R-squared

Root MSE

=

21.84 0.7706
21.84
0.7706

Model | 48239727.6 Residual | 14356628.4

Total |

62596356

24119863.8

13 1104356.03

15

4173090.4

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y

|

Coef.

Std. Err.

t

P>|t|

x2 |

-3782.196 2815.251 9734.218
-3782.196
2815.251
9734.218

572.4548

-6.61 2.97 3.37
-6.61
2.97
3.37

0.000

-5018.909

-2545.482

x3 |

947.5113

0.011

768.2777

4862.225

_cons |

2888.06

0.005

3494.944

15973.49

------------------------------------------------------------------------------

Para obter os valores do y estimado, o comando é semelhante ao que usamos para obter os resíduos, a diferença é que no lugar de r que acrescentamos depois da virgula, colocamos xb depois da virgula.

No Stata:

. predict yf, xb

Observe na planilha do Stata foi criada uma nova coluna com o nome yf (que pode ser qualquer outro nome) dos y estimados.

II.

Estimação do modelo log-log e obtenção dos valores estimados de

LnY (lnf).

gen lny=ln(y)

gen lnx2=ln(x2)

gen lnx3=ln(x3)

reg

Source |

lny lnx2 lnx3

SS

df

MS

Number of obs =

16

-------------+------------------------------

2,

13) =

17.50

Model |

1.0300302

2 .515015098

F( Prob > F

= 0.0002

Residual | .382568648

13 .029428358

R-squared

=

0.7292

-------------+------------------------------ Adj R-squared = 0.6875

Total | 1.41259884

------------------------------------------------------------------------------

lny |

-------------+----------------------------------------------------------------

15 .094173256

t

Root MSE

=

.17155

Coef.

Std. Err.

P>|t|

[95% Conf. Interval]

lnx2 |

-1.760718

.298206

-5.90

0.000

-2.404953

-1.116484

lnx3 |

1.33978

.5273242

2.54

0.025

.2005655

2.478995

_cons |

9.227759

.5683903

16.23

0.000

7.999826

10.45569

------------------------------------------------------------------------------

Para obter o lny estimado o procedimento é o mesmo que no passo anterior, a diferença vai ser apenas o nome que vamos dar para a variável. No Stata:

predict lnf, xb

observe novamente que foi criada uma nova coluna na planilha do Stata para os lny estimados.

III. Calculo de Z1 = (Lnyf - lnf).

Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No Stata:

gen lnyf = ln(yf)

Agora podemos calcular z1:

gen z1= lnyf-lnf

IV.

Regredimos o modelo linear acrescentando a variável Z1. Rejeita-se H0 se

o coeficiente de Z1 for estatisticamente significativo segundo o teste t habitual. Como neste caso t não é significativo não rejeitamos o modelo linear como sendo o melhor.

. reg

y x2 x3 z1

Source |

SS

df

MS

Number of obs =

16

-------------+------------------------------

F(

3,

12) =

13.44

Model | 48240240.9

3

16080080.3

Prob > F

=

0.0004

Residual | 14356115.1

12 1196342.92

R-squared

= 0.7707

-------------+------------------------------ Adj R-squared = 0.7133

1093.8

------------------------------------------------------------------------------

Total |

62596356

15

4173090.4

Root MSE

=

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y

|

Coef.

Std. Err.

t

P>|t|

x2 |

-3783.062

597.286

-6.33

0.000

-5084.437

-2481.688

x3 |

2817.715

993.3304

2.84

0.015

653.4343

4981.996

z1 |

85.27798

4116.827

0.02

0.984
0.984

-8884.518

9055.074

_cons |

9727.57

3023.018

3.22

0.007

3140.978

16314.16

------------------------------------------------------------------------------

V. Calculo de Z2 = (antilog de lnf - yf).

Antes de gera Z2 temos que calcular o antilogaritmo de lnf. O comando no Stata é:

gen antilnf=exp(lnf)

onde antilnf é o nome da variável que vamos criar, pode ser qualquer outro. E o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da variável lnf.

Agora podemos calcular Z2:

gen z2= antilnf - yf

VI. Regressão log-log acrescentando a variável Z2. Rejeita-se H1 se o

coeficiente Z2 for estatisticamente significativo segundo o teste t. Como Z2 não é significativo a nível de 10%, não rejeitamos o modelo log-log como sendo o melhor.

Porém se consideramos o nível de 12% podemos rejeitar a hipótese H1, ou seja, rejeitamos o modelo log-log é melhor.

reg

lny lnx2 lnx3 z2

Source |

SS

df

MS

Number of obs =

16

-------------+------------------------------

F(

3,

12) =

14.17

Model | 1.10156341

3 .367187804

Prob > F

=

0.0003

Residual | .311035433

12 .025919619

R-squared

= 0.7798

-------------+------------------------------ Adj R-squared = 0.7248

.161

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total | 1.41259884

lny |

Coef.

15 .094173256

Std. Err.

t

Root MSE

=

P>|t|

lnx2 |

-1.969905

.3068873

-6.42

0.000

-2.638555

-1.301254

lnx3 |

1.589154

.5171554

3.07

0.010

.4623696

2.715939

z2 |

-.0001294

.0000779

-1.66

0.123
0.123

-.0002991

.0000403

_cons |

9.148609

.5355542

17.08

0.000

7.981736

10.31548

------------------------------------------------------------------------------

Estimação da regressão 9.2.5 com os dados da tabela 9.1

reg

y d2 d3

Source |

SS

df

MS

Number of obs =

51

-------------+------------------------------

F(

2,

48) =

2.38

Model |

78676547

2

39338273.5

Prob > F

= 0.1038

Residual |

794703718

48

16556327.5

R-squared

=

0.0901
0.0901

-------------+------------------------------ Adj R-squared = 0.0522

= 4068.9

------------------------------------------------------------------------------

Total |

873380265

50 17467605.3

Root MSE

[95% Conf. Interval]

-------------+----------------------------------------------------------------

y |

Coef.

Std. Err.

t

P>|t|

d2 |

d3 |

_cons |

y | Coef. Std. Err. t P>|t| d2 | d3 | _cons | -1734.473 -3264.615 26158.62

-1734.473

-3264.615

26158.62

1435.953

1499.155

1128.523

-1.21 0.233 -2.18 0.034 23.18 0.000
-1.21
0.233
-2.18
0.034
23.18
0.000

-4621.649

1152.704

-6278.868

-250.3625

23889.57

28427.66

------------------------------------------------------------------------------

Estimação da regressão 9.4.2 com os dados da tabela 9.1

reg

y d2 d3 x

Source |

SS

df

MS

Number of obs =

51

-------------+------------------------------

F(

3,

47) =

40.82

Model |

631161483

3

210387161

Prob > F

= 0.0000

Residual |

242218782

47 5153591.11

R-squared

=

0.7227
0.7227

-------------+------------------------------ Adj R-squared = 0.7050

2270.2

------------------------------------------------------------------------------

[95% Conf. Interval]

-------------+----------------------------------------------------------------

Total |

y |

873380265

Coef.

50 17467605.3

t

Root MSE

=

Std. Err.

P>|t|

d2 |

d3 |

x |

_cons |

-1673.514 801.1703 -1144.157 861.1182 3.288848 .3176425 13269.11 1395.056
-1673.514
801.1703
-1144.157
861.1182
3.288848
.3176425
13269.11
1395.056
-2.09 0.042 -1.33 0.190 10.35 0.000 9.51 0.000
-2.09
0.042
-1.33
0.190
10.35
0.000
9.51
0.000

-3285.261

-61.76764

-2876.503

588.1896

2.649834

3.927862

10462.62

16075.6

------------------------------------------------------------------------------

Estimação da regressão 9.5.4 com os dados da tabela 9.2

Para estimamos podemos rodar essa regressão, primeiro temos que gera a variável DX, que é simplesmente a multiplicação da variável dummy pela variável X. No Stata:

gen dx=d*x

Agora podemos fazer a regressão como fazemos normalmente:

reg

y d x dx

Source |

SS

df

MS

Number of obs =

26

-------------+------------------------------

F(

3,

22) =

54.78

Model | 88079.8327

3

29359.9442