Você está na página 1de 50

GUJARATI USANDO STATA

Por: GEÁSI MORAIS

Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão
cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do
livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11.
Estimação da função consumo (I.3.3) com dados da tabela I.1

reg y x

Source | SS df MS Number of obs = 15


-------------+------------------------------ F( 1, 13) = 8144.59
Model | 3351406.23 1 3351406.23 Prob > F = 0.0000
Residual | 5349.35306 13 411.488697 R-squared = 0.9984
-------------+------------------------------ Adj R-squared = 0.9983
Total | 3356755.58 14 239768.256 Root MSE = 20.285

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .706408 .0078275 90.25 0.000 .6894978 .7233182
_cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525
------------------------------------------------------------------------------

Estimação da regressão 3.6.1

A regressão 3.6.1 é estimada com dados da tabela 3.2

reg y x

Source | SS df MS Number of obs = 10


-------------+------------------------------ F( 1, 8) = 202.87
Model | 8552.72727 1 8552.72727 Prob > F = 0.0000
Residual | 337.272727 8 42.1590909 R-squared = 0.9621
-------------+------------------------------ Adj R-squared = 0.9573
Total | 8890 9 987.777778 Root MSE = 6.493

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------

A covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov):
. mat a = e(V)

. mat list a

symmetric a[2,2]
x _cons
x .00127755
_cons -.2171832 41.137052

Onde os elementos da diagonal principal são as variância de beta 1 (variância do termo de


intercepto, a constante) e a variância de beta 2 (a variância do coeficiente de x, o coeficiente angular).
Os outros elementos fora da diagonal principal são as covariâncias, no nosso caso, a covariância
de beta1 e beta2.

A equação 3.7.1, estimada a partir dos dados da tabela 3.4 é dada por:

reg y x

Source | SS df MS Number of obs = 11


-------------+------------------------------ F( 1, 9) = 17.69
Model | .29297476 1 .29297476 Prob > F = 0.0023
Residual | .1490797 9 .016564411 R-squared = 0.6628
-------------+------------------------------ Adj R-squared = 0.6253
Total | .44205446 10 .044205446 Root MSE = .1287

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939
_cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253
------------------------------------------------------------------------------

. mat a = e(V)

. mat list a

symmetric a[2,2]
x _cons
x .01300097
_cons -.01314279 .01479203

Estimação da equação 3.7.2 a partir dos dados da tabela I.1

reg y x
Source | SS df MS Number of obs = 15
-------------+------------------------------ F( 1, 13) = 8144.59
Model | 3351406.23 1 3351406.23 Prob > F = 0.0000
Residual | 5349.35306 13 411.488697 R-squared = 0.9984
-------------+------------------------------ Adj R-squared = 0.9983
Total | 3356755.58 14 239768.256 Root MSE = 20.285

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .706408 .0078275 90.25 0.000 .6894978 .7233182
_cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525
------------------------------------------------------------------------------

O teste t da equação 5.7.4

Sabemos que a equação do consumo-renda é:


reg y x
Source | SS df MS Number of obs = 10
-------------+------------------------------ F( 1, 8) = 202.87
Model | 8552.72727 1 8552.72727 Prob > F = 0.0000
Residual | 337.272727 8 42.1590909 R-squared = 0.9621
-------------+------------------------------ Adj R-squared = 0.9573
Total | 8890 9 987.777778 Root MSE = 6.493

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------

Para testar a hipótese que beta2 é igual a 0.3 basta digitar o comando:

test x=0.3

( 1) x = .3

F( 1, 8) = 34.22
Prob > F = 0.0004

Na saída temos que o valor de F=34.22. Porém sabemos a raiz quadra do valor de F numa
regressão simples é igual a t.
Assim t=raiz de 34.22=5.85

A tabela ANOVA 5.4 do exemplo consumo-renda pode ser obtida pela mesma saída da
regressão:

reg y x
Source | SS df MS Number of obs = 10
-------------+------------------------------ F( 1, 8) = 202.87
Model | 8552.72727 1 8552.72727 Prob > F = 0.0000
Residual | 337.272727 8 42.1590909 R-squared = 0.9621
-------------+------------------------------ Adj R-squared = 0.9573
Total | 8890 9 987.777778 Root MSE = 6.493

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------

Regressão 5.12.2 usando a tabela 7.2

reg despalim desptot

Source | SS df MS Number of obs = 55


-------------+------------------------------ F( 1, 53) = 31.10
Model | 139022.82 1 139022.82 Prob > F = 0.0000
Residual | 236893.616 53 4469.69087 R-squared = 0.3698
-------------+------------------------------ Adj R-squared = 0.3579
Total | 375916.436 54 6961.41549 Root MSE = 66.856

------------------------------------------------------------------------------
despalim | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
desptot | .4368088 .0783226 5.58 0.000 .2797135 .593904
_cons | 94.20878 50.85635 1.85 0.070 -7.796134 196.2137
------------------------------------------------------------------------------

No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5:

H0: beta 2=0.5

test desptot=0.5

( 1) desptot = .5

F( 1, 53) = 0.65
Prob > F = 0.4234

Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5.

Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro:

H0: os termos de erro tem distribuição normal:

Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima.
O comando para gerar os resíduos é:
predict residuos, r

A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o
série de resíduos
O comando para fazer o teste Jarque Bera é:

jb6 residuos
Jarque-Bera normality test: .2576 Chi(2) .8792
Jarque-Bera test for Ho: normality: (residuos)

O valor da estatística JB é 0.2576 e a probabilidade de obter esse número é aproximadamente


88%, o que nos leva a não rejeitar a hipótese H0 de normalidade dos termos de erro.

No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata
para isso é summarize ou simplesmente sum.

sum

Variable | Obs Mean Std. Dev. Min Max


-------------+--------------------------------------------------------
despalim | 55 373.3455 83.4351 196 610
desptot | 55 639.0364 116.1595 382 801
residuos | 55 1.76e-07 66.23382 -153.7664 171.5859

desse modo, obtemos o número de observações, a media, o desvio padrão, o mínimo e o


máximo e todas as variáveis que temos.
Para obter essas medidas de uma variável especifica basta digitar o nome da variável depois do
comando sum.

sum residuos

Variable | Obs Mean Std. Dev. Min Max


-------------+--------------------------------------------------------
residuos | 55 1.76e-07 66.23382 -153.7664 171.5859

Estimação da equação 6.1.12 com base nos dados da tabela 6.1


reg y x, noconst

Source | SS df MS Number of obs = 10


-------------+------------------------------ F( 1, 9) = 32.38
Model | 12364.2629 1 12364.2629 Prob > F = 0.0003
Residual | 3437.14716 9 381.90524 R-squared = 0.7825
-------------+------------------------------ Adj R-squared = 0.7583
Total | 15801.4101 10 1580.14101 Root MSE = 19.542

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 1.089912 .1915512 5.69 0.000 .6565926 1.523231
------------------------------------------------------------------------------

A única diferença no comando para fazer a regressão sem intercepto é o acréscimo de uma
virgula e a palavra noconst.

A regressão com intercepto é:

reg y x
Source | SS df MS Number of obs = 10
-------------+------------------------------ F( 1, 8) = 20.12
Model | 8616.40362 1 8616.40362 Prob > F = 0.0020
Residual | 3425.2855 8 428.160687 R-squared = 0.7155
-------------+------------------------------ Adj R-squared = 0.6800
Total | 12041.6891 9 1337.96546 Root MSE = 20.692

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 1.069084 .2383154 4.49 0.002 .5195275 1.61864
_cons | 1.279718 7.68856 0.17 0.872 -16.45013 19.00957
------------------------------------------------------------------------------

Estimação da regressão 6.5.5 com base nos dados da tabela 6.3

Para estimar a regressão 6.5.5 que é um modelo log-log (ou log-linear), temos que primeiro
transforma as variáveis para ln (logaritmo natural). O comando no Stata é:

gen lndespalim = ln(despalim)

gen lndesptot = ln(desptot)

O comando acima está logaritmizando as variáveis, isto pode ser feito numa planilha do Excel
antes de por os dados no Stata. O comanda gen significa que eu vou gerar uma nova variável através de
uma operação matemática. A palavra lndespalim é o nome da nova variável pode ser qualquer outro. E
o lado direito da igualdade é a operação em si, ln(despalim) significa que estou tirando o logaritmo
natural da variável despalim. O mesmo raciocino para a variável desptot.
Depois de gerara as variáveis podemos rodar a regressão:

reg lndespalim lndesptot


Source | SS df MS Number of obs = 55
-------------+------------------------------ F( 1, 53) = 37.21
Model | 1.16070799 1 1.16070799 Prob > F = 0.0000
Residual | 1.65334333 53 .031195157 R-squared = 0.4125
-------------+------------------------------ Adj R-squared = 0.4014
Total | 2.81405132 54 .052112062 Root MSE = .17662

------------------------------------------------------------------------------
lndespalim | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lndesptot | .7363261 .1207125 6.10 0.000 .4942075 .9784448
_cons | 1.154333 .777959 1.48 0.144 -.4060553 2.714721
------------------------------------------------------------------------------

Estimação da regressão 6.7.2 com base nos dados da tabela 6.4

Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa
no modelo reciproco:

gen inverpnb = 1/pnb

onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que
vai gera a nova variável, ou seja a inversa do PNB.
Depois basta fazer a regressão normalmente:

reg mi inverpnb

Source | SS df MS Number of obs = 64


-------------+------------------------------ F( 1, 62) = 52.61
Model | 166946.595 1 166946.595 Prob > F = 0.0000
Residual | 196731.405 62 3173.08717 R-squared = 0.4591
-------------+------------------------------ Adj R-squared = 0.4503
Total | 363678 63 5772.66667 Root MSE = 56.33

------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inverpnb | 27273.16 3759.999 7.25 0.000 19757.03 34789.3
_cons | 81.79436 10.83206 7.55 0.000 60.14138 103.4473
------------------------------------------------------------------------------

Estimação da regressão 6.7.5 com base nos dados da tabela 6.5

Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira
diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira
diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para
declara que estamos trabalhando com uma serie temporal é:

tsset ano, yearly


time variable: ano, 1960 to 1998
delta: 1 year
ou basta clicar em Statistic , Time serie, Setup na utilities, Declare dataset to be data-serie
data.
Depois basta selecionar a variável que representa a série temporal, no nosso caso é ano (Time
variable) e escolher a optação anualmente (Yearly) e clicar em OK.

Agora que o Stata sabe que estamos trabalhando com serie temporal temos que criar uma
variável em primeira diferença para a taxa de inflação.

O comando é:
gen deltapi = pi-l1.pi
(1 missing value generated)

O lado esquerdo da igualdade nos diz que estamos gerando uma nova variável com nome
deltapi, que pode ser qualquer outro. O lado esquerdo da igualdade nos diz que estamos subtraindo
de pi a sua primeira defasagem, ou seja pi do período anterior, representado por L1.pi, o L1 significa a
primeira defasagem de uma variável, no caso de pi.

Agora que temos a variável em primeira diferença deltapi, podemos rodar a regressão como
temos feito até agora:

reg deltapi un

Source | SS df MS Number of obs = 38


-------------+------------------------------ F( 1, 36) = 16.56
Model | 39.0574389 1 39.0574389 Prob > F = 0.0002
Residual | 84.9123 36 2.358675 R-squared = 0.3151
-------------+------------------------------ Adj R-squared = 0.2960
Total | 123.969739 37 3.35053348 Root MSE = 1.5358

------------------------------------------------------------------------------
deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
un | -.6895286 .1694472 -4.07 0.000 -1.033183 -.3458737
_cons | 4.178089 1.057162 3.95 0.000 2.034066 6.322112
------------------------------------------------------------------------------

Para a regressão 6.7.6 com base nos dados da tabela 6.5, basta gera a variável inversa da taxa
desemprego (inverso de UN):

gen inversoun = 1/un

como já temos a primeira diferença da taxa de inflação, podemos rodar a regressão:

reg deltapi inversoun

Source | SS df MS Number of obs = 38


-------------+------------------------------ F( 1, 36) = 9.38
Model | 25.6226535 1 25.6226535 Prob > F = 0.0041
Residual | 98.3470854 36 2.73186348 R-squared = 0.2067
-------------+------------------------------ Adj R-squared = 0.1846
Total | 123.969739 37 3.35053348 Root MSE = 1.6528
------------------------------------------------------------------------------
deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inversoun | 18.55085 6.05733 3.06 0.004 6.266015 30.83568
_cons | -3.25137 1.094158 -2.97 0.005 -5.470425 -1.032316
------------------------------------------------------------------------------

Estimação da regressão 7.3.1 com base nos dados da tabela 6.4

reg mi taf

Source | SS df MS Number of obs = 64


-------------+------------------------------ F( 1, 62) = 125.65
Model | 243515.049 1 243515.049 Prob > F = 0.0000
Residual | 120162.951 62 1938.11211 R-squared = 0.6696
-------------+------------------------------ Adj R-squared = 0.6643
Total | 363678 63 5772.66667 Root MSE = 44.024

------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
taf | -2.390496 .2132625 -11.21 0.000 -2.816802 -1.96419
_cons | 263.8635 12.22499 21.58 0.000 239.4261 288.3009
------------------------------------------------------------------------------

Depois de rodar a regressão 7.3.1 é necessário gerar uma série com seus resíduos para podemos
estimar a regressão 7.3.5. Os resíduos é gerado pelo comando:

predict u1, r

observe que foi crida uma nova coluna na planilha do Stata, com os resíduos. O nome que da
série de resíduos é u1 que pode ser qualquer outro.

Agora vamos gerar a regressão 7.3.1 com os mesmos dado da regressão anterior é salvar seus
resíduos para posteriormente rodarmos a regressão 7.3.5:

reg pnb taf

Source | SS df MS Number of obs = 64


-------------+------------------------------ F( 1, 62) = 4.82
Model | 33750527.5 1 33750527.5 Prob > F = 0.0319
Residual | 434302773 62 7004883.43 R-squared = 0.0721
-------------+------------------------------ Adj R-squared = 0.0571
Total | 468053300 63 7429417.46 Root MSE = 2646.7

------------------------------------------------------------------------------
pnb | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
taf | 28.14268 12.82111 2.20 0.032 2.513646 53.77171
_cons | -39.30328 734.9526 -0.05 0.958 -1508.453 1429.846
------------------------------------------------------------------------------

Os resíduos:

predict u2, r

como anteriormente u2 é o nome da serie de resíduos da regressão 7.3.2, que pode ser
qualquer outro.
Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5:

reg u1 u2, noconst


Source | SS df MS Number of obs = 64
-------------+------------------------------ F( 1, 63) = 8.21
Model | 13847.3245 1 13847.3245 Prob > F = 0.0057
Residual | 106315.625 63 1687.54961 R-squared = 0.1152
-------------+------------------------------ Adj R-squared = 0.1012
Total | 120162.95 64 1877.54609 Root MSE = 41.08

------------------------------------------------------------------------------
u1 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
u2 | -.0056466 .0019712 -2.86 0.006 -.0095857 -.0017075
------------------------------------------------------------------------------

Observe que a regressão dos resíduos é sem o intercepto (noconst).

Estimação da regressão 7.6.2 com base nos dados da tabela 6.4:


O procedimento para estima uma regressão múltipla é o mesmo para regressão simples, basta
acrescentar a nova variável no modelo:

reg mi pnb taf

Source | SS df MS Number of obs = 64


-------------+------------------------------ F( 2, 61) = 73.83
Model | 257362.373 2 128681.187 Prob > F = 0.0000
Residual | 106315.627 61 1742.87913 R-squared = 0.7077
-------------+------------------------------ Adj R-squared = 0.6981
Total | 363678 63 5772.66667 Root MSE = 41.748
------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408
taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177
_cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236
------------------------------------------------------------------------------

Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.1

7.8.8
. reg y x

Source | SS df MS Number of obs = 11


-------------+------------------------------ F( 1, 9) = 17.69
Model | .29297476 1 .29297476 Prob > F = 0.0023
Residual | .1490797 9 .016564411 R-squared = 0.6628
-------------+------------------------------ Adj R-squared = 0.6253
Total | .44205446 10 .044205446 Root MSE = .1287

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939
_cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253
------------------------------------------------------------------------------
7.8.9

. gen lny = ln(y)

. gen lnx = ln(x)


. reg lny lnx

Source | SS df MS Number of obs = 11


-------------+------------------------------ F( 1, 9) = 26.27
Model | .066054476 1 .066054476 Prob > F = 0.0006
Residual | .02263302 9 .00251478 R-squared = 0.7448
-------------+------------------------------ Adj R-squared = 0.7164
Total | .088687496 10 .00886875 Root MSE = .05015

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | -.2530461 .049374 -5.13 0.001 -.3647379 -.1413543
_cons | .7774176 .0152421 51.00 0.000 .7429375 .8118977
------------------------------------------------------------------------------

Estimação da regressão 7.9.4 com base nos dados da tabela 7.3

gen lny = ln(y)

. gen lnx2 = ln(x2)


. gen lnx3 = ln(x3)

. reg lny lnx2 lnx3

Source | SS df MS Number of obs = 15


-------------+------------------------------ F( 2, 12) = 48.07
Model | .538038027 2 .269019013 Prob > F = 0.0000
Residual | .067158351 12 .005596529 R-squared = 0.8890
-------------+------------------------------ Adj R-squared = 0.8705
Total | .605196377 14 .043228313 Root MSE = .07481

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | 1.498767 .5398018 2.78 0.017 .3226405 2.674894
lnx3 | .4898585 .1020435 4.80 0.000 .2675249 .7121922
_cons | -3.338459 2.449504 -1.36 0.198 -8.675471 1.998552
------------------------------------------------------------------------------

Estimação da regressão 7.10.6 com base nos dados da tabela 7.4

Para estimamos essa regressão temos primeiro que gerar as variáveis x2 e x3. No Stata o
procedimento é:

. gen x2 = x^2

. gen x3 = x^3

One x2 e x3 são os nomes das variáveis x2 e x3, que pode ser qualquer outro.

Depois de gerada as variáveis podemos rodar o modelo normalmente:


reg y x x2 x3

Source | SS df MS Number of obs = 10


-------------+------------------------------ F( 3, 6) = 1202.22
Model | 38918.1562 3 12972.7187 Prob > F = 0.0000
Residual | 64.7438228 6 10.7906371 R-squared = 0.9983
-------------+------------------------------ Adj R-squared = 0.9975
Total | 38982.9 9 4331.43333 Root MSE = 3.2849

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049
x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497
x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214
_cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665
------------------------------------------------------------------------------

Estimação da regressão 8.2.1 com base nos dados da tabela 6.4

reg mi pnb taf

Source | SS df MS Number of obs = 64


-------------+------------------------------ F( 2, 61) = 73.83
Model | 257362.373 2 128681.187 Prob > F = 0.0000
Residual | 106315.627 61 1742.87913 R-squared = 0.7077
-------------+------------------------------ Adj R-squared = 0.6981
Total | 363678 63 5772.66667 Root MSE = 41.748
------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408
taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177
_cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236
------------------------------------------------------------------------------

Fazendo o teste t (equação 8.4.1)

test pnb=0

( 1) pnb = 0

F( 1, 61) = 7.95
Prob > F = 0.0065

Na saída temos o favor F=7.95, que é igual a t^2=(-2.8187)^2

Fazendo o teste Jarque Bera de normalidade dos resíduos.


Primeiro temos que gerar a series de resíduos:

predict resid, r

onde resid, é o nome da série de resíduos que vamos gerar, pode ser qualquer outro.
A hipótese H0: os erros tem distribuição normal
. jb6 resid
Jarque-Bera normality test: .5594 Chi(2) .756
Jarque-Bera test for Ho: normality: (resid)

Pelo valor da probabilidade, 0.756, não podemos rejeitar a hipótese H0 de normalidade dos
temos de erro.
A tabela ANOVA 8.3 também pode ser vista na saída da regressão:

reg mi pnb taf


Source | SS df MS Number of obs = 64
-------------+------------------------------ F( 2, 61) = 73.83
Model | 257362.373 2 128681.187 Prob > F = 0.0000
Residual | 106315.627 61 1742.87913 R-squared = 0.7077
-------------+------------------------------ Adj R-squared = 0.6981
Total | 363678 63 5772.66667 Root MSE = 41.748

------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408
taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177
_cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236
------------------------------------------------------------------------------

Fazendo o teste de igualdade de coeficiente da equação 8.6.6

Primeiro, temos que fazer a regressão 7.10.6 e obter os betas, as variâncias dos betas e a
covariância dos betas.

. gen x2=x^2

. gen x3=x^3

. reg y x x2 x3

Source | SS df MS Number of obs = 10


-------------+------------------------------ F( 3, 6) = 1202.22
Model | 38918.1562 3 12972.7187 Prob > F = 0.0000
Residual | 64.7438228 6 10.7906371 R-squared = 0.9983
-------------+------------------------------ Adj R-squared = 0.9975
Total | 38982.9 9 4331.43333 Root MSE = 3.2849

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049
x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497
x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214
_cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665
------------------------------------------------------------------------------

A matriz de variância e covariância é dada por:

mat a = e(V)
mat list a

symmetric a[4,4]
x x2 x3 _cons
x 22.835081
x2 -4.6113834 .97153464
x3 .26585324 -.05764229 .00349347
_cons -28.475292 5.3953186 -.29973992 40.644733

Observe que a diagonal principal da matriz é a variância dos betas e o restante as covariâncias.
Desse modo basta pegar os valores e substituir na formula do teste t de igualdade de coeficiente. Ou
fazer o teste diretamente no Stata. O comando é:
test x2=x3

( 1) x2 - x3 = 0

F( 1, 6) = 177.23
Prob > F = 0.0000

Como o valor da probabilidade é igual a zero, isso nos leva a rejeitar a hipótese nula de
igualdade entre os coeficiente de x2 e x3. Observe que o valor F é igual a t^2.

Teste F da equação 8.7.10

Esse teste é para escolha entre duas regressões: uma com restrição (8.7.24) e outra
irrestrita(8.7.23). observe que a equação com restrição é igual a equação sem restrição quando os
coeficiente de lnx4 e lnx5 são iguais a zero. Desse modo basta fazer um teste que nos diga se lnx4 e lnx5
é igual a zero. Se for igual a zero é óbvio que o modelo restrito é melhor e se for diferente de zero o
modelo irrestrito é melhor.

Desse modo, primeiro rodamos a regressão completa.

. gen lny=ln(y)

. gen lnx2=ln(x2)

. gen lnx3=ln(x3)

. gen lnx4=ln(x4)

. gen lnx5=ln(x5)

. reg lny lnx2 lnx3 lnx4 lnx5


Source | SS df MS Number of obs = 23
-------------+------------------------------ F( 4, 18) = 249.93
Model | .761050242 4 .190262561 Prob > F = 0.0000
Residual | .013702848 18 .000761269 R-squared = 0.9823
-------------+------------------------------ Adj R-squared = 0.9784
Total | .77475309 22 .03521605 Root MSE = .02759

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | .3425546 .0832663 4.11 0.001 .1676186 .5174907
lnx3 | -.5045934 .1108943 -4.55 0.000 -.7375737 -.2716132
lnx4 | .1485461 .0996726 1.49 0.153 -.0608583 .3579505
lnx5 | .0911056 .1007164 0.90 0.378 -.1204917 .302703
_cons | 2.189793 .1557149 14.06 0.000 1.862648 2.516938
------------------------------------------------------------------------------

Agora, fazemos o teste para verificar se o coeficiente de lnx4 e lnx5 é igual a zero.
A hipótese nula é:
H0: beta de lnx4= beta de lnx5=0

test lnx4=lnx5=0

( 1) lnx4 - lnx5 = 0
( 2) lnx4 = 0

F( 2, 18) = 1.14
Prob > F = 0.3421
O valo F=1.12, com probabilidade 0.3421, nos leva a não rejeitar a hipótese H0. Ou seja, os
coeficientes de lnx4 e lnx5 são iguais a zero. Desse modo o modelo no qual essas variáveis são excluídas
é melhor (regressão 8.7.24).

Exemplo 8.5, teste MWD

TESTE MWD

H0: Modelo linear

H1: modelo log-log

Etapas:

I. Estimação do modelo linear e obtenção dos valores estimados de Y (yf).

reg y x2 x3

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 2, 13) = 21.84
Model | 48239727.6 2 24119863.8 Prob > F = 0.0001
Residual | 14356628.4 13 1104356.03 R-squared = 0.7706
-------------+------------------------------ Adj R-squared = 0.7354
Total | 62596356 15 4173090.4 Root MSE = 1050.9
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | -3782.196 572.4548 -6.61 0.000 -5018.909 -2545.482
x3 | 2815.251 947.5113 2.97 0.011 768.2777 4862.225
_cons | 9734.218 2888.06 3.37 0.005 3494.944 15973.49
------------------------------------------------------------------------------

Para obter os valores do y estimado, o comando é semelhante ao que usamos para obter
os resíduos, a diferença é que no lugar de r que acrescentamos depois da virgula, colocamos xb
depois da virgula.

No Stata:
. predict yf, xb

Observe na planilha do Stata foi criada uma nova coluna com o nome yf (que pode ser
qualquer outro nome) dos y estimados.
II. Estimação do modelo log-log e obtenção dos valores estimados de
LnY (lnf).

gen lny=ln(y)
gen lnx2=ln(x2)

gen lnx3=ln(x3)

reg lny lnx2 lnx3

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 2, 13) = 17.50
Model | 1.0300302 2 .515015098 Prob > F = 0.0002
Residual | .382568648 13 .029428358 R-squared = 0.7292
-------------+------------------------------ Adj R-squared = 0.6875
Total | 1.41259884 15 .094173256 Root MSE = .17155

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | -1.760718 .298206 -5.90 0.000 -2.404953 -1.116484
lnx3 | 1.33978 .5273242 2.54 0.025 .2005655 2.478995
_cons | 9.227759 .5683903 16.23 0.000 7.999826 10.45569
------------------------------------------------------------------------------

Para obter o lny estimado o procedimento é o mesmo que no passo


anterior, a diferença vai ser apenas o nome que vamos dar para a variável. No
Stata:

predict lnf, xb

observe novamente que foi criada uma nova coluna na planilha do Stata
para os lny estimados.

III. Calculo de Z1 = (Lnyf - lnf).

Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No
Stata:

gen lnyf = ln(yf)

Agora podemos calcular z1:

gen z1= lnyf-lnf


IV. Regredimos o modelo linear acrescentando a variável Z1. Rejeita-se H0 se
o coeficiente de Z1 for estatisticamente significativo segundo o teste t habitual. Como
neste caso t não é significativo não rejeitamos o modelo linear como sendo o melhor.

. reg y x2 x3 z1

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 3, 12) = 13.44
Model | 48240240.9 3 16080080.3 Prob > F = 0.0004
Residual | 14356115.1 12 1196342.92 R-squared = 0.7707
-------------+------------------------------ Adj R-squared = 0.7133
Total | 62596356 15 4173090.4 Root MSE = 1093.8

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | -3783.062 597.286 -6.33 0.000 -5084.437 -2481.688
x3 | 2817.715 993.3304 2.84 0.015 653.4343 4981.996
z1 | 85.27798 4116.827 0.02 0.984 -8884.518 9055.074
_cons | 9727.57 3023.018 3.22 0.007 3140.978 16314.16
------------------------------------------------------------------------------

V. Calculo de Z2 = (antilog de lnf - yf).

Antes de gera Z2 temos que calcular o antilogaritmo de lnf. O comando no


Stata é:

gen antilnf=exp(lnf)

onde antilnf é o nome da variável que vamos criar, pode ser qualquer outro. E
o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da
variável lnf.

Agora podemos calcular Z2:


gen z2= antilnf - yf

VI. Regressão log-log acrescentando a variável Z2. Rejeita-se H1 se o


coeficiente Z2 for estatisticamente significativo segundo o teste t. Como Z2 não é
significativo a nível de 10%, não rejeitamos o modelo log-log como sendo o melhor.
Porém se consideramos o nível de 12% podemos rejeitar a hipótese H1, ou seja,
rejeitamos o modelo log-log é melhor.

reg lny lnx2 lnx3 z2


Source | SS df MS Number of obs = 16
-------------+------------------------------ F( 3, 12) = 14.17
Model | 1.10156341 3 .367187804 Prob > F = 0.0003
Residual | .311035433 12 .025919619 R-squared = 0.7798
-------------+------------------------------ Adj R-squared = 0.7248
Total | 1.41259884 15 .094173256 Root MSE = .161

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | -1.969905 .3068873 -6.42 0.000 -2.638555 -1.301254
lnx3 | 1.589154 .5171554 3.07 0.010 .4623696 2.715939
z2 | -.0001294 .0000779 -1.66 0.123 -.0002991 .0000403
_cons | 9.148609 .5355542 17.08 0.000 7.981736 10.31548
------------------------------------------------------------------------------

Estimação da regressão 9.2.5 com os dados da tabela 9.1

reg y d2 d3

Source | SS df MS Number of obs = 51


-------------+------------------------------ F( 2, 48) = 2.38
Model | 78676547 2 39338273.5 Prob > F = 0.1038
Residual | 794703718 48 16556327.5 R-squared = 0.0901
-------------+------------------------------ Adj R-squared = 0.0522
Total | 873380265 50 17467605.3 Root MSE = 4068.9

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | -1734.473 1435.953 -1.21 0.233 -4621.649 1152.704
d3 | -3264.615 1499.155 -2.18 0.034 -6278.868 -250.3625
_cons | 26158.62 1128.523 23.18 0.000 23889.57 28427.66
------------------------------------------------------------------------------

Estimação da regressão 9.4.2 com os dados da tabela 9.1

reg y d2 d3 x

Source | SS df MS Number of obs = 51


-------------+------------------------------ F( 3, 47) = 40.82
Model | 631161483 3 210387161 Prob > F = 0.0000
Residual | 242218782 47 5153591.11 R-squared = 0.7227
-------------+------------------------------ Adj R-squared = 0.7050
Total | 873380265 50 17467605.3 Root MSE = 2270.2

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | -1673.514 801.1703 -2.09 0.042 -3285.261 -61.76764
d3 | -1144.157 861.1182 -1.33 0.190 -2876.503 588.1896
x | 3.288848 .3176425 10.35 0.000 2.649834 3.927862
_cons | 13269.11 1395.056 9.51 0.000 10462.62 16075.6
------------------------------------------------------------------------------

Estimação da regressão 9.5.4 com os dados da tabela 9.2


Para estimamos podemos rodar essa regressão, primeiro temos que gera a variável DX, que é
simplesmente a multiplicação da variável dummy pela variável X. No Stata:

gen dx=d*x

Agora podemos fazer a regressão como fazemos normalmente:

reg y d x dx

Source | SS df MS Number of obs = 26


-------------+------------------------------ F( 3, 22) = 54.78
Model | 88079.8327 3 29359.9442 Prob > F = 0.0000
Residual | 11790.2539 22 535.920634 R-squared = 0.8819
-------------+------------------------------ Adj R-squared = 0.8658
Total | 99870.0867 25 3994.80347 Root MSE = 23.15

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d | 152.4786 33.08237 4.61 0.000 83.86992 221.0872
x | .0803319 .0144968 5.54 0.000 .0502673 .1103964
dx | -.0654694 .0159824 -4.10 0.000 -.098615 -.0323239
_cons | 1.016115 20.16483 0.05 0.960 -40.80319 42.83542
------------------------------------------------------------------------------

Estimação das regressões 9.7.2 e 9.7.3 com os dados da tabela 9.3

reg y d1 d2 d3 d4, noconst


Source | SS df MS Number of obs = 32
-------------+------------------------------ F( 4, 28) = 518.00
Model | 59654886.6 4 14913721.7 Prob > F = 0.0000
Residual | 806142.375 28 28790.7991 R-squared = 0.9867
-------------+------------------------------ Adj R-squared = 0.9848
Total | 60461029 32 1889407.16 Root MSE = 169.68

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d1 | 1222.125 59.99041 20.37 0.000 1099.24 1345.01
d2 | 1467.5 59.99041 24.46 0.000 1344.615 1590.385
d3 | 1569.75 59.99041 26.17 0.000 1446.865 1692.635
d4 | 1160 59.99041 19.34 0.000 1037.115 1282.885
------------------------------------------------------------------------------

Observe que no modelo sem intercepto o R2 é o R2 bruto, para modelo que passa pela origem e
que não pode ser comparado com o R2 de modelos com intercepto.

reg y d2 d3 d4
Source | SS df MS Number of obs = 32
-------------+------------------------------ F( 3, 28) = 10.60
Model | 915635.844 3 305211.948 Prob > F = 0.0001
Residual | 806142.375 28 28790.7991 R-squared = 0.5318
-------------+------------------------------ Adj R-squared = 0.4816
Total | 1721778.22 31 55541.2329 Root MSE = 169.68

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | 245.375 84.83926 2.89 0.007 71.58966 419.1603
d3 | 347.625 84.83926 4.10 0.000 173.8397 521.4103
d4 | -62.125 84.83926 -0.73 0.470 -235.9103 111.6603
_cons | 1222.125 59.99041 20.37 0.000 1099.24 1345.01
------------------------------------------------------------------------------
Estimação da regressão 9.8.4 com os dados da tabela 9.6

Primeiro temos que gerar (Xi – Xi*). Sabendo que Xi*=5.500. No stata:

gen x2=x-5500

onde x2 é o nome da nova variável que representa essa diferença. Agora temos que gerar a
variável (Xi – Xi*)Di=x2*Di. No Stata, tem-se:

gen x2d=x2*d

onde x2d e a variável que queremos ((Xi – Xi*)Di)

Agora basta rodar a regressão normalmente:

reg y x x2d

Source | SS df MS Number of obs = 10


-------------+------------------------------ F( 2, 7) = 129.61
Model | 8832644.9 2 4416322.45 Prob > F = 0.0000
Residual | 238521.502 7 34074.5002 R-squared = 0.9737
-------------+------------------------------ Adj R-squared = 0.9662
Total | 9071166.4 9 1007907.38 Root MSE = 184.59

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .2791258 .0460081 6.07 0.001 .1703338 .3879177
x2d | .0945 .0825524 1.14 0.290 -.1007054 .2897054
_cons | -145.7167 176.7341 -0.82 0.437 -563.6265 272.1932
------------------------------------------------------------------------------

MULTICOLINEARIDADE.
Com base nos dados da tabela 10.7 fizemos uma rotina para detecção de multicolinearidade em um
modelo de regressão linear.

Fizemos a seguinte regressão, não esquecendo que a variável x6 é o tempo.


reg y x1 x2 x3 x4 x5 x6

Source | SS df MS Number of obs = 15


-------------+------------------------------ F( 6, 8) = 295.77
Model | 155088615 6 25848102.4 Prob > F = 0.0000
Residual | 699138.24 8 87392.28 R-squared = 0.9955
-------------+------------------------------ Adj R-squared = 0.9921
Total | 155787753 14 11127696.6 Root MSE = 295.62

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | -2.051082 8.70974 -0.24 0.820 -22.13578 18.03361
x2 | -.0273342 .0331748 -0.82 0.434 -.1038355 .0491671
x3 | -1.952293 .4767006 -4.10 0.003 -3.051567 -.8530199
x4 | -.9582393 .2162271 -4.43 0.002 -1.45686 -.4596187
x5 | .0513397 .233968 0.22 0.832 -.4881915 .5908709
x6 | 1585.156 482.6832 3.28 0.011 472.086 2698.225
_cons | 67271.28 23237.42 2.89 0.020 13685.68 120856.9
------------------------------------------------------------------------------

1. R2 alto, mas poucas razões t significativas. O primeiro sinal de que um modelo


apresenta multicolinearidade é o R2 elevado e alguns t não significativo. Como podemos ver na saída do
Stata, apresentada acima, a nossa regressão apresenta sinais de multicolinearidade.

2. Altas correlações entre pares de regressores. Outra regra pratica que se sugere é
que, se os coeficientes de correlação entre dois regressores forem altos, digamos, maiores que 0.8, então,
a multicolinearidade é um problema sério.

Para obter as correlações simples, o comando no Stata é:

. corr x1 x2 x3 x4 x5 x6
(obs=16)

| x1 x2 x3 x4 x5 x6
-------------+------------------------------------------------------
x1 | 1.0000
x2 | 0.9916 1.0000
x3 | 0.6206 0.6043 1.0000
x4 | 0.4647 0.4464 -0.1774 1.0000
x5 | 0.9792 0.9911 0.6866 0.3644 1.0000
x6 | 0.9911 0.9953 0.6683 0.4172 0.9940 1.0000

Se observarmos as correlações entre as variáveis, temos mais um sinal de multicolinearidade no


modelo, pois os pares de regressores são altamente correlacionados.
3. Regressões auxiliares. Pela regra prática de Klien. A multicolinearidade só será um
problema sério se o R2 obtido em pelo menos uma das regressões auxiliares for maior que
o R2 geral, isto é, aquele obtido na regressão de Y contra todos os regressores.

Sabemos que o R2 da regressão principal é 0.9955 ( R-squared = 0.9955), se encontrarmos um


valor maior que este em alguma regressão auxiliar temos problema de multicolinearidade.

A primeira regressão auxiliar é x1 como variável dependente contra as demais variáveis


dependentes. No Stata, temos:

reg x1 x2 x3 x4 x5 x6

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 5, 10) = 269.06
Model | 173397.547 5 34679.5095 Prob > F = 0.0000
Residual | 1288.89024 10 128.889024 R-squared = 0.9926
-------------+------------------------------ Adj R-squared = 0.9889
Total | 174686.438 15 11645.7625 Root MSE = 11.353

------------------------------------------------------------------------------
x1 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | .0025613 .0009484 2.70 0.022 .0004481 .0046746
x3 | .0319216 .0151299 2.11 0.061 -.00179 .0656331
x4 | .008802 .0074785 1.18 0.266 -.0078611 .0254651
x5 | -.0175496 .006331 -2.77 0.020 -.0316561 -.0034432
x6 | -9.992189 16.66535 -0.60 0.562 -47.12491 27.14054
_cons | 2044.583 533.3698 3.83 0.003 856.1613 3233.005
------------------------------------------------------------------------------

Na saida acima tem-se que o R2 da primeira regressão auxiliar é menor que o da


regressão principal. Porém, ainda temos que fazer outras regressões auxiliar.

A segunda regressão auxiliar a variável depende é x2, a variável independente são as


demais (com exceção do y).
reg x2 x3 x4 x5 x6 x1

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 5, 10) = 3575.03
Model | 1.4811e+11 5 2.9621e+10 Prob > F = 0.0000
Residual | 82856688.7 10 8285668.87 R-squared = 0.9994
-------------+------------------------------ Adj R-squared = 0.9992
Total | 1.4819e+11 15 9.8794e+09 Root MSE = 2878.5

------------------------------------------------------------------------------
x2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x3 | -13.7898 1.500185 -9.19 0.000 -17.13242 -10.44718
x4 | -2.998116 1.787322 -1.68 0.124 -6.980518 .9842857
x5 | 5.62436 1.180367 4.76 0.001 2.994339 8.254381
x6 | 10902.88 2570.756 4.24 0.002 5174.877 16630.88
x1 | 164.6571 60.96993 2.70 0.022 28.80766 300.5066
_cons | -480986 148413.8 -3.24 0.009 -811672.6 -150299.5
------------------------------------------------------------------------------

Com base na saída do Stata para segunda regressão auxiliar, já podemos concluir, pela
regra pratica de Klien que a multicolinearidade esta presente, pois o R2 dessa regressão é maior
que o da regressão principal (0.9992>0.9926)
As outras regressões auxiliares são expressas por:

reg x3 x4 x5 x6 x1 x2

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 5, 10) = 65.24
Model | 12708738.6 5 2541747.72 Prob > F = 0.0000
Residual | 389612.84 10 38961.284 R-squared = 0.9703
-------------+------------------------------ Adj R-squared = 0.9554
Total | 13098351.4 15 873223.429 Root MSE = 197.39

------------------------------------------------------------------------------
x3 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x4 | -.2713815 .1090108 -2.49 0.032 -.5142727 -.0284903
x5 | .350986 .0954316 3.68 0.004 .138351 .5636209
x6 | 768.5517 167.0507 4.60 0.001 396.3396 1140.764
x1 | 9.649428 4.573555 2.11 0.061 -.5410873 19.83994
x2 | -.0648431 .0070542 -9.19 0.000 -.0805609 -.0491253
_cons | -28518.24 11446.89 -2.49 0.032 -54023.49 -3012.989
------------------------------------------------------------------------------

reg x4 x5 x6 x1 x2 x3

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 5, 10) = 5.18
Model | 5240403.53 5 1048080.71 Prob > F = 0.0133
Residual | 2024157.91 10 202415.791 R-squared = 0.7214
-------------+------------------------------ Adj R-squared = 0.5820
Total | 7264561.44 15 484304.096 Root MSE = 449.91

------------------------------------------------------------------------------
x4 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x5 | .1993171 .3276332 0.61 0.557 -.5306952 .9293294
x6 | 1167.779 561.677 2.08 0.064 -83.71492 2419.274
x1 | 13.82322 11.74472 1.18 0.266 -12.34565 39.99208
x2 | -.0732429 .0436636 -1.68 0.124 -.1705314 .0240457
x3 | -1.40991 .5663444 -2.49 0.032 -2.671804 -.1480157
_cons | -11881.24 33002.42 -0.36 0.726 -85415.22 61652.74
------------------------------------------------------------------------------

reg x5 x6 x1 x2 x3 x4
Source | SS df MS Number of obs = 16
-------------+------------------------------ F( 5, 10) = 796.30
Model | 723991849 5 144798370 Prob > F = 0.0000
Residual | 1818385.01 10 181838.501 R-squared = 0.9975
-------------+------------------------------ Adj R-squared = 0.9962
Total | 725810234 15 48387348.9 Root MSE = 426.43

------------------------------------------------------------------------------
x5 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x6 | -782.0409 587.1614 -1.33 0.212 -2090.318 526.2363
x1 | -24.75928 8.931925 -2.77 0.020 -44.66084 -4.857707
x2 | .123433 .0259045 4.76 0.001 .0657142 .1811519
x3 | 1.638107 .4453946 3.68 0.004 .6457062 2.630508
x4 | .1790548 .2943265 0.61 0.557 -.4767455 .8348551
_cons | 95694.37 8682.033 11.02 0.000 76349.59 115039.1
------------------------------------------------------------------------------

reg x6 x1 x2 x3 x4 x5

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 5, 10) = 1515.96
Model | 339.552031 5 67.9104061 Prob > F = 0.0000
Residual | .447969291 10 .044796929 R-squared = 0.9987
-------------+------------------------------ Adj R-squared = 0.9980
Total | 340 15 22.6666667 Root MSE = .21165
------------------------------------------------------------------------------
x6 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | -.0034729 .0057922 -0.60 0.562 -.0163788 .009433
x2 | .0000589 .0000139 4.24 0.002 .000028 .0000899
x3 | .0008837 .0001921 4.60 0.001 .0004557 .0013116
x4 | .0002584 .0001243 2.08 0.064 -.0000185 .0005354
x5 | -.0001927 .0001447 -1.33 0.212 -.000515 .0001296
_cons | 8.305049 15.40358 0.54 0.602 -26.01627 42.62636
------------------------------------------------------------------------------

4. FIV(fator de inflação da variância). O fator de inflação da variância maior que 10


indica presença de multicolinearidade no modelo.

O comando no Stata é vif, porém se digitarmos esse comando no Stata agora, ele vai calcular o
FIV na última equação estimada no programa, assim é recomendável que estime a equação
principal novamente. Se você não quiser ver as saídas da regressão, para economizar espaço, ou
por não necessitar mais de usá-la basta digitar a palavra qui , antes de rodar o modelo no Stata:
reg y x1 x2 x3 x4 x5 x6

Source | SS df MS Number of obs = 16


-------------+------------------------------ F( 6, 9) = 330.29
Model | 184172402 6 30695400.3 Prob > F = 0.0000
Residual | 836424.056 9 92936.0062 R-squared = 0.9955
-------------+------------------------------ Adj R-squared = 0.9925
Total | 185008826 15 12333921.7 Root MSE = 304.85

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | 1.506187 8.491493 0.18 0.863 -17.7029 20.71528
x2 | -.0358192 .033491 -1.07 0.313 -.1115811 .0399427
x3 | -2.02023 .4883997 -4.14 0.003 -3.125067 -.915393
x4 | -1.033227 .2142742 -4.82 0.001 -1.517949 -.548505
x5 | -.0511041 .2260732 -0.23 0.826 -.5625172 .460309
x6 | 1829.151 455.4785 4.02 0.003 798.7875 2859.515
_cons | 77270.12 22506.71 3.43 0.007 26356.41 128183.8
------------------------------------------------------------------------------

Ou simplesmente:
qui reg y x1 x2 x3 x4 x5 x6

Desse modo podemos digitar o comando para o calculo do FIV, e esse será calculado com base na
equação acima, a última equação rodada pelo programa.

vif

Variable | VIF 1/VIF


-------------+----------------------
x2 | 1788.51 0.000559
x6 | 758.98 0.001318
x5 | 399.15 0.002505
x1 | 135.53 0.007378
x3 | 33.62 0.029745
x4 | 3.59 0.278635
-------------+----------------------
Mean VIF | 519.90

Como podemos verificar na saída do Stata, praticamente todos os FIV são maiores que 10,
indicando a presença de multicolinearidade.

HETEROCEDASTICIDADE

Teste de Park

Exemplo 11.1 com base nos dados da tabela 11.1

Obtemos primeiro a regressão 11.5.3


reg y x

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 5.44
Model | 619377.506 1 619377.506 Prob > F = 0.0523
Residual | 796278.05 7 113754.007 R-squared = 0.4375
-------------+------------------------------ Adj R-squared = 0.3572
Total | 1415655.56 8 176956.944 Root MSE = 337.27

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .2329993 .0998528 2.33 0.052 -.0031151 .4691137
_cons | 1992.062 936.6123 2.13 0.071 -222.6741 4206.798
------------------------------------------------------------------------------

Agora obtemos os resíduos da regressão acima:

predict u, r

onde u é o nome que foi dado para os resíduos.

Temos que gerar os resíduos ao quadrado:

gen u2=u^2

temos que gerar o logaritmo dos resíduos ao quadrado:


gen lnu2=ln(u2)

A variável depende (x) também tem que ser logaritmizada:


gen lnx = ln(x)

Por fim rodamos a regressão 11.5.4:

reg lnu2 lnx

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 0.45
Model | .95900152 1 .95900152 Prob > F = 0.5257
Residual | 15.0546945 7 2.15067064 R-squared = 0.0599
-------------+------------------------------ Adj R-squared = -0.0744
Total | 16.013696 8 2.001712 Root MSE = 1.4665

------------------------------------------------------------------------------
lnu2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | -2.802023 4.196131 -0.67 0.526 -12.7243 7.12025
_cons | 35.82686 38.3227 0.93 0.381 -54.79192 126.4456
------------------------------------------------------------------------------

A hipótese nula do teste é:

H0: Homocedástico

Se o beta 2 for estatisticamente significativo, podemos rejeitar a hipótese nula, e considerar que a
heterocedasticidade está presente nos dados. No nosso exemplo o valor da probabilidade não foi
significativo, assim não rejeitamos a hipótese nula de variância constante nos erros.

Teste de Glejser

Exemplo 11.2

Esse exemplo é uma continuação do exemplo anterior. Como já temos os resíduos da equação
anterior, o teste de Glejser trabalhar com os resíduos em valor absoluto. Assim vamos gerar os resíduos
em valor absoluto usando o Stata:

gen absu = abs(u)

Depois regredimos os resíduos em valor absoluto contra o x:


reg absu x

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 0.09
Model | 4724.55491 1 4724.55491 Prob > F = 0.7718
Residual | 363925.371 7 51989.3388 R-squared = 0.0128
-------------+------------------------------ Adj R-squared = -0.1282
Total | 368649.926 8 46081.2408 Root MSE = 228.01

------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.0203497 .0675047 -0.30 0.772 -.179973 .1392736
_cons | 407.476 633.1895 0.64 0.540 -1089.779 1904.731
------------------------------------------------------------------------------

Assim como no teste de Park, a hipótese nula do teste de Glejser é:

H0: variância constante dos termos de erro

E como o beta2 não foi estatisticamente significativo, não rejeitamos a hipótese nula, assim o
modelo é homocedástico.

Observe que o teste de Glejser recomenda que usemos outras formas funcionais para a variável
independente (o X).

Para isso é preciso primeiro que geremos tais variáveis. Para gerar a raiz quadrada de x, o
comando é:
gen sqrtx = sqrt(x)

ou simplesmente:
gen raizdex = x^0.5

onde o lado direito destas equações é a operação matemática que estamos realizando e o lado
esquerdo, o gen é o comando para gerar a variável, e sqrtx, raizdex são os nomes que escolhemos para
as variáveis.

Também podemos gerar o inverso de x e o inverso da raiz de x:

gen inversox=1/x

gen inveraizdex = 1/raizdex

Depois de gerada as variáveis podemos fazer o teste de Glejser paras essas formas funcionais.

A segunda forma recomendada por Glejser é:


reg absu raizdex

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 0.08
Model | 4049.60546 1 4049.60546 Prob > F = 0.7884
Residual | 364600.321 7 52085.7601 R-squared = 0.0110
-------------+------------------------------ Adj R-squared = -0.1303
Total | 368649.926 8 46081.2408 Root MSE = 228.22

------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
raizdex | -3.710843 13.3084 -0.28 0.788 -35.1802 27.75851
_cons | 575.4425 1284.251 0.45 0.668 -2461.328 3612.213
------------------------------------------------------------------------------

Não rejeitamos a hipótese nula de homocedasticidade.

A terceira forma recomendada é:

reg absu inversox

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 0.04
Model | 2266.19598 1 2266.19598 Prob > F = 0.8411
Residual | 366383.73 7 52340.5329 R-squared = 0.0061
-------------+------------------------------ Adj R-squared = -0.1358
Total | 368649.926 8 46081.2408 Root MSE = 228.78

------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inversox | 1298256 6239224 0.21 0.841 -1.35e+07 1.61e+07
_cons | 76.65779 683.4301 0.11 0.914 -1539.398 1692.713
------------------------------------------------------------------------------

Não rejeitamos a hipótese nula de homocedasticidade.

A quarta forma recomendada é:

reg absu inveraizdex

Source | SS df MS Number of obs = 9


-------------+------------------------------ F( 1, 7) = 0.05
Model | 2812.82061 1 2812.82061 Prob > F = 0.8232
Residual | 365837.106 7 52262.4437 R-squared = 0.0076
-------------+------------------------------ Adj R-squared = -0.1341
Total | 368649.926 8 46081.2408 Root MSE = 228.61

------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inveraizdex | 29681 127938.8 0.23 0.823 -272846.2 332208.2
_cons | -91.18788 1334.823 -0.07 0.947 -3247.543 3065.167
------------------------------------------------------------------------------

Não rejeitamos a hipótese nula de homocedasticidade.

Temos que ter atenção para o fato de que, se pelo menos uma equações estimadas para o teste de
Glejser apresentar heterocedasticidade, o modelo é heterocedástico.
Teste Breusch-Pagan-Godfrey (BPG)

Esse teste já bem incluso na rotina do Stata. Para sua realização basta, depois de estimar a
regressão, digitar o comando hettest.

O exemplo 11.5 com base nos dados da tabela 11.3 faz o teste BPG. No Stata para esse exemplo
tem-se:

. reg y x
Source | SS df MS Number of obs = 30
-------------+------------------------------ F( 1, 28) = 496.72
Model | 41886.7134 1 41886.7134 Prob > F = 0.0000
Residual | 2361.15325 28 84.3269018 R-squared = 0.9466
-------------+------------------------------ Adj R-squared = 0.9447
Total | 44247.8667 29 1525.78851 Root MSE = 9.183

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6377846 .0286167 22.29 0.000 .579166 .6964031
_cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632
------------------------------------------------------------------------------

hettest

Breusch-Pagan / Cook-Weisberg test for heteroskedasticity


Ho: Constant variance
Variables: fitted values of y

chi2(1) = 5.21
Prob > chi2 = 0.0224

A hipótese nula desse teste, assim com o teste de Park e de Glejser é que os erros tem variância
constante: H0: homocedasticidade.

Como o valor observado de qui-quadrado, de 5.21 é estatisticamente significativo, 0,0221,


rejeitamos a hipótese nula de homocedasticidade nos termos de erro, desse modo o modelo é
heterocedástico.

Teste de White

O teste de White, assim como o teste BPG já tem uma rotina no Stata, basta digitar o comando
whitetst depois de estimar a regressão.

Como no Gujarati o exemplo 11.6 não tem dados no livro, vamos usar a mesma regressão que
usamos no teste BPG. Que é dada por:
qui reg y x

o comando acima estima a regressão sem mostrar a saída no Stata, fizemos isso pois o teste é
baseado na é pega a ultima equação que o Stata estimou. Agora podemos fazer o teste de White:

whitetst

White's general test statistic : 5.330902 Chi-sq( 2) P-value = .0696

A saída do Stata, indica que valor observado de qui-quadrado, 5.33 é significativo ao nível de 1%,
assim a hipótese nula de homocedasticidade é rejeitada.

Teste de Koenker-Bassett (KB)

A hipótese nula deste teste é que β2 da regressão auxiliar (resíduos estimados ao quadrado contra
Y estimado ao quadrado), seja estatisticamente igual a zero. Se ela não for rejeitada, podemos concluir
que não há heterocedasticidade. A hipótese nula pode ser testada pelo teste t ou F.

Com base nos dados da tabela 11.3 vamos fazer o procedimento do teste KB.

Primeiro estima-se a equação principal.

reg y x

Source | SS df MS Number of obs = 30


-------------+------------------------------ F( 1, 28) = 496.72
Model | 41886.7134 1 41886.7134 Prob > F = 0.0000
Residual | 2361.15325 28 84.3269018 R-squared = 0.9466
-------------+------------------------------ Adj R-squared = 0.9447
Total | 44247.8667 29 1525.78851 Root MSE = 9.183

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6377846 .0286167 22.29 0.000 .579166 .6964031
_cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632
------------------------------------------------------------------------------

Segundo, geramos a serie de y estimado e dos resíduos estimados:


predict yest, xb
predict u, r

O primeiro comando digitado gerou a série de y estimado, cujo nome é yest, que poderia ser
qualquer outro. O segundo comando é foi para gerar a serie de resíduos, cujo nome é u.

O terceiro passo do teste KB é elevar ambas as series ao quadrado:

gen yest2=yest^2

gen u2=u^2

Por fim estimamos a regressão dos residuos estimados ao quadrado contra os y estimados ao
quadrado:

. reg u2 yest2

Source | SS df MS Number of obs = 30


-------------+------------------------------ F( 1, 28) = 6.05
Model | 65278.445 1 65278.445 Prob > F = 0.0204
Residual | 302289.99 28 10796.0711 R-squared = 0.1776
-------------+------------------------------ Adj R-squared = 0.1482
Total | 367568.435 29 12674.7736 Root MSE = 103.9
------------------------------------------------------------------------------
u2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
yest2 | .0051234 .0020835 2.46 0.020 .0008554 .0093913
_cons | -1.897135 37.87253 -0.05 0.960 -79.47551 75.68124
------------------------------------------------------------------------------

A hipótese nula do teste é que os erros são homocedástico. H0: homocedasticidade.


Observando o valor da probabilidade do beta2 verificamos que ele é significativo, isso nos levar
a rejeitar a hipótese nula de variância constante, concluímos então que o modelo é
heterocedástico.
AUTOCORRELAÇÃO

Teste d de Durbin Watson

Estimando as equações 12.5.1 e 12.5.2 com os dados da tabela 12.4.

Antes de estimarmos as regressões temos que lembrar que o problema da autocorrelação, envolve
um horizonte temporal, sendo assim é necessário declarara no Stata que estamos trabalhando com dados
de serie temporal. O comando é:

. tsset ano
time variable: ano, 1959 to 1998
delta: 1 unit

Agora vamos rodar a regressão 12.5.1:


reg y x

Source | SS df MS Number of obs = 40


-------------+------------------------------ F( 1, 38) = 876.55
Model | 6274.75662 1 6274.75662 Prob > F = 0.0000
Residual | 272.021913 38 7.1584714 R-squared = 0.9584
-------------+------------------------------ Adj R-squared = 0.9574
Total | 6546.77854 39 167.866116 Root MSE = 2.6755

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .7136594 .0241048 29.61 0.000 .6648619 .7624569
_cons | 29.51926 1.942346 15.20 0.000 25.58718 33.45133
------------------------------------------------------------------------------

Na saída acima temos os betas, os erros-padrão, o R2 e a variância dos termos de erro. Para
obtermos o valor da estatística de Durbin-Watson, o comando é:

. estat dwatson

Durbin-Watson d-statistic( 2, 40) = .1229045


O procedimento é idêntico para a regressão 12.5.2. Porém, antes de rodar a regressão temos que
logaritmizar a variáveis Y e X. O comando é:

gen lny=ln(y)

gen lnx=ln(x)

Agora podemos rodar a regressão:

. reg lny lnx

Source | SS df MS Number of obs = 40


-------------+------------------------------ F( 1, 38) = 1466.07
Model | .994932299 1 .994932299 Prob > F = 0.0000
Residual | .025788291 38 .000678639 R-squared = 0.9747
-------------+------------------------------ Adj R-squared = 0.9741
Total | 1.02072059 39 .026172323 Root MSE = .02605

------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | .6716951 .0175426 38.29 0.000 .6361819 .7072083
_cons | 1.523953 .0762181 19.99 0.000 1.369657 1.678248
------------------------------------------------------------------------------

E calcular a estatística DW:

estat dwatson
Durbin-Watson d-statistic( 2, 40) = .1542317

Observe que o comando para obter a estatistica DW é estat dwatson e ele sempre calcula o valor
DW da última regressão na memoria do Stata.

Teste Breusch-Godfrey (BG)

A ilustração deste teste está na página 382 e é feita com base no exercício 12.25, utilizando os
dados da tabela 12.4, e a regressão principal 12.5.1:

. reg y x

Source | SS df MS Number of obs = 40


-------------+------------------------------ F( 1, 38) = 876.55
Model | 6274.75662 1 6274.75662 Prob > F = 0.0000
Residual | 272.021913 38 7.1584714 R-squared = 0.9584
-------------+------------------------------ Adj R-squared = 0.9574
Total | 6546.77854 39 167.866116 Root MSE = 2.6755

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .7136594 .0241048 29.61 0.000 .6648619 .7624569
_cons | 29.51926 1.942346 15.20 0.000 25.58718 33.45133

Como no Stata existe um comando para execução do teste BG, vamos apenas executar o teste sem
seguir toda a rotina apresentada no livro. Porém existe a dificuldade da escolha do número de defasagem
ideal. Desse modo vamos fazer o teste até a sexta defasagem.

Para primeira defasagem, tem-se:


estat bgodfrey, lags(1) small

Breusch-Godfrey LM test for autocorrelation


---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
1 | 32.205 ( 1, 37 ) 0.0000
---------------------------------------------------------------------------
H0: no serial correlation

Observe que a hipótese H0 de ausência de autocorrelação é rejeita para primeira defasagem.

O mesmo procedimento é feito até a sexta defasagem:

. estat bgodfrey, lags(2) small

Breusch-Godfrey LM test for autocorrelation


---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
2 | 16.135 ( 2, 36 ) 0.0000
---------------------------------------------------------------------------
H0: no serial correlation

. estat bgodfrey, lags(3) small


Breusch-Godfrey LM test for autocorrelation
---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
3 | 10.757 ( 3, 35 ) 0.0000
---------------------------------------------------------------------------
H0: no serial correlation

. estat bgodfrey, lags(4) small

Breusch-Godfrey LM test for autocorrelation


---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
4 | 8.074 ( 4, 34 ) 0.0001
---------------------------------------------------------------------------
H0: no serial correlation
. estat bgodfrey, lags(5) small

Breusch-Godfrey LM test for autocorrelation


---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
5 | 6.490 ( 5, 33 ) 0.0003
---------------------------------------------------------------------------
H0: no serial correlation

estat bgodfrey, lags(6) small


Breusch-Godfrey LM test for autocorrelation
---------------------------------------------------------------------------
lags(p) | F df Prob > F
-------------+-------------------------------------------------------------
6 | 5.412 ( 6, 32 ) 0.0006
---------------------------------------------------------------------------
H0: no serial correlation

Assim, pode-se concluir que a hipótese H0 de ausência de autocorrelação é rejeita.

MODELO LOGIT

DADOS INDIVIDUAIS.

Os comandos para estimação do modelo logit são bastante simples. Por exemplo para estimar a
regressão 15.8.1 com os dados da tabela 15.7, cujos resultados se encontram na tabela 15.8, basta
digitar a palavra logit seguido pelas variáveis, a primeira será a variável dependente, seguida
pelas demais variáveis do modelo, assim:

logit grade gpa tuce psi

Iteration 0: log likelihood = -20.59173


Iteration 1: log likelihood = -13.259768
Iteration 2: log likelihood = -12.894606
Iteration 3: log likelihood = -12.889639
Iteration 4: log likelihood = -12.889633
Iteration 5: log likelihood = -12.889633
Logistic regression Number of obs = 32
LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889633 Pseudo R2 = 0.3740

------------------------------------------------------------------------------
grade | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432
tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988
psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195
_cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613
------------------------------------------------------------------------------

Se quisermos podemos omitir as iterações que aparecem na saída do Stata, basta digitar a palavra
nolog do comando acima.

logit grade gpa tuce psi, nolog

Logistic regression Number of obs = 32


LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889633 Pseudo R2 = 0.3740

------------------------------------------------------------------------------
grade | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432
tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988
psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195
_cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613
------------------------------------------------------------------------------

Interpretação.

Conforme o Gujarati, a interpretação é: Cada coeficiente angular dessa equação é um coeficiente


angular parcial e mede a variação no logit estimado para uma variação unitária do valor do
regressor dado (mantendo todos os demais constantes). Assim o coeficiente GPA de 2,8261
significa que, mantidas as demais variáveis constantes , se o GPA aumenta de uma unidade, o
logit estimado aumenta, em media, cerca de 2,83 unidades, sugerindo uma relação positiva entre
os dois. Como se ver todos os demais regressores tem um efeito positivo sobre o logit, embora
estatisticamente o efeito de TUCE não seja significativo. Contudo, todos os regressores em
conjunto têm um impacto na nota final, já que a estatística QV(estatística da razão d
verossimilhança) é de 15,4 cujo valor p é de cerca de 0,0015, que é muito pequeno.

Se quisermos o logit estimado de cada observação o comando é:


. predict logit, xb

. list logit

+-----------+
| logit |
|-----------|
1. | -3.600734 |
2. | -2.760413 |
3. | -1.467914 |
4. | -3.627206 |
5. | .2814147 |
|-----------|
6. | -3.320985 |
7. | -3.603596 |
8. | -2.912093 |
9. | -2.079284 |
10. | .8165872 |
|-----------|
11. | -3.685518 |
12. | -1.450027 |
13. | -.7434988 |
14. | -1.429278 |
15. | -.5710702 |
|-----------|
16. | -3.469803 |
17. | -2.870596 |
18. | -3.215453 |
19. | .363438 |
20. | .6667984 |
|-----------|
21. | -2.727399 |
22. | 2.252283 |
23. | -1.142986 |
24. | 1.751095 |
25. | 1.645563 |
|-----------|
26. | -.075504 |
27. | .5555431 |
28. | -.8131546 |
29. | 1.670963 |
30. | 2.850418 |
|-----------|
31. | .1166004 |
32. | -2.080255 |
+-----------+

Onde a palavra logit no comando acima poderia ser qualquer outra que fosse de nosso interesse
para nomear a serie dos logit estimado.

O Count R2 da equação 15.8.2, é gerada no Stata através da tabela de classificação, cujo


comando é:

. estat class

Logistic model for grade

-------- True --------


Classified | D ~D | Total
-----------+--------------------------+-----------
+ | 8 3 | 11
- | 3 18 | 21
-----------+--------------------------+-----------
Total | 11 21 | 32

Classified + if predicted Pr(D) >= .5


True D defined as grade != 0
--------------------------------------------------
Sensitivity Pr( +| D) 72.73%
Specificity Pr( -|~D) 85.71%
Positive predictive value Pr( D| +) 72.73%
Negative predictive value Pr(~D| -) 85.71%
--------------------------------------------------
False + rate for true ~D Pr( +|~D) 14.29%
False - rate for true D Pr( -| D) 27.27%
False + rate for classified + Pr(~D| +) 27.27%
False - rate for classified - Pr( D| -) 14.29%
--------------------------------------------------
Correctly classified 81.25%
--------------------------------------------------

A tabela de classificação nos permite verificar a capacidade do modelo em prever Y = 0, Y= 1,


além da capacidade total de previsão.

Além do count R2 o Stata gera outras medias de qualidade de ajustamento:

estat gof - testa a hipótese nula de que o número de respostas observadas é igual ao número
estimado. Se a hipótese nula é rejeitada o modelo não se ajusta bem; se não é rejeitada o modelo
apresenta bom ajuste.

. estat gof

Logistic model for grade, goodness-of-fit test

number of observations = 32
number of covariate patterns = 32
Pearson chi2(28) = 27.26
Prob > chi2 = 0.5043

O resultado para o modelo da tabela 15.8 indica que não podemos rejeitar a hipótese nula de que o
número de respostas observada é igual estimado.

fitstat - fornece uma série de medidas de ajuste. Entre elas tem-se o R2 de McFadden, Count R2 e o
critério de Akaike.

. fitstat

Measures of Fit for logit of grade

Log-Lik Intercept Only: -20.592 Log-Lik Full Model: -12.890


D(28): 25.779 LR(3): 15.404
Prob > LR: 0.002
McFadden's R2: 0.374 McFadden's Adj R2: 0.180
ML (Cox-Snell) R2: 0.382 Cragg-Uhler(Nagelkerke) R2: 0.528
McKelvey & Zavoina's R2: 0.544 Efron's R2: 0.426
Variance of y*: 7.210 Variance of error: 3.290
Count R2: 0.813 Adj Count R2: 0.455
AIC: 1.056 AIC*n: 33.779
BIC: -71.261 BIC': -5.007
BIC used by Stata: 39.642 AIC used by Stata: 33.779
Razão de Chances.

Uma interpretação que faz mais sentido se dá em termos das chances, que são obtidas tomando-
se o antilogaritmo dos vários coeficientes angulares. Assim, se tomarmos o antilogaritmo do
coeficiente PSI de 2,3786, obteremos 10,7897 (=e^2,3786). Isso sugere que estudantes que são
submetidos ao novo método de ensino têm dez vezes mais chances de obter um A do que os
estudantes que não são submetidos a ele, tudo o mais mantido constante. O valor do GPA de
16.87 nos diz que um aumento de uma unidade no GPA faz que com que o indivíduo tenha 16x
mais chances de passar com A.

No Stata a razão de chances é obtida pelo comando:

. logit grade gpa tuce psi, or

Iteration 0: log likelihood = -20.59173


Iteration 1: log likelihood = -13.259768
Iteration 2: log likelihood = -12.894606
Iteration 3: log likelihood = -12.889639
Iteration 4: log likelihood = -12.889633
Iteration 5: log likelihood = -12.889633

Logistic regression Number of obs = 32


LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889633 Pseudo R2 = 0.3740

------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------

Se quisermos omitir as interações, o procedimento é o mesmo de quando estimamos o logit,


basta digitar o nolog:

logit grade gpa tuce psi, nolog or

Logistic regression Number of obs = 32


LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889633 Pseudo R2 = 0.3740

------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------

Outra maneira de estimar a razão de chances é através do comando:

logistic grade gpa tuce psi, nolog


Logistic regression Number of obs = 32
LR chi2(3) = 15.40
Prob > chi2 = 0.0015
Log likelihood = -12.889633 Pseudo R2 = 0.3740

------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------
Observe que excluímos do comando o or (odds ratio) e no lugar de logit colocamos logistic. O
nolog como de praxy é para omitir as iterações.

A Probabildade De Ocorrer Y

Para obter a probabilidade de ocorre Y, tem-se o comando prvalue, que calcula a probabilidade
de ocorrência de Y no ponto médio da amostra:

. prvalue

logistic: Predictions for grade

Confidence intervals by delta method

95% Conf. Interval


Pr(y=1|x): 0.2528 [ 0.0464, 0.4592]
Pr(y=0|x): 0.7472 [ 0.5408, 0.9536]

gpa tuce psi


x= 3.1171875 21.9375 .4375

prvalue, x(gpa=3.92 tuce=29 psi=0)

Observe que essa probabilidade foi obtida no ponto médio da amostra. Isso pode ser confirmado
pode comando sum, que nos mostra a média das variáveis:

. sum

Variable | Obs Mean Std. Dev. Min Max


-------------+--------------------------------------------------------
gpa | 32 3.117188 .4667128 2.06 4
tuce | 32 21.9375 3.901509 12 29
psi | 32 .4375 .5040161 0 1
grade | 32 .34375 .4825587 0 1
Imagine que desejamos calcular a probabilidade de um estudante em particular obter nota A.
Vejamos o caso do estudante numero 10 da tabela (GPA=3.92, TUCE=29, PSI=0). Colocamos
os dados desse estudante no modelo logit obtemos 0,8174 (já sabemos desse valor pelo logit
estimado, quando rodamos a regressão logit). Substituindo em valor em z na equação abaixo
obtemos a probabilidade deste estudante obter um A:

Obtemos, 0,69351, que é a probabilidade do estudante 10 com suas características de GPA,


TUCE e PSI passar com A na matéria.

No Stata esse valor pode ser obtido diretamente através de:

. prvalue, x(gpa=3.92 tuce=29 psi=0)

logit: Predictions for grade

Confidence intervals by delta method

95% Conf. Interval


Pr(y=1|x): 0.6935 [ 0.2102, 1.1769]
Pr(y=0|x): 0.3065 [-0.1769, 0.7898]

gpa tuce psi


x= 3.92 29 0

A Probabilidade de cada observação é :

Predict [nome que queremos dar], p

List [nome que queremos dar]

Observe que foi criada uma nova coluna na planilha do Stata com as probabilidades de cada
observação.
predict probabilidade, p

. list probabilidade

+----------+
| probab~e |
|----------|
1. | .026578 |
2. | .0595013 |
3. | .1872599 |
4. | .0259016 |
5. | .569893 |
|----------|
6. | .0348582 |
7. | .026504 |
8. | .051559 |
9. | .1111266 |
10. | .6935114 |
|----------|
11. | .0244704 |
12. | .1899974 |
13. | .3222395 |
14. | .1932112 |
15. | .3609899 |
|----------|
16. | .0301837 |
17. | .0536264 |
18. | .0385883 |
19. | .5898724 |
20. | .6607859 |
|----------|
21. | .0613758 |
22. | .9048473 |
23. | .2417725 |
24. | .8520909 |
25. | .8382905 |
|----------|
26. | .481133 |
27. | .6354207 |
28. | .3072187 |
29. | .8417042 |
30. | .9453403 |
|----------|
31. | .5291171 |
32. | .1110308 |
+----------+

Observe a probabilidade do aluno 10 obter um A é idêntico ao cálculo feito anteriormente, assim


o calculo a probabilidade para um indivíduos com dadas características é mais vantajoso calcular
quando o tamanha da amostra é grande, pois como nosso caso com apenas 32 observações, listar
todas é mais vantajoso.

Efeito marginal (EM).

É o calculo da variação da probabilidade.

mfx – calcula o efeito marginal no ponto médio da amostra.

mfx

Marginal effects after logistic


y = Pr(grade) (predict)
= .25282025
------------------------------------------------------------------------------
variable | dy/dx Std. Err. z P>|z| [ 95% C.I. ] X
---------+--------------------------------------------------------------------
gpa | .5338589 .23704 2.25 0.024 .069273 .998445 3.11719
tuce | .0179755 .02624 0.69 0.493 -.033448 .069399 21.9375
psi*| .4564984 .18105 2.52 0.012 .10164 .811357 .4375
------------------------------------------------------------------------------
(*) dy/dx is for discrete change of dummy variable from 0 to 1
O efeito marginal da variável GPA de 0.53385, é interpretado como:

O aumento de uma unidade no GPA (coeficiente de rendimento acumulado) em relação ao seu


valor médio, a probabilidade do individuo passar com A (ocorrer Y) fica aumentada em 53.38
(53.38*100) pontos percentuais, tudo mais permanecendo constante.

Para variáveis binárias o efeito marginal é a mudança em P(Y=1) quando Dj passa de 0 para 1.

Assim a interpretação do valor de 0.4564 para o PSI é:

O fato do estudante ter sido submetido ao novo método de ensino (PSI) aumenta a probabilidade
do mesmo obter A aumentada em 45.64(0.4562*100) pontos percentuais, ceteris paribus.

mfx, at( ) – calcula o efeito marginal em pontos específicos

. mfx, at(gpa=3.92 tuce=29 psi=0)

Marginal effects after logit


y = Pr(grade) (predict)
= .69351137
------------------------------------------------------------------------------
variable | dy/dx Std. Err. z P>|z| [ 95% C.I. ] X
---------+--------------------------------------------------------------------
gpa | .6006998 .29103 2.06 0.039 .030289 1.17111 3.92
tuce | .0202261 .02623 0.77 0.441 -.03118 .071632 29
psi*| .2671447 .21457 1.25 0.213 -.153395 .687685 0
------------------------------------------------------------------------------
(*) dy/dx is for discrete change of dummy variable from 0 to 1

Para esse estudante com gpa=3.92, tuce=29, psi=0, como já sabemos, sua probabilidade de
passar com A é 69.35%. Para esse estudante um aumento na GPA (coeficiente de rendimento
acumulado) em uma unidade aumenta a sua probabilidade de passar com A em 60.06 pontos
percentuais, ceteris paribus.

Para esse mesmo aluno, o aumento de uma unidade na TUCE (nota da prova do inicio do
período) eleva a probabilidade dele passar com A em 2.02 pontos percentuais, ceteris paribus.

O valor do PSI significa que se ele tivesse feito o PSI (tutoria, por exemplo) a probabilidade dele
passar com A aumentaria em 26.71 pontos percentuais, ceteris paribus.
O valor do PSI, aumentando em 26.71 pontos percentuais, pelo fato do aluno ter feito a tutoria
pode ser visualizado por:

. mfx, at(gpa=3.92 tuce=29 psi=1)

Marginal effects after logit


y = Pr(grade) (predict)
= .96065607
------------------------------------------------------------------------------
variable | dy/dx Std. Err. z P>|z| [ 95% C.I. ] X
---------+--------------------------------------------------------------------
gpa | .1068157 .11719 0.91 0.362 -.122875 .336506 3.92
tuce | .0035966 .0049 0.73 0.463 -.006014 .013207 29
psi*| .2671447 .21457 1.25 0.213 -.153395 .687685 1
------------------------------------------------------------------------------
(*) dy/dx is for discrete change of dummy variable from 0 to 1

Observe a probabilidade de passer com A de 96.06 quando este aluno faz a tutorial. E a
probabilidade de 69.35 de passar com A quando ele não faz a tutoria. Assim podemos concluir
que o fato deste aluno ter feito a tutoria aumenta a probabilidade dele passar com A em 26.71
(=96.06-69.35) pontos percentuais, ceteris paribus.

MODELO PROBIT

Estimação.
. gen x22=x2^2

. gen lnx3=ln(x3)

. probit y x1 x2 x22 lnx3, nolog

Probit regression Number of obs = 30


LR chi2(4) = 16.28
Prob > chi2 = 0.0027
Log likelihood = -12.050559 Pseudo R2 = 0.4032

y Coef. Std. Err. z P>|z| [95% Conf. Interval]

x1 -1.667572 .6603152 -2.53 0.012 -2.961766 -.3733781


x2 .2743342 .1750911 1.57 0.117 -.0688381 .6175065
x22 -.0032811 .0020371 -1.61 0.107 -.0072736 .0007115
lnx3 3.465858 2.039011 1.70 0.089 -.5305298 7.462246
_cons -12.44078 5.970636 -2.08 0.037 -24.14301 -.738549

Novamente temos na saída a informação do número de observações (30), a estatística razão de


verossimilhança (16,28), significativa a 1%. Isto indica que em conjunto os coeficientes das
variáveis explicativas não são iguais a zero. Considerando um nível de significância de 10%,
somente os coeficientes associados às variáveis X2 e X2^2 não são estatisticamente
significativos. O Pseudo R2 (R2 de McFadden) é de 0,4032.

Efeito Marginal (EM). A interpretação dos coeficientes é feita através da análise dos efeitos
marginais juntamente com os sinais. O cálculo do efeito marginal no modelo probit é:
. mfx

Marginal effects after probit


y = Pr(y) (predict)
= .63860415

variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X

x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 .566667


x2 .1027698 .06852 1.50 0.134 -.031523 .237063 41.3333
x22 -.0012291 .0008 -1.54 0.124 -.002795 .000336 1859.07
lnx3 1.298364 .74552 1.74 0.082 -.162832 2.75956 2.4528

(*) dy/dx is for discrete change of dummy variable from 0 to 1

Que nos dá a probabilidade de Y=1 no ponto médio da amostra.

Para variáveis binárias o efeito marginal é a mudança em P(Y=1) quando Dj passa de 0 para 1.

Este é o caso da variável X1 no modelo estimado.

O efeito marginal de X1 deve ser calculado pela diferença de probabilidade dada por:
. mfx, at(x1=1)

warning: no value assigned in at() for variables x2 x22 lnx3;


means used for x2 x22 lnx3

Marginal effects after probit


y = Pr(y) (predict)
= .35647976

variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X

x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 1


x2 .1022825 .0617 1.66 0.097 -.018639 .223204 41.3333
x22 -.0012233 .00072 -1.70 0.088 -.00263 .000183 1859.07
lnx3 1.292208 .78173 1.65 0.098 -.239954 2.82437 2.4528

(*) dy/dx is for discrete change of dummy variable from 0 to 1

. mfx, at(x1=0)

warning: no value assigned in at() for variables x2 x22 lnx3;


means used for x2 x22 lnx3

Marginal effects after probit


y = Pr(y) (predict)
= .90314598

variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X

x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 0


x2 .0470314 .04193 1.12 0.262 -.035147 .12921 41.3333
x22 -.0005625 .0005 -1.13 0.257 -.001536 .000411 1859.07
lnx3 .5941804 .44992 1.32 0.187 -.287638 1.476 2.4528

(*) dy/dx is for discrete change of dummy variable from 0 to 1

No Probit, o cálculo do EM para os casos em que as variáveis aparecem na forma polinomial ou


logarítmica deve se executado da seguinte forma:

1º) Calcular as médias das todas variáveis dependentes e salvar num escalar;
. su x1

Variable Obs Mean Std. Dev. Min Max

x1 30 .5666667 .5040069 0 1

. scalar mx1=r(mean)

. su x2

Variable Obs Mean Std. Dev. Min Max

x2 30 41.33333 12.48263 21 67

. scalar mx2 = r(mean)

. su x22

Variable Obs Mean Std. Dev. Min Max

x22 30 1859.067 1101.952 441 4489

. scalar mx22= r(mean)

. su x3

Variable Obs Mean Std. Dev. Min Max

x3 30 11.83333 2.229633 7 16

. scalar mx3 = r(mean)

. su lnx3

Variable Obs Mean Std. Dev. Min Max

lnx3 30 2.452803 .196993 1.94591 2.772589

. scalar mlnx3 = r(mean)

2º) Usar o comando nlcom com a função normalden que calcula valores da densidade normal
padrão, para calcular os efeitos marginais das variáveis.

Efeito marginal de x2:

nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]
+2*_b[x22]*mx2))

. nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2))

_nl_1: normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2)

y Coef. Std. Err. z P>|z| [95% Conf. Interval]

_nl_1 .0011607 .0105056 0.11 0.912 -.0194298 .0217512


nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[
lnx3]/mx3))
. nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[lnx3]/mx3))

_nl_1: normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[lnx3]/mx3)

y Coef. Std. Err. z P>|z| [95% Conf. Interval]

_nl_1 .1097209 .0630019 1.74 0.082 -.0137605 .2332023

Calculo do EM em pontos específicos das variáveis dependentes.


. mfx, at(x1=0 x2=31 x22=961 lnx3=2.77)

Marginal effects after probit


y = Pr(y) (predict)
= .99397863

variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X

x1* -.1935041 .19467 -0.99 0.320 -.575044 .188036 0


x2 .0046792 .01131 0.41 0.679 -.01748 .026838 31
x22 -.000056 .00013 -0.42 0.677 -.000319 .000208 961
lnx3 .0591156 .11322 0.52 0.602 -.162785 .281017 2.77

(*) dy/dx is for discrete change of dummy variable from 0 to 1

Tabela de Classificação. A tabela de classificação nos permite verificar a capacidade do modelo


em prever Y = 0, Y= 1, além da capacidade total de previsão.

estat class
. estat class

Probit model for y

True
Classified D ~D Total

+ 16 2 18
- 2 10 12

Total 18 12 30

Classified + if predicted Pr(D) >= .5


True D defined as y != 0

Sensitivity Pr( +| D) 88.89%


Specificity Pr( -|~D) 83.33%
Positive predictive value Pr( D| +) 88.89%
Negative predictive value Pr(~D| -) 83.33%

False + rate for true ~D Pr( +|~D) 16.67%


False - rate for true D Pr( -| D) 11.11%
False + rate for classified + Pr(~D| +) 11.11%
False - rate for classified - Pr( D| -) 16.67%

Correctly classified 86.67%

Para valores de Y=1, o modelo previu corretamente 88,89% das observações. Para valores de
Y=0, o modelo previu corretamente 83,33% das obs. De modo geral, o modelo previu
corretamente 86,67% , isto é, 26 das 30 observações.

Qualidade de ajustamento.

estat gof - testa a hipótese nula de que o número de respostas observadas é igual ao número
estimado. Se a hipótese nula é rejeitada o modelo não se ajusta bem; se não é rejeitada o modelo
apresenta bom ajuste.

. estat gof

Probit model for y, goodness-of-fit test

number of observations = 30
number of covariate patterns = 30
Pearson chi2(25) = 45.44
Prob > chi2 = 0.0075

Rejeita-se H0, ou seja, o número de respostas observadas é diferente do estimado.


SÍNTESE DOS COMANDOS:

Summarize: aparecerá uma tabela com o número de observações, a média, o desvio-padrão, o mínimo e
o máximo de cada variável.

Summarize [variável], detail: além das medidas que aparece no comando summarize, neste comando
aparece outras medidas estatísticas, como a variância, a simetria, e a kurtosi.

Edit: abre a planilha do Stata

correlate [variável 1] [variável 2] [variável n]: o commando corralate, ou simplesmente corr, é usado
para obter a matriz de correlação entre as variáveis.

drop if [variável] == [restrição]: dada a restrição para uma variável, podemos excluir a observação desta
variável pelo comado drop. Por exemplo se quisermos excluir a observação onde o valor da variável renda é
350113, o comando é drop if renda == 350113

keep if [variável] == [restrição]: o comando keep faz o oposto do comando drop. Ele seleciona as
observações que queremos através de uma restrição imposta. Por exemplo, quando estamos extraindo dados
da PNAD, se tivermos interessado ao selecionar as observações de apenas uma unidade da federação, basta
selecionar o numero relacionado a ela. Assim, keep if uf == 13.

reg ou regress: É o commando para rodar a regressão, não esquecendo que a variável dependente vem
primeiro.

Vce: gera a matriz de variância e covariância (var-cov)

l1.[variável]: o l1 antes da variável significa que estamos trabalhando com sua primeira defasagem, se
fosse l2 antes da variável seria sua segunda defasagem, e assim sucessivamente.

d1. [variável]: o d1 antes da variável significa que estamos trabalhando com a primeira diferença da
varável.

Rename [variável] [novo nome da variável]: o comando rename, renomeia a variável, por exemplo se o
nome da variável for renda e você deseja mudar para salario, o comando é rename renda salario.

Continua...

Você também pode gostar