Escolar Documentos
Profissional Documentos
Cultura Documentos
Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão
cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do
livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11.
Estimação da função consumo (I.3.3) com dados da tabela I.1
reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .706408 .0078275 90.25 0.000 .6894978 .7233182
_cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525
------------------------------------------------------------------------------
reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------
A covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov):
. mat a = e(V)
. mat list a
symmetric a[2,2]
x _cons
x .00127755
_cons -.2171832 41.137052
A equação 3.7.1, estimada a partir dos dados da tabela 3.4 é dada por:
reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939
_cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253
------------------------------------------------------------------------------
. mat a = e(V)
. mat list a
symmetric a[2,2]
x _cons
x .01300097
_cons -.01314279 .01479203
reg y x
Source | SS df MS Number of obs = 15
-------------+------------------------------ F( 1, 13) = 8144.59
Model | 3351406.23 1 3351406.23 Prob > F = 0.0000
Residual | 5349.35306 13 411.488697 R-squared = 0.9984
-------------+------------------------------ Adj R-squared = 0.9983
Total | 3356755.58 14 239768.256 Root MSE = 20.285
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .706408 .0078275 90.25 0.000 .6894978 .7233182
_cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525
------------------------------------------------------------------------------
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------
Para testar a hipótese que beta2 é igual a 0.3 basta digitar o comando:
test x=0.3
( 1) x = .3
F( 1, 8) = 34.22
Prob > F = 0.0004
Na saída temos que o valor de F=34.22. Porém sabemos a raiz quadra do valor de F numa
regressão simples é igual a t.
Assim t=raiz de 34.22=5.85
A tabela ANOVA 5.4 do exemplo consumo-renda pode ser obtida pela mesma saída da
regressão:
reg y x
Source | SS df MS Number of obs = 10
-------------+------------------------------ F( 1, 8) = 202.87
Model | 8552.72727 1 8552.72727 Prob > F = 0.0000
Residual | 337.272727 8 42.1590909 R-squared = 0.9621
-------------+------------------------------ Adj R-squared = 0.9573
Total | 8890 9 987.777778 Root MSE = 6.493
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5090909 .0357428 14.24 0.000 .4266678 .591514
_cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483
------------------------------------------------------------------------------
------------------------------------------------------------------------------
despalim | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
desptot | .4368088 .0783226 5.58 0.000 .2797135 .593904
_cons | 94.20878 50.85635 1.85 0.070 -7.796134 196.2137
------------------------------------------------------------------------------
No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5:
test desptot=0.5
( 1) desptot = .5
F( 1, 53) = 0.65
Prob > F = 0.4234
Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5.
Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro:
Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima.
O comando para gerar os resíduos é:
predict residuos, r
A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o
série de resíduos
O comando para fazer o teste Jarque Bera é:
jb6 residuos
Jarque-Bera normality test: .2576 Chi(2) .8792
Jarque-Bera test for Ho: normality: (residuos)
No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata
para isso é summarize ou simplesmente sum.
sum
sum residuos
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 1.089912 .1915512 5.69 0.000 .6565926 1.523231
------------------------------------------------------------------------------
A única diferença no comando para fazer a regressão sem intercepto é o acréscimo de uma
virgula e a palavra noconst.
reg y x
Source | SS df MS Number of obs = 10
-------------+------------------------------ F( 1, 8) = 20.12
Model | 8616.40362 1 8616.40362 Prob > F = 0.0020
Residual | 3425.2855 8 428.160687 R-squared = 0.7155
-------------+------------------------------ Adj R-squared = 0.6800
Total | 12041.6891 9 1337.96546 Root MSE = 20.692
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 1.069084 .2383154 4.49 0.002 .5195275 1.61864
_cons | 1.279718 7.68856 0.17 0.872 -16.45013 19.00957
------------------------------------------------------------------------------
Para estimar a regressão 6.5.5 que é um modelo log-log (ou log-linear), temos que primeiro
transforma as variáveis para ln (logaritmo natural). O comando no Stata é:
O comando acima está logaritmizando as variáveis, isto pode ser feito numa planilha do Excel
antes de por os dados no Stata. O comanda gen significa que eu vou gerar uma nova variável através de
uma operação matemática. A palavra lndespalim é o nome da nova variável pode ser qualquer outro. E
o lado direito da igualdade é a operação em si, ln(despalim) significa que estou tirando o logaritmo
natural da variável despalim. O mesmo raciocino para a variável desptot.
Depois de gerara as variáveis podemos rodar a regressão:
------------------------------------------------------------------------------
lndespalim | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lndesptot | .7363261 .1207125 6.10 0.000 .4942075 .9784448
_cons | 1.154333 .777959 1.48 0.144 -.4060553 2.714721
------------------------------------------------------------------------------
Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa
no modelo reciproco:
onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que
vai gera a nova variável, ou seja a inversa do PNB.
Depois basta fazer a regressão normalmente:
reg mi inverpnb
------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inverpnb | 27273.16 3759.999 7.25 0.000 19757.03 34789.3
_cons | 81.79436 10.83206 7.55 0.000 60.14138 103.4473
------------------------------------------------------------------------------
Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira
diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira
diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para
declara que estamos trabalhando com uma serie temporal é:
Agora que o Stata sabe que estamos trabalhando com serie temporal temos que criar uma
variável em primeira diferença para a taxa de inflação.
O comando é:
gen deltapi = pi-l1.pi
(1 missing value generated)
O lado esquerdo da igualdade nos diz que estamos gerando uma nova variável com nome
deltapi, que pode ser qualquer outro. O lado esquerdo da igualdade nos diz que estamos subtraindo
de pi a sua primeira defasagem, ou seja pi do período anterior, representado por L1.pi, o L1 significa a
primeira defasagem de uma variável, no caso de pi.
Agora que temos a variável em primeira diferença deltapi, podemos rodar a regressão como
temos feito até agora:
reg deltapi un
------------------------------------------------------------------------------
deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
un | -.6895286 .1694472 -4.07 0.000 -1.033183 -.3458737
_cons | 4.178089 1.057162 3.95 0.000 2.034066 6.322112
------------------------------------------------------------------------------
Para a regressão 6.7.6 com base nos dados da tabela 6.5, basta gera a variável inversa da taxa
desemprego (inverso de UN):
reg mi taf
------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
taf | -2.390496 .2132625 -11.21 0.000 -2.816802 -1.96419
_cons | 263.8635 12.22499 21.58 0.000 239.4261 288.3009
------------------------------------------------------------------------------
Depois de rodar a regressão 7.3.1 é necessário gerar uma série com seus resíduos para podemos
estimar a regressão 7.3.5. Os resíduos é gerado pelo comando:
predict u1, r
observe que foi crida uma nova coluna na planilha do Stata, com os resíduos. O nome que da
série de resíduos é u1 que pode ser qualquer outro.
Agora vamos gerar a regressão 7.3.1 com os mesmos dado da regressão anterior é salvar seus
resíduos para posteriormente rodarmos a regressão 7.3.5:
------------------------------------------------------------------------------
pnb | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
taf | 28.14268 12.82111 2.20 0.032 2.513646 53.77171
_cons | -39.30328 734.9526 -0.05 0.958 -1508.453 1429.846
------------------------------------------------------------------------------
Os resíduos:
predict u2, r
como anteriormente u2 é o nome da serie de resíduos da regressão 7.3.2, que pode ser
qualquer outro.
Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5:
------------------------------------------------------------------------------
u1 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
u2 | -.0056466 .0019712 -2.86 0.006 -.0095857 -.0017075
------------------------------------------------------------------------------
Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.1
7.8.8
. reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939
_cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253
------------------------------------------------------------------------------
7.8.9
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | -.2530461 .049374 -5.13 0.001 -.3647379 -.1413543
_cons | .7774176 .0152421 51.00 0.000 .7429375 .8118977
------------------------------------------------------------------------------
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | 1.498767 .5398018 2.78 0.017 .3226405 2.674894
lnx3 | .4898585 .1020435 4.80 0.000 .2675249 .7121922
_cons | -3.338459 2.449504 -1.36 0.198 -8.675471 1.998552
------------------------------------------------------------------------------
Para estimamos essa regressão temos primeiro que gerar as variáveis x2 e x3. No Stata o
procedimento é:
. gen x2 = x^2
. gen x3 = x^3
One x2 e x3 são os nomes das variáveis x2 e x3, que pode ser qualquer outro.
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049
x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497
x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214
_cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665
------------------------------------------------------------------------------
test pnb=0
( 1) pnb = 0
F( 1, 61) = 7.95
Prob > F = 0.0065
predict resid, r
onde resid, é o nome da série de resíduos que vamos gerar, pode ser qualquer outro.
A hipótese H0: os erros tem distribuição normal
. jb6 resid
Jarque-Bera normality test: .5594 Chi(2) .756
Jarque-Bera test for Ho: normality: (resid)
Pelo valor da probabilidade, 0.756, não podemos rejeitar a hipótese H0 de normalidade dos
temos de erro.
A tabela ANOVA 8.3 também pode ser vista na saída da regressão:
------------------------------------------------------------------------------
mi | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408
taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177
_cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236
------------------------------------------------------------------------------
Primeiro, temos que fazer a regressão 7.10.6 e obter os betas, as variâncias dos betas e a
covariância dos betas.
. gen x2=x^2
. gen x3=x^3
. reg y x x2 x3
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049
x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497
x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214
_cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665
------------------------------------------------------------------------------
mat a = e(V)
mat list a
symmetric a[4,4]
x x2 x3 _cons
x 22.835081
x2 -4.6113834 .97153464
x3 .26585324 -.05764229 .00349347
_cons -28.475292 5.3953186 -.29973992 40.644733
Observe que a diagonal principal da matriz é a variância dos betas e o restante as covariâncias.
Desse modo basta pegar os valores e substituir na formula do teste t de igualdade de coeficiente. Ou
fazer o teste diretamente no Stata. O comando é:
test x2=x3
( 1) x2 - x3 = 0
F( 1, 6) = 177.23
Prob > F = 0.0000
Como o valor da probabilidade é igual a zero, isso nos leva a rejeitar a hipótese nula de
igualdade entre os coeficiente de x2 e x3. Observe que o valor F é igual a t^2.
Esse teste é para escolha entre duas regressões: uma com restrição (8.7.24) e outra
irrestrita(8.7.23). observe que a equação com restrição é igual a equação sem restrição quando os
coeficiente de lnx4 e lnx5 são iguais a zero. Desse modo basta fazer um teste que nos diga se lnx4 e lnx5
é igual a zero. Se for igual a zero é óbvio que o modelo restrito é melhor e se for diferente de zero o
modelo irrestrito é melhor.
. gen lny=ln(y)
. gen lnx2=ln(x2)
. gen lnx3=ln(x3)
. gen lnx4=ln(x4)
. gen lnx5=ln(x5)
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | .3425546 .0832663 4.11 0.001 .1676186 .5174907
lnx3 | -.5045934 .1108943 -4.55 0.000 -.7375737 -.2716132
lnx4 | .1485461 .0996726 1.49 0.153 -.0608583 .3579505
lnx5 | .0911056 .1007164 0.90 0.378 -.1204917 .302703
_cons | 2.189793 .1557149 14.06 0.000 1.862648 2.516938
------------------------------------------------------------------------------
Agora, fazemos o teste para verificar se o coeficiente de lnx4 e lnx5 é igual a zero.
A hipótese nula é:
H0: beta de lnx4= beta de lnx5=0
test lnx4=lnx5=0
( 1) lnx4 - lnx5 = 0
( 2) lnx4 = 0
F( 2, 18) = 1.14
Prob > F = 0.3421
O valo F=1.12, com probabilidade 0.3421, nos leva a não rejeitar a hipótese H0. Ou seja, os
coeficientes de lnx4 e lnx5 são iguais a zero. Desse modo o modelo no qual essas variáveis são excluídas
é melhor (regressão 8.7.24).
TESTE MWD
Etapas:
reg y x2 x3
Para obter os valores do y estimado, o comando é semelhante ao que usamos para obter
os resíduos, a diferença é que no lugar de r que acrescentamos depois da virgula, colocamos xb
depois da virgula.
No Stata:
. predict yf, xb
Observe na planilha do Stata foi criada uma nova coluna com o nome yf (que pode ser
qualquer outro nome) dos y estimados.
II. Estimação do modelo log-log e obtenção dos valores estimados de
LnY (lnf).
gen lny=ln(y)
gen lnx2=ln(x2)
gen lnx3=ln(x3)
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | -1.760718 .298206 -5.90 0.000 -2.404953 -1.116484
lnx3 | 1.33978 .5273242 2.54 0.025 .2005655 2.478995
_cons | 9.227759 .5683903 16.23 0.000 7.999826 10.45569
------------------------------------------------------------------------------
predict lnf, xb
observe novamente que foi criada uma nova coluna na planilha do Stata
para os lny estimados.
Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No
Stata:
. reg y x2 x3 z1
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | -3783.062 597.286 -6.33 0.000 -5084.437 -2481.688
x3 | 2817.715 993.3304 2.84 0.015 653.4343 4981.996
z1 | 85.27798 4116.827 0.02 0.984 -8884.518 9055.074
_cons | 9727.57 3023.018 3.22 0.007 3140.978 16314.16
------------------------------------------------------------------------------
gen antilnf=exp(lnf)
onde antilnf é o nome da variável que vamos criar, pode ser qualquer outro. E
o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da
variável lnf.
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx2 | -1.969905 .3068873 -6.42 0.000 -2.638555 -1.301254
lnx3 | 1.589154 .5171554 3.07 0.010 .4623696 2.715939
z2 | -.0001294 .0000779 -1.66 0.123 -.0002991 .0000403
_cons | 9.148609 .5355542 17.08 0.000 7.981736 10.31548
------------------------------------------------------------------------------
reg y d2 d3
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | -1734.473 1435.953 -1.21 0.233 -4621.649 1152.704
d3 | -3264.615 1499.155 -2.18 0.034 -6278.868 -250.3625
_cons | 26158.62 1128.523 23.18 0.000 23889.57 28427.66
------------------------------------------------------------------------------
reg y d2 d3 x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | -1673.514 801.1703 -2.09 0.042 -3285.261 -61.76764
d3 | -1144.157 861.1182 -1.33 0.190 -2876.503 588.1896
x | 3.288848 .3176425 10.35 0.000 2.649834 3.927862
_cons | 13269.11 1395.056 9.51 0.000 10462.62 16075.6
------------------------------------------------------------------------------
gen dx=d*x
reg y d x dx
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d | 152.4786 33.08237 4.61 0.000 83.86992 221.0872
x | .0803319 .0144968 5.54 0.000 .0502673 .1103964
dx | -.0654694 .0159824 -4.10 0.000 -.098615 -.0323239
_cons | 1.016115 20.16483 0.05 0.960 -40.80319 42.83542
------------------------------------------------------------------------------
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d1 | 1222.125 59.99041 20.37 0.000 1099.24 1345.01
d2 | 1467.5 59.99041 24.46 0.000 1344.615 1590.385
d3 | 1569.75 59.99041 26.17 0.000 1446.865 1692.635
d4 | 1160 59.99041 19.34 0.000 1037.115 1282.885
------------------------------------------------------------------------------
Observe que no modelo sem intercepto o R2 é o R2 bruto, para modelo que passa pela origem e
que não pode ser comparado com o R2 de modelos com intercepto.
reg y d2 d3 d4
Source | SS df MS Number of obs = 32
-------------+------------------------------ F( 3, 28) = 10.60
Model | 915635.844 3 305211.948 Prob > F = 0.0001
Residual | 806142.375 28 28790.7991 R-squared = 0.5318
-------------+------------------------------ Adj R-squared = 0.4816
Total | 1721778.22 31 55541.2329 Root MSE = 169.68
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
d2 | 245.375 84.83926 2.89 0.007 71.58966 419.1603
d3 | 347.625 84.83926 4.10 0.000 173.8397 521.4103
d4 | -62.125 84.83926 -0.73 0.470 -235.9103 111.6603
_cons | 1222.125 59.99041 20.37 0.000 1099.24 1345.01
------------------------------------------------------------------------------
Estimação da regressão 9.8.4 com os dados da tabela 9.6
Primeiro temos que gerar (Xi – Xi*). Sabendo que Xi*=5.500. No stata:
gen x2=x-5500
onde x2 é o nome da nova variável que representa essa diferença. Agora temos que gerar a
variável (Xi – Xi*)Di=x2*Di. No Stata, tem-se:
gen x2d=x2*d
reg y x x2d
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .2791258 .0460081 6.07 0.001 .1703338 .3879177
x2d | .0945 .0825524 1.14 0.290 -.1007054 .2897054
_cons | -145.7167 176.7341 -0.82 0.437 -563.6265 272.1932
------------------------------------------------------------------------------
MULTICOLINEARIDADE.
Com base nos dados da tabela 10.7 fizemos uma rotina para detecção de multicolinearidade em um
modelo de regressão linear.
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | -2.051082 8.70974 -0.24 0.820 -22.13578 18.03361
x2 | -.0273342 .0331748 -0.82 0.434 -.1038355 .0491671
x3 | -1.952293 .4767006 -4.10 0.003 -3.051567 -.8530199
x4 | -.9582393 .2162271 -4.43 0.002 -1.45686 -.4596187
x5 | .0513397 .233968 0.22 0.832 -.4881915 .5908709
x6 | 1585.156 482.6832 3.28 0.011 472.086 2698.225
_cons | 67271.28 23237.42 2.89 0.020 13685.68 120856.9
------------------------------------------------------------------------------
2. Altas correlações entre pares de regressores. Outra regra pratica que se sugere é
que, se os coeficientes de correlação entre dois regressores forem altos, digamos, maiores que 0.8, então,
a multicolinearidade é um problema sério.
. corr x1 x2 x3 x4 x5 x6
(obs=16)
| x1 x2 x3 x4 x5 x6
-------------+------------------------------------------------------
x1 | 1.0000
x2 | 0.9916 1.0000
x3 | 0.6206 0.6043 1.0000
x4 | 0.4647 0.4464 -0.1774 1.0000
x5 | 0.9792 0.9911 0.6866 0.3644 1.0000
x6 | 0.9911 0.9953 0.6683 0.4172 0.9940 1.0000
reg x1 x2 x3 x4 x5 x6
------------------------------------------------------------------------------
x1 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | .0025613 .0009484 2.70 0.022 .0004481 .0046746
x3 | .0319216 .0151299 2.11 0.061 -.00179 .0656331
x4 | .008802 .0074785 1.18 0.266 -.0078611 .0254651
x5 | -.0175496 .006331 -2.77 0.020 -.0316561 -.0034432
x6 | -9.992189 16.66535 -0.60 0.562 -47.12491 27.14054
_cons | 2044.583 533.3698 3.83 0.003 856.1613 3233.005
------------------------------------------------------------------------------
------------------------------------------------------------------------------
x2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x3 | -13.7898 1.500185 -9.19 0.000 -17.13242 -10.44718
x4 | -2.998116 1.787322 -1.68 0.124 -6.980518 .9842857
x5 | 5.62436 1.180367 4.76 0.001 2.994339 8.254381
x6 | 10902.88 2570.756 4.24 0.002 5174.877 16630.88
x1 | 164.6571 60.96993 2.70 0.022 28.80766 300.5066
_cons | -480986 148413.8 -3.24 0.009 -811672.6 -150299.5
------------------------------------------------------------------------------
Com base na saída do Stata para segunda regressão auxiliar, já podemos concluir, pela
regra pratica de Klien que a multicolinearidade esta presente, pois o R2 dessa regressão é maior
que o da regressão principal (0.9992>0.9926)
As outras regressões auxiliares são expressas por:
reg x3 x4 x5 x6 x1 x2
------------------------------------------------------------------------------
x3 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x4 | -.2713815 .1090108 -2.49 0.032 -.5142727 -.0284903
x5 | .350986 .0954316 3.68 0.004 .138351 .5636209
x6 | 768.5517 167.0507 4.60 0.001 396.3396 1140.764
x1 | 9.649428 4.573555 2.11 0.061 -.5410873 19.83994
x2 | -.0648431 .0070542 -9.19 0.000 -.0805609 -.0491253
_cons | -28518.24 11446.89 -2.49 0.032 -54023.49 -3012.989
------------------------------------------------------------------------------
reg x4 x5 x6 x1 x2 x3
------------------------------------------------------------------------------
x4 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x5 | .1993171 .3276332 0.61 0.557 -.5306952 .9293294
x6 | 1167.779 561.677 2.08 0.064 -83.71492 2419.274
x1 | 13.82322 11.74472 1.18 0.266 -12.34565 39.99208
x2 | -.0732429 .0436636 -1.68 0.124 -.1705314 .0240457
x3 | -1.40991 .5663444 -2.49 0.032 -2.671804 -.1480157
_cons | -11881.24 33002.42 -0.36 0.726 -85415.22 61652.74
------------------------------------------------------------------------------
reg x5 x6 x1 x2 x3 x4
Source | SS df MS Number of obs = 16
-------------+------------------------------ F( 5, 10) = 796.30
Model | 723991849 5 144798370 Prob > F = 0.0000
Residual | 1818385.01 10 181838.501 R-squared = 0.9975
-------------+------------------------------ Adj R-squared = 0.9962
Total | 725810234 15 48387348.9 Root MSE = 426.43
------------------------------------------------------------------------------
x5 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x6 | -782.0409 587.1614 -1.33 0.212 -2090.318 526.2363
x1 | -24.75928 8.931925 -2.77 0.020 -44.66084 -4.857707
x2 | .123433 .0259045 4.76 0.001 .0657142 .1811519
x3 | 1.638107 .4453946 3.68 0.004 .6457062 2.630508
x4 | .1790548 .2943265 0.61 0.557 -.4767455 .8348551
_cons | 95694.37 8682.033 11.02 0.000 76349.59 115039.1
------------------------------------------------------------------------------
reg x6 x1 x2 x3 x4 x5
O comando no Stata é vif, porém se digitarmos esse comando no Stata agora, ele vai calcular o
FIV na última equação estimada no programa, assim é recomendável que estime a equação
principal novamente. Se você não quiser ver as saídas da regressão, para economizar espaço, ou
por não necessitar mais de usá-la basta digitar a palavra qui , antes de rodar o modelo no Stata:
reg y x1 x2 x3 x4 x5 x6
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | 1.506187 8.491493 0.18 0.863 -17.7029 20.71528
x2 | -.0358192 .033491 -1.07 0.313 -.1115811 .0399427
x3 | -2.02023 .4883997 -4.14 0.003 -3.125067 -.915393
x4 | -1.033227 .2142742 -4.82 0.001 -1.517949 -.548505
x5 | -.0511041 .2260732 -0.23 0.826 -.5625172 .460309
x6 | 1829.151 455.4785 4.02 0.003 798.7875 2859.515
_cons | 77270.12 22506.71 3.43 0.007 26356.41 128183.8
------------------------------------------------------------------------------
Ou simplesmente:
qui reg y x1 x2 x3 x4 x5 x6
Desse modo podemos digitar o comando para o calculo do FIV, e esse será calculado com base na
equação acima, a última equação rodada pelo programa.
vif
Como podemos verificar na saída do Stata, praticamente todos os FIV são maiores que 10,
indicando a presença de multicolinearidade.
HETEROCEDASTICIDADE
Teste de Park
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .2329993 .0998528 2.33 0.052 -.0031151 .4691137
_cons | 1992.062 936.6123 2.13 0.071 -222.6741 4206.798
------------------------------------------------------------------------------
predict u, r
gen u2=u^2
------------------------------------------------------------------------------
lnu2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | -2.802023 4.196131 -0.67 0.526 -12.7243 7.12025
_cons | 35.82686 38.3227 0.93 0.381 -54.79192 126.4456
------------------------------------------------------------------------------
H0: Homocedástico
Se o beta 2 for estatisticamente significativo, podemos rejeitar a hipótese nula, e considerar que a
heterocedasticidade está presente nos dados. No nosso exemplo o valor da probabilidade não foi
significativo, assim não rejeitamos a hipótese nula de variância constante nos erros.
Teste de Glejser
Exemplo 11.2
Esse exemplo é uma continuação do exemplo anterior. Como já temos os resíduos da equação
anterior, o teste de Glejser trabalhar com os resíduos em valor absoluto. Assim vamos gerar os resíduos
em valor absoluto usando o Stata:
------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | -.0203497 .0675047 -0.30 0.772 -.179973 .1392736
_cons | 407.476 633.1895 0.64 0.540 -1089.779 1904.731
------------------------------------------------------------------------------
E como o beta2 não foi estatisticamente significativo, não rejeitamos a hipótese nula, assim o
modelo é homocedástico.
Observe que o teste de Glejser recomenda que usemos outras formas funcionais para a variável
independente (o X).
Para isso é preciso primeiro que geremos tais variáveis. Para gerar a raiz quadrada de x, o
comando é:
gen sqrtx = sqrt(x)
ou simplesmente:
gen raizdex = x^0.5
onde o lado direito destas equações é a operação matemática que estamos realizando e o lado
esquerdo, o gen é o comando para gerar a variável, e sqrtx, raizdex são os nomes que escolhemos para
as variáveis.
gen inversox=1/x
Depois de gerada as variáveis podemos fazer o teste de Glejser paras essas formas funcionais.
------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
raizdex | -3.710843 13.3084 -0.28 0.788 -35.1802 27.75851
_cons | 575.4425 1284.251 0.45 0.668 -2461.328 3612.213
------------------------------------------------------------------------------
------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inversox | 1298256 6239224 0.21 0.841 -1.35e+07 1.61e+07
_cons | 76.65779 683.4301 0.11 0.914 -1539.398 1692.713
------------------------------------------------------------------------------
------------------------------------------------------------------------------
absu | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
inveraizdex | 29681 127938.8 0.23 0.823 -272846.2 332208.2
_cons | -91.18788 1334.823 -0.07 0.947 -3247.543 3065.167
------------------------------------------------------------------------------
Temos que ter atenção para o fato de que, se pelo menos uma equações estimadas para o teste de
Glejser apresentar heterocedasticidade, o modelo é heterocedástico.
Teste Breusch-Pagan-Godfrey (BPG)
Esse teste já bem incluso na rotina do Stata. Para sua realização basta, depois de estimar a
regressão, digitar o comando hettest.
O exemplo 11.5 com base nos dados da tabela 11.3 faz o teste BPG. No Stata para esse exemplo
tem-se:
. reg y x
Source | SS df MS Number of obs = 30
-------------+------------------------------ F( 1, 28) = 496.72
Model | 41886.7134 1 41886.7134 Prob > F = 0.0000
Residual | 2361.15325 28 84.3269018 R-squared = 0.9466
-------------+------------------------------ Adj R-squared = 0.9447
Total | 44247.8667 29 1525.78851 Root MSE = 9.183
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6377846 .0286167 22.29 0.000 .579166 .6964031
_cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632
------------------------------------------------------------------------------
hettest
chi2(1) = 5.21
Prob > chi2 = 0.0224
A hipótese nula desse teste, assim com o teste de Park e de Glejser é que os erros tem variância
constante: H0: homocedasticidade.
Teste de White
O teste de White, assim como o teste BPG já tem uma rotina no Stata, basta digitar o comando
whitetst depois de estimar a regressão.
Como no Gujarati o exemplo 11.6 não tem dados no livro, vamos usar a mesma regressão que
usamos no teste BPG. Que é dada por:
qui reg y x
o comando acima estima a regressão sem mostrar a saída no Stata, fizemos isso pois o teste é
baseado na é pega a ultima equação que o Stata estimou. Agora podemos fazer o teste de White:
whitetst
A saída do Stata, indica que valor observado de qui-quadrado, 5.33 é significativo ao nível de 1%,
assim a hipótese nula de homocedasticidade é rejeitada.
A hipótese nula deste teste é que β2 da regressão auxiliar (resíduos estimados ao quadrado contra
Y estimado ao quadrado), seja estatisticamente igual a zero. Se ela não for rejeitada, podemos concluir
que não há heterocedasticidade. A hipótese nula pode ser testada pelo teste t ou F.
Com base nos dados da tabela 11.3 vamos fazer o procedimento do teste KB.
reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6377846 .0286167 22.29 0.000 .579166 .6964031
_cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632
------------------------------------------------------------------------------
O primeiro comando digitado gerou a série de y estimado, cujo nome é yest, que poderia ser
qualquer outro. O segundo comando é foi para gerar a serie de resíduos, cujo nome é u.
gen yest2=yest^2
gen u2=u^2
Por fim estimamos a regressão dos residuos estimados ao quadrado contra os y estimados ao
quadrado:
. reg u2 yest2
Antes de estimarmos as regressões temos que lembrar que o problema da autocorrelação, envolve
um horizonte temporal, sendo assim é necessário declarara no Stata que estamos trabalhando com dados
de serie temporal. O comando é:
. tsset ano
time variable: ano, 1959 to 1998
delta: 1 unit
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .7136594 .0241048 29.61 0.000 .6648619 .7624569
_cons | 29.51926 1.942346 15.20 0.000 25.58718 33.45133
------------------------------------------------------------------------------
Na saída acima temos os betas, os erros-padrão, o R2 e a variância dos termos de erro. Para
obtermos o valor da estatística de Durbin-Watson, o comando é:
. estat dwatson
gen lny=ln(y)
gen lnx=ln(x)
------------------------------------------------------------------------------
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnx | .6716951 .0175426 38.29 0.000 .6361819 .7072083
_cons | 1.523953 .0762181 19.99 0.000 1.369657 1.678248
------------------------------------------------------------------------------
estat dwatson
Durbin-Watson d-statistic( 2, 40) = .1542317
Observe que o comando para obter a estatistica DW é estat dwatson e ele sempre calcula o valor
DW da última regressão na memoria do Stata.
A ilustração deste teste está na página 382 e é feita com base no exercício 12.25, utilizando os
dados da tabela 12.4, e a regressão principal 12.5.1:
. reg y x
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .7136594 .0241048 29.61 0.000 .6648619 .7624569
_cons | 29.51926 1.942346 15.20 0.000 25.58718 33.45133
Como no Stata existe um comando para execução do teste BG, vamos apenas executar o teste sem
seguir toda a rotina apresentada no livro. Porém existe a dificuldade da escolha do número de defasagem
ideal. Desse modo vamos fazer o teste até a sexta defasagem.
MODELO LOGIT
DADOS INDIVIDUAIS.
Os comandos para estimação do modelo logit são bastante simples. Por exemplo para estimar a
regressão 15.8.1 com os dados da tabela 15.7, cujos resultados se encontram na tabela 15.8, basta
digitar a palavra logit seguido pelas variáveis, a primeira será a variável dependente, seguida
pelas demais variáveis do modelo, assim:
------------------------------------------------------------------------------
grade | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432
tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988
psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195
_cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613
------------------------------------------------------------------------------
Se quisermos podemos omitir as iterações que aparecem na saída do Stata, basta digitar a palavra
nolog do comando acima.
------------------------------------------------------------------------------
grade | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432
tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988
psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195
_cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613
------------------------------------------------------------------------------
Interpretação.
. list logit
+-----------+
| logit |
|-----------|
1. | -3.600734 |
2. | -2.760413 |
3. | -1.467914 |
4. | -3.627206 |
5. | .2814147 |
|-----------|
6. | -3.320985 |
7. | -3.603596 |
8. | -2.912093 |
9. | -2.079284 |
10. | .8165872 |
|-----------|
11. | -3.685518 |
12. | -1.450027 |
13. | -.7434988 |
14. | -1.429278 |
15. | -.5710702 |
|-----------|
16. | -3.469803 |
17. | -2.870596 |
18. | -3.215453 |
19. | .363438 |
20. | .6667984 |
|-----------|
21. | -2.727399 |
22. | 2.252283 |
23. | -1.142986 |
24. | 1.751095 |
25. | 1.645563 |
|-----------|
26. | -.075504 |
27. | .5555431 |
28. | -.8131546 |
29. | 1.670963 |
30. | 2.850418 |
|-----------|
31. | .1166004 |
32. | -2.080255 |
+-----------+
Onde a palavra logit no comando acima poderia ser qualquer outra que fosse de nosso interesse
para nomear a serie dos logit estimado.
. estat class
estat gof - testa a hipótese nula de que o número de respostas observadas é igual ao número
estimado. Se a hipótese nula é rejeitada o modelo não se ajusta bem; se não é rejeitada o modelo
apresenta bom ajuste.
. estat gof
number of observations = 32
number of covariate patterns = 32
Pearson chi2(28) = 27.26
Prob > chi2 = 0.5043
O resultado para o modelo da tabela 15.8 indica que não podemos rejeitar a hipótese nula de que o
número de respostas observada é igual estimado.
fitstat - fornece uma série de medidas de ajuste. Entre elas tem-se o R2 de McFadden, Count R2 e o
critério de Akaike.
. fitstat
Uma interpretação que faz mais sentido se dá em termos das chances, que são obtidas tomando-
se o antilogaritmo dos vários coeficientes angulares. Assim, se tomarmos o antilogaritmo do
coeficiente PSI de 2,3786, obteremos 10,7897 (=e^2,3786). Isso sugere que estudantes que são
submetidos ao novo método de ensino têm dez vezes mais chances de obter um A do que os
estudantes que não são submetidos a ele, tudo o mais mantido constante. O valor do GPA de
16.87 nos diz que um aumento de uma unidade no GPA faz que com que o indivíduo tenha 16x
mais chances de passar com A.
------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------
------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------
------------------------------------------------------------------------------
grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239
tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502
psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802
------------------------------------------------------------------------------
Observe que excluímos do comando o or (odds ratio) e no lugar de logit colocamos logistic. O
nolog como de praxy é para omitir as iterações.
A Probabildade De Ocorrer Y
Para obter a probabilidade de ocorre Y, tem-se o comando prvalue, que calcula a probabilidade
de ocorrência de Y no ponto médio da amostra:
. prvalue
Observe que essa probabilidade foi obtida no ponto médio da amostra. Isso pode ser confirmado
pode comando sum, que nos mostra a média das variáveis:
. sum
Observe que foi criada uma nova coluna na planilha do Stata com as probabilidades de cada
observação.
predict probabilidade, p
. list probabilidade
+----------+
| probab~e |
|----------|
1. | .026578 |
2. | .0595013 |
3. | .1872599 |
4. | .0259016 |
5. | .569893 |
|----------|
6. | .0348582 |
7. | .026504 |
8. | .051559 |
9. | .1111266 |
10. | .6935114 |
|----------|
11. | .0244704 |
12. | .1899974 |
13. | .3222395 |
14. | .1932112 |
15. | .3609899 |
|----------|
16. | .0301837 |
17. | .0536264 |
18. | .0385883 |
19. | .5898724 |
20. | .6607859 |
|----------|
21. | .0613758 |
22. | .9048473 |
23. | .2417725 |
24. | .8520909 |
25. | .8382905 |
|----------|
26. | .481133 |
27. | .6354207 |
28. | .3072187 |
29. | .8417042 |
30. | .9453403 |
|----------|
31. | .5291171 |
32. | .1110308 |
+----------+
mfx
Para variáveis binárias o efeito marginal é a mudança em P(Y=1) quando Dj passa de 0 para 1.
O fato do estudante ter sido submetido ao novo método de ensino (PSI) aumenta a probabilidade
do mesmo obter A aumentada em 45.64(0.4562*100) pontos percentuais, ceteris paribus.
Para esse estudante com gpa=3.92, tuce=29, psi=0, como já sabemos, sua probabilidade de
passar com A é 69.35%. Para esse estudante um aumento na GPA (coeficiente de rendimento
acumulado) em uma unidade aumenta a sua probabilidade de passar com A em 60.06 pontos
percentuais, ceteris paribus.
Para esse mesmo aluno, o aumento de uma unidade na TUCE (nota da prova do inicio do
período) eleva a probabilidade dele passar com A em 2.02 pontos percentuais, ceteris paribus.
O valor do PSI significa que se ele tivesse feito o PSI (tutoria, por exemplo) a probabilidade dele
passar com A aumentaria em 26.71 pontos percentuais, ceteris paribus.
O valor do PSI, aumentando em 26.71 pontos percentuais, pelo fato do aluno ter feito a tutoria
pode ser visualizado por:
Observe a probabilidade de passer com A de 96.06 quando este aluno faz a tutorial. E a
probabilidade de 69.35 de passar com A quando ele não faz a tutoria. Assim podemos concluir
que o fato deste aluno ter feito a tutoria aumenta a probabilidade dele passar com A em 26.71
(=96.06-69.35) pontos percentuais, ceteris paribus.
MODELO PROBIT
Estimação.
. gen x22=x2^2
. gen lnx3=ln(x3)
Efeito Marginal (EM). A interpretação dos coeficientes é feita através da análise dos efeitos
marginais juntamente com os sinais. O cálculo do efeito marginal no modelo probit é:
. mfx
Para variáveis binárias o efeito marginal é a mudança em P(Y=1) quando Dj passa de 0 para 1.
O efeito marginal de X1 deve ser calculado pela diferença de probabilidade dada por:
. mfx, at(x1=1)
. mfx, at(x1=0)
1º) Calcular as médias das todas variáveis dependentes e salvar num escalar;
. su x1
x1 30 .5666667 .5040069 0 1
. scalar mx1=r(mean)
. su x2
x2 30 41.33333 12.48263 21 67
. su x22
. su x3
x3 30 11.83333 2.229633 7 16
. su lnx3
2º) Usar o comando nlcom com a função normalden que calcula valores da densidade normal
padrão, para calcular os efeitos marginais das variáveis.
nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]
+2*_b[x22]*mx2))
. nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2))
_nl_1: normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2)
_nl_1: normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[lnx3]/mx3)
estat class
. estat class
True
Classified D ~D Total
+ 16 2 18
- 2 10 12
Total 18 12 30
Para valores de Y=1, o modelo previu corretamente 88,89% das observações. Para valores de
Y=0, o modelo previu corretamente 83,33% das obs. De modo geral, o modelo previu
corretamente 86,67% , isto é, 26 das 30 observações.
Qualidade de ajustamento.
estat gof - testa a hipótese nula de que o número de respostas observadas é igual ao número
estimado. Se a hipótese nula é rejeitada o modelo não se ajusta bem; se não é rejeitada o modelo
apresenta bom ajuste.
. estat gof
number of observations = 30
number of covariate patterns = 30
Pearson chi2(25) = 45.44
Prob > chi2 = 0.0075
Summarize: aparecerá uma tabela com o número de observações, a média, o desvio-padrão, o mínimo e
o máximo de cada variável.
Summarize [variável], detail: além das medidas que aparece no comando summarize, neste comando
aparece outras medidas estatísticas, como a variância, a simetria, e a kurtosi.
correlate [variável 1] [variável 2] [variável n]: o commando corralate, ou simplesmente corr, é usado
para obter a matriz de correlação entre as variáveis.
drop if [variável] == [restrição]: dada a restrição para uma variável, podemos excluir a observação desta
variável pelo comado drop. Por exemplo se quisermos excluir a observação onde o valor da variável renda é
350113, o comando é drop if renda == 350113
keep if [variável] == [restrição]: o comando keep faz o oposto do comando drop. Ele seleciona as
observações que queremos através de uma restrição imposta. Por exemplo, quando estamos extraindo dados
da PNAD, se tivermos interessado ao selecionar as observações de apenas uma unidade da federação, basta
selecionar o numero relacionado a ela. Assim, keep if uf == 13.
reg ou regress: É o commando para rodar a regressão, não esquecendo que a variável dependente vem
primeiro.
l1.[variável]: o l1 antes da variável significa que estamos trabalhando com sua primeira defasagem, se
fosse l2 antes da variável seria sua segunda defasagem, e assim sucessivamente.
d1. [variável]: o d1 antes da variável significa que estamos trabalhando com a primeira diferença da
varável.
Rename [variável] [novo nome da variável]: o comando rename, renomeia a variável, por exemplo se o
nome da variável for renda e você deseja mudar para salario, o comando é rename renda salario.
Continua...