Você está na página 1de 167

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/330635309

Exercícios Introdutórios de Análise Económica de Dados

Book · January 2019

CITATIONS READS

0 51

4 authors:

José Alberto Fuinhas Matheus Belucio


University of Coimbra Universidade da Beira Interior
117 PUBLICATIONS   725 CITATIONS    2 PUBLICATIONS   0 CITATIONS   

SEE PROFILE SEE PROFILE

Renato Santiago Tiago Lopes Afonso


Universidade da Beira Interior Universidade da Beira Interior
4 PUBLICATIONS   0 CITATIONS    6 PUBLICATIONS   12 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Globalization and the paradigm of renewable energy transition in the Latin American and the Caribbean (LAC) countries View project

The extended Energy-Growth Nexus: Theory and Empirical Apllications View project

All content following this page was uploaded by José Alberto Fuinhas on 29 January 2019.

The user has requested enhancement of the downloaded file.


José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso
Editor: UBI – Universidade da Beira Interior
ISBN: 978-989-654-535-2
Título: Exercícios Introdutórios de Análise Económica de Dados
Autor: José Alberto Fuinhas
Co-autores: Matheus Belucio, Renato Santiago, Tiago Afonso
Capa: Rebecca Gehrke
Suporte: Eletrónico
Formato: PDF / PDF/A
Ano: 2019
Prefácio
Este projeto possui o intuito de auxiliar no estudo da Análise Económica de Dados. É
indicado para novos alunos que não tenham uma sólida base prévia de conceitos econométricos,
bem como dos programas aqui utilizados.
Segue uma estrutura simples, dividida conforme os pontos de referência. O material
indicará como se obtém variáveis em três bases de dados distintas, como tratar os dados em
Excel e também dará noções práticas de dois programas comuns à análise econométrica
(EViews 10+ e STATA 15).
Espera-se que, no final do estudo, o aluno seja capaz de realizar testes elementares e
considere-se plenamente apto à utilização instrumental dos programas aqui abordados.
Por meio desta nota faz-se saber os nossos mais sinceros agradecimentos a Catarina
Martins, Filipe Pinto, Joana Leal, Joana Mota, Márcio Martinho e Victor Sá, foi notório o seu
esforço para viabilizarem a execução deste material pedagógico.
Este caderno apresenta aspetos que foram baseados no livro “Applied Econometrics” de
Dimitrios Asteriou e Stephen G. Hall (2011) e em exemplos do “EViews 10 User’s Guide” e
do “Stata Users’s Guide Release 15”.
Exercícios Introdutórios de Análise Económica de Dados

Índice
1. Introdução ...................................................................................................................................... 1
PARTE 1 ................................................................................................................................................ 3
2. Obtenção de variáveis em bases de dados ................................................................................... 4
2.1. AM ECO................................................................................................................................. 4
2.2. World Bank – World Development indicators (WDI) ....................................................... 4
2.3. Pordata ................................................................................................................................... 5
3. Tratamento dos dados em Excel ................................................................................................... 6
3.1. Ativar/desativar suplementos ............................................................................................... 6
3.2. Modificar os separadores do sistema: decimal e de milhares ............................................ 6
3.3. Realizar operações aritméticas............................................................................................. 7
3.4. Realizar operações com matrizes ......................................................................................... 8
3.5. Representação gráfica de dados ........................................................................................... 9
3.6. Representar uma linha de regressão num gráfico .............................................................. 9
3.7. Alterar o ano base do deflator ............................................................................................ 10
3.8. Calcular taxas de crescimento simples e logarítmicas ..................................................... 11
4. EViews .......................................................................................................................................... 13
4.1. Criar um Workfile............................................................................................................... 13
4.2. Importar dados de ficheiros em formato Excel ................................................................ 14
4.3. Instalar add ins..................................................................................................................... 17
4.4. Converter variáveis para logaritmos ................................................................................. 17
4.5. Calcular as primeiras diferenças de variáveis .................................................................. 18
4.6. Criar uma variável tendência ............................................................................................. 19
4.7. Criar e executar operações num ficheiro “program’’...................................................... 20
4.8. Representar variáveis graficamente .................................................................................. 20
4.9. Apresentar as estatísticas descritivas das variáveis.......................................................... 22
4.10. Apresentar a matriz de correlações ................................................................................... 22
4.11. Efetuar regressões múltiplas OLS ..................................................................................... 23
4.12. Interpretação dos coeficientes das regressões ................................................................... 25
4.13. Interpretação da qualidade do ajustamento ..................................................................... 29
4.14. Representar graficamente os resíduos das regressões...................................................... 29
4.15. Dummies............................................................................................................................... 31
4.16. Interpretar os coeficientes das variáveis dummies ........................................................... 33
4.17. Regressão stepwise (backward e forward) ........................................................................ 34
4.18. Testes de autocorrelação ..................................................................................................... 35

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso i


Exercícios Introdutórios de Análise Económica de Dados

4.19. Testes de heterocedasticidade............................................................................................. 44


4.20. Testes à multicolinearidade ................................................................................................ 49
4.21. Testes de hipóteses ............................................................................................................... 52
4.22. Teste de normalidade dos resíduos .................................................................................... 53
4.23. Testes de especificação do modelo...................................................................................... 54
4.24. Teste “omitted variable bias” ............................................................................................. 57
4.25. Procedimento de Mizon e Richard..................................................................................... 58
4.26. Procedimento de Davidson e MacKinnon ......................................................................... 59
4.27. Chow-break test................................................................................................................... 60
4.28. Exportar dados para formato Excel .................................................................................. 61
5. STATA .......................................................................................................................................... 62
5.1. Importar dados em formato Excel ..................................................................................... 62
5.2. Criar um ficheiro “do”........................................................................................................ 63
5.3. Formatar dados para as regressões time series ................................................................ 64
5.4. Utilizar o “help”................................................................................................................... 65
5.5. Procurar e instalar um “command” .................................................................................. 66
5.6. Efetuar operações aritméticas ............................................................................................ 67
5.7. Calcular logaritmos ............................................................................................................. 68
5.8. Criar uma variável tendência ............................................................................................. 68
5.9. Apresentar a matriz de correlações ................................................................................... 69
5.10. Matriz de correlações com teste de nível de significância ................................................ 70
5.11. Regressão múltipla OLS (pooled) ...................................................................................... 70
5.12. Executar uma regressão sem constante ............................................................................. 71
5.13. Representar graficamente os resíduos de uma regressão ................................................ 72
5.14. Dummies............................................................................................................................... 74
5.15. Obter os valores ajustados de uma variável e representá-los graficamente .................. 74
5.16. Executar um teste de multicolinearidade .......................................................................... 75
5.17. Testes de especificação de modelo ...................................................................................... 76
5.18. Exportar dados em formato Excel ..................................................................................... 77
6. Exercício prático .......................................................................................................................... 79
6.1. Questões................................................................................................................................ 79
6.2. Respostas .............................................................................................................................. 80
PARTE 2 .............................................................................................................................................. 85
7. Integração de variáveis................................................................................................................ 86
7.1. Análise gráfica ..................................................................................................................... 86
7.2. Correlogramas ..................................................................................................................... 87

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso ii


Exercícios Introdutórios de Análise Económica de Dados

7.3. Teste de Dickey–Fuller (DF) ............................................................................................... 88


7.4. Teste aumentado de Dickey–Fuller (ADF) ........................................................................ 89
7.5. Teste de Phillips–Perron (PP) ............................................................................................ 92
7.6. Teste de Kwiatkowski–Phillips–Schmidt–Shin (KPSS) ................................................... 96
8. Previsões: modelos ARMA/ARIMA/SARIMA ......................................................................... 98
8.1. Modelos autorregressivos (AR) e de média móvel (MA) ................................................. 98
8.2. Metodologia de Box–Jenkins ............................................................................................ 105
9. Modelos ARCH-GARCH .......................................................................................................... 108
9.1. Teste de efeitos ARCH ...................................................................................................... 108
9.2. Estimação ........................................................................................................................... 111
9.3. Modelo ARCH ................................................................................................................... 111
9.4. Modelo GARCH ................................................................................................................ 113
9.5. Testes de diagnóstico ......................................................................................................... 115
9.6. Modelo GARCH-M ........................................................................................................... 117
9.7. Modelo TGARCH.............................................................................................................. 118
9.8. Modelo EGARCH.............................................................................................................. 119
9.9. Outros modelos GARCH .................................................................................................. 120
10. Modelos VAR ......................................................................................................................... 124
10.1. Endogeneidade ................................................................................................................... 125
10.2. Causalidade ........................................................................................................................ 126
10.3. Estimação ........................................................................................................................... 126
10.4. Testes de diagnóstico ......................................................................................................... 127
10.5. Funções impulso resposta ................................................................................................. 130
10.6. Decomposição da variância .............................................................................................. 131
11. Modelos VEC ......................................................................................................................... 134
11.1. Cointegração e endogeneidade ......................................................................................... 134
11.2. Estimação ........................................................................................................................... 136
12. Modelos com dados de painel ............................................................................................... 138
12.1. Modelo de dados empilhados (pooled) ............................................................................. 139
12.2. Modelo de efeitos fixos ...................................................................................................... 143
12.3. Modelo de efeitos aleatórios.............................................................................................. 146
12.4. Testes de diagnóstico ......................................................................................................... 149
13. Referências ............................................................................................................................. 159

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso iii
Exercícios Introdutórios de Análise Económica de Dados

1. Introdução

O presente livro destina-se a alunos provenientes de outros sistemas de ensino e que tendo sido
admitidos ao mestrado em Economia na Universidade da Beira Interior precisam de, com a maior
brevidade possível, poderem estar a um nível de conhecimento de Econometria Aplicada básica que lhes
permita acompanhar as aulas da unidade curricular de Análise Económica de Dados. As dificuldades
não se ficam apenas pela unidade curricular de Análise Económica de Dados. Este livro também se
destina a alunos provenientes do 1º ciclo de estudos em Economia, onde estes podem fazer uma revisão
de práticas adquiridas anteriormente. A metodologia de estudo-aprendizagem na maioria das unidades
curriculares do mestrado “obriga” os alunos a desenvolverem trabalhos de investigação aplicada que
requerem já algum conhecimento no que toca à recolha e tratamento avançado dos dados. Também aqui
este pequeno livro de iniciação se pode revelar um elemento de estudo com algumas mais-valias para
os alunos.
Os alunos a quem se destina este livro encontram-se, regra geral, em diferentes níveis de formação
em métodos quantitativos e de domínio do conhecimento económico. O conhecimento e aplicação de
conceitos económicos revela-se imprescindível para a formulação de modelos económicos e para a sua
posterior reprodução econométrica. As dúvidas que se colocam para os alunos que começam
virtualmente do zero em Econometria são inúmeras. Questões tão simples como as que se seguem
poderão ser barreiras quase intransponíveis quando o tempo para as estudar escasseia. Afinal as variáveis
devem ser reais ou podem também ser nominais? Devem ser convertidas em valores per capita? E o ano
base a que se referem as variáveis é importante?
As questões não se ficam pelas variáveis, variáveis essas, muitas vezes insuficientemente
representativas dos conceitos económicos que lhes estão na base, mas também pela miríade de técnicas
econométricas que estão disponíveis e que não é nada óbvio quando devem (ou podem) ser aplicadas.
O livro encontra-se dividido em duas partes. Na primeira parte são tratados aspetos elementares
da obtenção de dados e do seu tratamento para poderem ser utilizados nos programas econométricos,
que aqui se cingem ao EViews e ao STATA. Os estudantes são, ainda, iniciados na estimação pelo
método dos mínimos quadrados, na interpretação dos resultados das estimações e ainda na realização de
um conjunto alargado de testes de diagnóstico que aferem a qualidade da regressão estimada. A geração
de variáveis mudas (dummies) e a sua utilização são também objeto de atenção. Na segunda parte são
abordadas algumas das técnicas econométricas mais utilizadas na investigação empírica. O objetivo aqui
é que os estudantes estejam alertados para as condições que têm de estar reunidas para que um
determinado modelo econométrico possa ser utilizado, que sejam capazes de dominar os passos básicos
da programação, e que consigam interpretar os resultados obtidos. A investigação empírica depara-se
com imensas limitações e a sua superação requer, para a maioria dos investigadores, algum tempo para
adquirir a experiência necessária. Procurou-se que o nível de exposição das técnicas seja suficiente para

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 1


Exercícios Introdutórios de Análise Económica de Dados

que a maioria dos estudantes possam ser autónomos no aprofundamento do estudo das particularidades
de cada técnica.
Os programas econométricos aqui utilizados são os que por razões históricas já se encontram
enraizados nos dois primeiros ciclos de estudos de Economia da Faculdade de Ciências Socias e
Humanas da UBI. Outros poderiam ter sido utilizados e provavelmente o serão num futuro próximo.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 2


PARTE 1

INICIAÇÃO E COMANDOS BÁSICOS


Exercícios Introdutórios de Análise Económica de Dados

2. Obtenção de variáveis em bases de dados


Esta seção tem como objetivo demonstrar ao aluno formas de obter variáveis em três bases de
dados escolhidas previamente: AMECO, WORLD BANK e PORDATA. Exemplos gráficos são
utilizados para facilitar a perceção de como selecionar e exportar os dados pretendidos.

2.1. AM ECO
Esta base de dados disponibiliza variáveis macroeconómicas da Comissão Europeia e possui
variáveis para países europeus. Para se chegar ao exemplo da Figura 2.1, seguem-se os seguintes passos:
Balanços com o resto do mundo > estatísticas Bop > Current account balance, balance of
payments statistics
http://ec.europa.eu/economy_finance/ameco/user/serie/SelectSerie.cfm

Figura 2.1 – AMECO database

Na AMECO é possível encontrar dados com frequência anual referentes à população, consumo,
comércio, entre outras variáveis de interesse económico.

2.2. World Bank – World Development indicators (WDI)


Na base de dados do Banco Mundial pode escolher-se a(s) variável(is) desejada(s) para um(ns)
determinado(s) país(es), num determinado período de tempo, até um máximo de 50 anos.
http://databank.worldbank.org/data/reports.aspx?source=world-development-indicators

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 4


Exercícios Introdutórios de Análise Económica de Dados

Figura 2.2 – World Bank

Esta base de dados disponibiliza variáveis de países do mundo todo.

2.3. Pordata
Esta base de dados disponibiliza variáveis com foco em Portugal e também para a União Europeia,
embora com menos detalhe. A Portada tem como temas principais: população, educação, saúde,
proteção social, condições de vida e rendimento das famílias, justiça e segurança, emprego e mercado
de trabalho, empresas e pessoal, macroeconomia, ciência, tecnologia e sociedade de informação,
ambiente, energia e território, turismo e transportes.
https://www.pordata.pt/Europa

Figura 2.3 – Pordata

Na Pordata, assim como no World Bank, é possível escolher o(s) país(es), variável(is) e o tempo.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 5


Exercícios Introdutórios de Análise Económica de Dados

3. Tratamento dos dados em Excel


Espera-se que, até ao final desta secção, o aluno seja capaz de realizar tarefas básicas no Excel
(como realizar operações, esboçar gráficos, etc.). Estes conhecimentos serão fundamentais para a
utilização das ferramentas de análise que serão apresentadas posteriormente.

3.1. Ativar/desativar suplementos


Para ativar/desativar suplementos, é necessário seguir o caminho Ficheiro → opções →
suplemento s→ gerir → suplementos do Excel → ir (ver imagem). Realizados estes passos, irá aparecer
uma nova janela com os suplementos disponíveis para ativar.

Figura 3.1 - Suplementos

Os suplementos são ferramentas do Office, que não foram previamente instaladas por terem
funções bastante específicas, como por exemplo, fazer a conversão de quase qualquer moeda para o
Euro e vice-versa.

3.2. Modificar os separadores do sistema: decimal e de milhares


Para modificar os separadores do sistema, deve seguir-se o caminho: Ficheiro → opções →
avançadas e alterar na parte destacada, como mostra a Figura 3.2.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 6


Exercícios Introdutórios de Análise Económica de Dados

Figura 3.2 – Vírgulas e pontos

Um dos motivos pela qual se alteram os separadores do sistema prende-se com o facto de que na
língua inglesa o separador decimal é o ponto e o separador de milhares é a vírgula, contrariamente à
língua portuguesa. No EViews os pontos e as vírgulas funcionam de acordo com a língua inglesa e, em
contrapartida, no STATA funcionam de acordo com a língua portuguesa.

3.3. Realizar operações aritméticas


Para realizar operações aritméticas, basta na primeira célula descrever a operação pretendida. Por
exemplo: =A2+B2; =A2*B2; =A2-B2; =A2/B2.
Para a operação ser realizada em mais do que uma única célula (como na imagem do lado
esquerdo), faz-se o mencionado anteriormente, seguido de um arrastamento da primeira célula (como
na imagem à direita), e os valores aparecerão automaticamente.

Figura 3.3 – Operações aritméticas

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 7


Exercícios Introdutórios de Análise Económica de Dados

Este ponto é benéfico quando se trata um elevado número de valores que, quando necessário,
podem ser, por exemplo, somados com outros valores correspondentes ao mesmo ano, país ou outro, e
apenas com um simples comando obtemos o resultado imediatamente.

3.4. Realizar operações com matrizes


O primeiro passo para realizar operações com matrizes é clicar no símbolo “𝑓x”, abaixo rodeado.
O segundo passo é inserir a função desejada (no caso, a matriz destacada) e confirmar. Por fim, o terceiro
passo é selecionar as matrizes sem selecionar o nome das variáveis e confirmar.

Figura 3.4 – Operações com matrizes

O resultado será parecido com o da Figura 3.5. Depois disto, seleciona-se a dimensão que a matriz
irá ter, colocando o cursor na função e clicando ctrl+shift+enter. De seguida aparecerá a matriz.

Figura 3.5 – Matriz

Para executar outras operações com matrizes, como a inversa ou a determinante, o processo é o
mesmo.
Em modelos e planeamento económico, bem como nos negócios, a maior parte dos problemas
são lineares ou aproximados por modelos lineares. Estes problemas podem ser resolvidos recorrendo ao

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 8


Exercícios Introdutórios de Análise Económica de Dados

cálculo matricial. As matrizes estocásticas também são usadas em algoritmos e têm variadas aplicações
de computação, nomeadamente nos programas específicos de econometria.

3.5. Representação gráfica de dados


Para representar graficamente uma variável seleciona-se a série de dados correspondente a essa
mesma variável e depois clica-se em gráficos recomendados, escolhendo-se, de seguida, o tipo de
gráfico pretendido, tal como mostra a Figura 3.6.

Figura 3.6 – Gráfico de dados

Os gráficos exibem os dados de uma maneira mais intuitiva e agradável, o que torna mais fácil a
sua compreensão.

3.6. Representar uma linha de regressão num gráfico


Depois de executada a representação gráfica, seleciona-se, com o botão direito do rato na linha
do gráfico, o menu que está em destaque na Figura 3.7.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 9


Exercícios Introdutórios de Análise Económica de Dados

Figura 3.7 – Linha de regressão

A linha de regressão irá então estimar uma tendência em função dos dados.

3.7. Alterar o ano base do deflator


A alteração do ano base é feita através da divisão de toda a série de dados pelo ano base.
Inicialmente, como se pode verificar na Figura 3.8, define-se o novo ano base, e copia-se o seu valor.

Figura 3.8 – Novo ano base

Depois, tal como a Figura 3.9, seleciona-se toda a coluna, clicando em colar especial e seleciona-
se “Divisão”.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 10


Exercícios Introdutórios de Análise Económica de Dados

Figura 3.9 – Alteração do ano base

Após este processo, é apresentado o deflator com o novo ano base.

3.8. Calcular taxas de crescimento simples e logarítmicas


As taxas de crescimento logarítmicas fazem-se da mesma maneira que as taxas de crescimento
simples, mas com as variáveis em logaritmo. O processo é muito semelhante ao das operações
aritméticas.

Figura 3.10 – Taxas de crescimento

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 11


Exercícios Introdutórios de Análise Económica de Dados

𝑃𝐸 − 𝑃𝐸
𝑡𝑎𝑥𝑎 𝑑𝑒 𝑐𝑟𝑒𝑠𝑐𝑖𝑚𝑒𝑛𝑡𝑜 𝑃𝐸 = (3.1)
𝑃𝐸

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 12


Exercícios Introdutórios de Análise Económica de Dados

4. EViews
Nesta seção o aluno terá o seu primeiro contacto com o software EViews, um programa muito
importante para análise econométrica e bastante “user friendly”. O intuito desta secção é explicar desde
a simples criação de novos ficheiros até a compreensão de resultados dos testes que serão efetuados.

4.1. Criar um Workfile


Ao abrir o EViews, abrir-se-á, uma janela como a da Figura 4.1, onde aparecerá um comando que
diz: Create a new EViews workfile. Ao selecionar esse comando, abrir-se-á uma outra janela (Figura
4.2).

Figura 4.1 – New worfile

Neste momento, é necessário preencher os dados de acordo com o ficheiro que se pretende criar.

Figura 4.2 – Workfile create

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 13


Exercícios Introdutórios de Análise Económica de Dados

Uma outra forma de criar um workfile é usar as teclas “Ctrl+N”. Adicionalmente, ainda é possível
ir ao menu ficheiro, new > workfile (como mostra a Figura 4.3), aparecendo depois a mesma janela da
Figura 4.2.

Figura 4.3 – New worfile (alternativa)

Após a criação de um workfile é necessário importar o ficheiro pretendido. Com a abertura do


workfile é possível determinar o horizonte temporal, podendo este ser diferente do que está no ficheiro
Excel.

4.2. Importar dados de ficheiros em formato Excel


Neste exemplo, irá ser importado o ficheiro “base de dados”. Para isso é necessário seguir os
passos:
File > Import > Import from file

Figura 4.4 – Importação de dados

Seleciona-se o ficheiro e de seguida formatam-se (se necessário) os dados a introduzir no EViews.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 14


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.5 – Formatação (step 1)

Neste primeiro passo é possível escolher qual a folha do Excel que se pretende importar.

Figura 4.6 - Formatação (step 2)

Neste segundo passo é necessário definir a natureza da primeira linha dos dados, neste caso o
nome das variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 15


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.7 - Formatação (step 3)

Neste terceiro passo é possível mudar o nome de uma variável. Caso isto não seja pretendido,
clica-se apenas em seguinte.

Figura 4.8 - Formatação (step 4)

Neste quarto passo é permitido especificar a frequência dos dados.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 16


Exercícios Introdutórios de Análise Económica de Dados

4.3. Instalar add ins


Para instalar add ins no EViews, recorre-se ao separador “add ins” e de seguida clica-se em
“Download Add-ins”, como mostra a Figura 4.9.
Depois destes passos abrir-se-á uma janela (Figura 4.10) onde aparecerá uma lista de add ins.
Seleciona-se a opção desejada e clica-se em instalar.

Figura 4.9 – Download add-ins

Figura 4.10 – Instalar add-ins

Os add-ins podem oferecer novas formas de utilizar os programas do EViews. Existem pacotes e
bibliotecas de add-ins que podem ser utilizados para expandir as ferramentas do EViews.

4.4. Converter variáveis para logaritmos


Depois dos dados importados, é possível gerar novas variáveis com as variáveis já existentes.
Para, por exemplo, converter variáveis para logaritmos seguem-se as opções :
Quick >1 Generate series.

1
> Designa o passo seguinte.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 17


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.11 – Generate series by equation

Na nova janela (Figura 4.12), introduz-se a expressão correspondente à geração da nova variável.
De notar que a função “log” do EViews corresponde ao logaritmo natural.

Figura 4.12 – Equação

As variáveis explicadas e explicativas normalmente encontram-se em logaritmos, uma vez que o


uso dos logaritmos pode permitir relações não lineares entre a variável dependente e as variáveis
independentes, segundo Wooldrigde (2006, p. 179). O uso dos logaritmos também pode ser uma mais-
valia na superação de problemas relacionados com a qualidade das estimações.

4.5. Calcular as primeiras diferenças de variáveis


Para calcular as primeiras diferenças de uma dada variável é necessário repetir o primeiro passo
do ponto 4.4 (Figura 4.11):
Quick > Generate series

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 18


Exercícios Introdutórios de Análise Económica de Dados

Contudo, para gerar as diferenças das variáveis, é necessário, primeiro, criar os logaritmos dessas
mesmas variáveis. Com o logaritmo da variável selecionado, é possível gerar então as primeiras
diferenças através da expressão: d(variável).
As primeiras diferenças são utilizadas, por exemplo, quando as séries não apresentam
estacionariedade, ou no cálculo de taxas de crescimento.

Figura 4.13 – Equação

4.6. Criar uma variável tendência


Para criar uma variável tendência, tem que se repetir o processo descrito no ponto 4.4 e 4.5:
Quick > Generate series
Depois introduz-se a seguinte expressão: trend=@trend(data de início das observações). Ver
Figura 4.14.

Figura 4.14 – Equação

A estimação da tendência tem a função de detetar e predizer regularidades em períodos de séries


temporais. É útil para determinar se as estimações exibem uma tendência crescente ou decrescente,
estatisticamente distinta do comportamento estocástico.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 19


Exercícios Introdutórios de Análise Económica de Dados

4.7. Criar e executar operações num ficheiro “program’’


Para criar um ficheiro “program”, é necessário seguir o procedimento que é indicado na Figura
4.15, ou seja:
File > New > Program

Figura 4.15 – Criar o program

Depois deste passo, a primeira coisa a ser feita é escrever stop e clicar em run selected, de forma
a executar o comando, como mostra a Figura 4.16.Concluindo, para executar o “program” basta escrever
o(s) comando(s) que se pretende utilizar, selecionar o(s) comando(s), e clicar em run selected.

Figura 4.16 – Program

O ficheiro “program” tem a função de realizar operações através de comandos, sendo, portanto,
um método alternativo ao utilizado até aqui.

4.8. Representar variáveis graficamente


Para representar variáveis graficamente recorre-se à opção:
Quick > Graph

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 20


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.17 - Graph

Depois executado o passo anterior, aparece um esquema igual ao da Figura 4.18, em que é
necessário selecionar o tipo de gráfico que se pretende, e selecionar se as variáveis serão representadas
através de único gráfico ou através de um gráfico para cada uma das variáveis.

Figura 4.18 – Graph options

A representação gráfica é benéfica para comparar variáveis e analisá-las de uma forma mais
precisa e mais compreensível. Por exemplo, pode ser útil para a observação de tendências. Este software
tem ainda a vantagem de mostrar os gráficos das variáveis em conjunto ou em separado, dando a
possibilidade de escolher a forma que permite uma melhor avaliação das variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 21


Exercícios Introdutórios de Análise Económica de Dados

4.9. Apresentar as estatísticas descritivas das variáveis

Para se analisar as estatísticas descritivas de uma variável, ou de um conjunto de variáveis, clica-


se em:
Quick > Grouph Statistics > Descriptive Statistics
Depois opta-se entre common (para várias variáveis) ou individual (para uma só variável).

Figura 4.19 – Estatísticas descritivas

Depois de executar estes passos, serão então apresentadas as estatísticas descritivas


correspondentes à variável pretendida (ou variáveis pretendidas). Ver Figura 4.20.

Figura 4.20 – Output

As estatísticas descritivas descrevem e sumarizam um conjunto de dados da mesma natureza.


Como se observa na figura anterior, nestas estatísticas é possível analisar vários parâmetros, tais como
a média, a mediana, Jarque-Bera, a probabilidade, entre outros, que ajudam na interpretação, e numa
melhor compreensão, do comportamento de cada variável.

4.10. Apresentar a matriz de correlações


A matriz de correlações é apresentada recorrendo-se a:
Quick > Group Statistics > Correlations

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 22


Exercícios Introdutórios de Análise Económica de Dados

Inserindo-se de seguida as variáveis pretendidas.

Figura 4.21 – Matriz de correlações

Neste exemplo foram usadas as seguintes variáveis: co2, gdpc e imp.

Figura 4.22 – Output de correlações

Através da matriz de correlações sabe-se qual o grau de correlação que existe entre as variáveis
escolhidas (este ponto será aprofundado posteriormente).

4.11. Efetuar regressões múltiplas OLS


Para se efetuar uma regressão múltipla, clica-se em:
Quick > Estimate Equation

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 23


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.23 – Estimar equação

Depois do passo anterior processe-se à inserção da equação pretendida, introduzindo-se


primeiramente a variável dependente (co2), seguida da constante e das variáveis independentes (c imp
gdpc fdi).

Figura 4.24 - Equação

Posteriormente, é apresentado o output da equação, como mostra a Figura 4.25. Este output
apresenta um conjunto de critérios que ajudam a perceber melhor as características do modelo que está
a ser testado.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 24


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.25 – Output da equação

Nota ainda para o facto de também se poder representar a regressão através do “program”. Para
isso escreve-se: ls co2 c imp gdpc fdi.

4.12. Interpretação dos coeficientes das regressões


Regressão Simples
A regressão é um processo de construção de um modelo ou função matemática com o objetivo de
a usarmos para determinar (passado) ou prever (futuro) os valores de uma variável através de uma
relação (matemática) que a liga com uma outra variável.
A questão chave aqui é a direção da “causalidade” entre as duas variáveis, ou seja, qual é a
variável que “provoca” a outra. Portanto, numa regressão as variáveis dividem-se em:
- Dependente ou explicada (geralmente indicada por Y);
- Independente ou explicativa (geralmente indicada por X).

Modelos de Regressão
 Modelo de Regressão Determinista
Neste caso temos uma variável dependente e uma independente.
Exemplo: Yt=b0+b1.Xt (4.1)
Em que:
 Yt é a variável dependente;
 Xt é a variável independente;
 Os parâmetros b0 e b1 obtêm-se através das fórmulas abaixo apresentadas (Eqs 4.2 e 4.3).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 25


Exercícios Introdutórios de Análise Económica de Dados

∑𝑌 ∑𝑋
𝑏 =𝑌−𝑏 𝑋 = − 𝑏1
𝑛 𝑛 (4.2)

∑(𝑋 − 𝑋)(𝑌 − 𝑌) 𝑛 ∑ 𝑋𝑌 − ∑ 𝑋 ∑ 𝑌
𝑏 = =
∑(𝑋 − 𝑋) 𝑛 ∑ 𝑋 − (∑ 𝑋) (4.3)

 Modelo de Regressão Probabilística


Exemplo: Yt = β0 + β1 Xt + µt (4.4)
Em que:
 µ é o erro (informação que falta no modelo)
 0 e 1 são parâmetros da população, estimados por estatísticas amostrais b0 e b1

Coeficiente de Determinação – R2
Este coeficiente mede a proporção de variabilidade da variável dependente/explicada pela
variável independente num modelo de regressão.
𝑹𝟐 – Através da sua percentagem pode perceber-se de que forma a variável dependente poderá
ser explicada pelas variáveis independentes (explicativas). Quanto mais baixo for o seu valor, mais baixo
será o poder explicativo do modelo. O poder explicativo está altamente relacionado com o número de
observações e com o número de variáveis independentes.2
Quanto maior for o P-valor 3 (Prob.) maior é a probabilidade de não se rejeitar a hipótese nula.
(H. nula é quando o β=0).
o P-valor < 0,01 – Estatisticamente significante a 1%
o P-valor < 0,05 – Estatisticamente significante a 5%
o P-valor < 0,10 – Estatisticamente significante a 10%
Pressuposto: Um aumento de 1 ponto percentual de X (variável explicativa) representa um
aumento (caso o valor do coeficiente seja positivo) ou uma diminuição (caso o valor do coeficiente
seja negativo) no Y (variável dependente). (Ceteris paribus – para acontecer, tudo o resto permanece
constante).
Preposição do Método OLS
 Tem que ser linear;
 O coeficiente da variável tem que ser superior a 0,1;
 O X não pode ser estocástico (não determinista);

2
O R2 situa-se entre valores de 0-1, podendo chegar a valores muito elevados, às vezes até mesmo superiores a
0,9. Isso pode levar a concluir que existe uma relação muito forte entre as variáveis.
3
No EViews e no STATA o P-valor aparece com 4 casas decimais (0.0000).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 26


Exercícios Introdutórios de Análise Económica de Dados

 O valor esperado do termo de erro tem que ser 0 (ou seja, a média);
 Os erros têm que ser homocedásticos, e a variância do erro tem que ser constante para todo o t;
 Não pode haver autocorrelação dos erros;
 Não pode haver multicolinearidade – não pode haver relações lineares exatas entre as variáveis;
Por exemplo, estimando a seguinte regressão: co2 c gdpc, temos:

Figura 4.26 – Regressão Múltipla (explicação)

As funções das Regressões Múltiplas, Asteriou e Hall (2011):


Yt = f(y1, y2, y3,…, yn) (4.5)
Yt = β0 + β1.x1t + β2.x2t + … + βn.xnt + ut (4.6)
Podem-se resumir os pressupostos do modelo, que não são muito diferentes do caso mais simples
com apenas duas variáveis, da seguinte forma:
 A variável dependente é uma função linear das variáveis explicativas;
 Todas as variáveis explicativas não são aleatórias;
 As variáveis têm valores que são fixados em amostras repetidas, como n→∞ a variância dos
seus valores de amostra 1 / n (Xjt – 𝑋j) 2 → Qj(j=2,3,...,k), onde o Qj são constantes fixas;
 E(ut)=0 para todos os t;
 Var(ut)=E(u2t)=σ2 = constante para todos os t;
 Cov(ut, uj)=E(ut, uj)=0 para todos j=t;

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 27


Exercícios Introdutórios de Análise Económica de Dados

 Cada ut é normalmente distribuído;


 Não há relações lineares exatas entre os valores de amostra de duas ou mais variáveis
explicativas.
Consistência
O não enviesamento significa que, independentemente do tamanho da amostra, espera-se que, na
média, o β estimado seja igual ao β verdadeiro. Se relevarmos a hipótese de que X é fixo (geralmente
irrealista), podemos estabelecer que o β é consistente; isto significa que, à medida que a amostra se
aproxima do infinito, o β vai convergir, em probabilidade, com o seu verdadeiro valor - p lim(β) = β. O
pressuposto chave aqui é que a variável X, não fixa, não pode ser correlacionada com o termo de erro.
𝑅 e 𝑅 ajustado
O coeficiente de determinação, R2, é uma medida de proximidade no modelo de regressão
múltipla, como no modelo simples de duas variáveis. No entanto, o R2 não pode ser usado como meio
de comparar duas equações diferentes que contenham um diferente número de variáveis explicativas.
Isso ocorre porque, quando são incluídas variáveis explicativas adicionais, a proporção de variação em
Y explicada pelos X’s, leva ao aumento do R2.
Deve-se sempre obter um R2 mais alto independentemente da importância, ou não, do regressor
adicional. Por este motivo, exige-se uma medida diferente que leve em consideração o número de
variáveis explicativas incluídas em cada modelo. Esta medida é chamada de R2 ajustado (denotado por
𝑅 2), porque é ajustado para o número de regressores (ou ajustado para os graus de liberdade). O
coeficiente de determinação (simples ou o ajustado) dá-nos a variação da variável dependente explicada
pela variação das variáveis independentes.
Exemplo:
Estimando a seguinte regressão: co2 c gdpc fdi, tem-se:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 28


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.27 – Regressão Múltipla (explicação)

4.13. Interpretação da qualidade do ajustamento

Uma informação importante quando se faz uma estimação é saber a qualidade do ajustamento
(goodness-of-fit) efetuado. Para se determinar a qualidade do ajustamento precisamos de saber quão
próximo é o valor estimado do valor observado. Na regressão linear, vamos determinar a reta que melhor
traduz a relação entre Yt e Xt. Por outras palavras, trata-se encontrar uma medida que minimize as
discrepâncias entre os valores estimados e os valores que efetivamente a variável dependente tem em
cada momento. Para se obter esta medida, primeiro temos que decompor o valor de Yt. Assim, o valor
observado é decomposto no valor estimado mais o seu resíduo (estimado). Conforme Asteriou e Hall,
2011:
Yt = ӯt +ût (4.7)
Subtraindo ӯ dos dois lados que temos
Yt −ӯ = ӯt − ӯ + û (4.8)

4.14. Representar graficamente os resíduos das regressões


Para se represarem os resíduos de uma regressão, primeiro estima-se uma equação (em formato
EViews):
co2 c pe gdpc

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 29


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.28 – Equação

Depois clica-se em resids e os resíduos serão apresentados como mostra a Figura 4.29.

Figura 4.29 – Resíduos

A análise dos resíduos serve para investigar a adequabilidade do modelo. Neste caso, serão criadas
duas dummies, uma para o ano 1984 (ponto A da Figura 4.29) em que claramente ocorreu um choque e
outra para o período de 1990 a 2000 (período B da Figura 4.29) em que também parece ter ocorrido
outro choque. (apresentadas no ponto 4.16).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 30


Exercícios Introdutórios de Análise Económica de Dados

4.15. Dummies
Neste tópico serão abordados três tipos de dummies, as impulse, as stability e as sazonais. Cada
uma das dummies tem a sua função e, portanto, aplicam-se em situações diferentes. Uma variável
dummy, ou binária, assume os valores de 0 ou 1 ao longo do tempo.
- Impulse
Uma impulse dummy servem para controlar choques num ano específico.
Para se criar uma dummy deste tipo, primeiramente, vai-se ao separador Add-ins e seleciona-se
Generate Dummy Variables, como mostra a figura seguinte.

Figura 4.30 – Generate dummy variables

Depois de executado o passo anterior, é possível escolher entre Impulse Dummy ou Stability
Dummy. Tendo em conta este exemplo opta-se por Impulse Dummy.

Figura 4.31 – Generate impulse dummies

A seguir irá aparecer uma janela como a da Figura 4.32, onde se deve indicar a informação
referente ao ano em que ocorreu o choque.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 31


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.32 – Impulse dummies

- Stability
Uma stability dummy serve para controlar choques num período de tempo, entre mais do que um
ano por exemplo.
Para se criar um stability, primeiro faz-se o mesmo passo da Figura 4.30, mas desta feita opta-se
pela opção stability, como mostra a Figura 4.33.

Figura 4.33 – Generate stability dummies

De seguida irá aparecer um quadro igual ao da Figura 4.34, em que é necessário especificar o
período de tempo em que ocorre o choque.

Figura 4.34 – Stability dummies

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 32


Exercícios Introdutórios de Análise Económica de Dados

- Sazonal
Para se gerarem dummies sazonais é necessário recorrer-se a comandos idênticos aos
representados na Figura 4.35.

Figura 4.35 – Dummies sazonais

Esta opção não é adequada a dados anuais, apenas se consegue realizar com dados compreendidos
num ano, como por exemplo, dados bimestrais, trimestrais, quadrimestrais, semestrais e mensais. O
exemplo, Figura 4.35, é para dados mensais.

4.16. Interpretar os coeficientes das variáveis dummies


Uma vez inserida a dummy na regressão, sendo a sua probabilidade estatisticamente significante,
deve atentar-se ao seu coeficiente. Este mede a forma como a variável dummy se comporta no modelo.
Segue-se um exemplo.

Figura 4.36– Regressão com uma variável Dummy

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 33


Exercícios Introdutórios de Análise Económica de Dados

De acordo com o exemplo da Figura 4.36, foram inseridas duas dummies no modelo. A dummy
impulse para o ano de 1984 e a dummy stability para o período que vai desde 1990 a 2002. Ambas as
dummies demonstram ter uma probabilidade estatisticamente significante, o que justifica a sua inserção.
Relativamente aos coeficientes, vemos que em ambos os casos este é negativo, isto porque quer no ano
de 1984 quer no intervalo de 1990 a 2002 os resíduos são negativos.

4.17. Regressão stepwise (backward e forward)4


Para realizar uma regressão stepwise, seguem-se os mesmos passos aplicandos para uma
regressão normal, com a única diferença em que se tem que mudar o “Method” para stepwise, como
podemos ver na Figura 4.37.

Figura 4.37 – Estimar equação stepwise

Depois, e de acordo com Figura 4.38, é necessário optar por uma das opções: forwards ou
backward, bem como definir (para cada uma destas opções) o p-value que retira automaticamente da
estimação as variáveis que não são estatisticamente significantes.

4
Para executar no “program”, escreve-se:
stepls(ftol=0.10, btol=0.10, back) co2 c @ trend exp01 fdi gdpc gfcf imp pe
Em que:
 Ftol e btol são níveis de significância para as quais queremos que as variáveis sejam retiradas, caso
tenham probabilidade superior a esse nível de significância;
 Back, escolheu-se entre backward e forward.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 34


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.38 – Forwards ou backwards

Neste exemplo, esta regressão retira as variáveis cujo p-value esteja acima de 10%.

Figura 4.39 – Output da regressão stepwise

Como se pode observar no output da Figura 4.39, neste output não estão presentes todas as
variáveis, faltam as variáveis exp01 e imp. A regressão completa era co2 c trend exp01 fdi gdpc gfcf
imp pe. Isto significa que as variáveis exp01 e imp não são necessárias para este modelo (o seu p-value
é superior a 10%).

4.18. Testes de autocorrelação


A autocorrelação pode ser causada por:
 Variáveis omitidas;
 Má especificação do modelo;

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 35


Exercícios Introdutórios de Análise Económica de Dados

 Falta de sistemática de erros sistemáticos;

Testar/interpretar o valor do “ρ”


Autocorrelação de ordem 1 e de ordem superior
Ut = ρ. Ut-1 + et (4.9)
Ut = ρ1. Ut-1 + ρ2. Ut-2 + et (4.10)
Em que a Equação 4.9 apresenta uma autocorrelação de ordem 1 e a Equação 4.10 apresenta uma
autocorrelação de ordem 2. O ρ encontra-se no intervalo ]-1,1[.
O caso de autocorrelação mais comum é a correlação em série de primeira ordem.
Considerando o modelo de regressão múltipla conforme Asteriou (2011):
Yt = β1 + β2.X2t + β3.X3t + ··· + βk.Xkt + ut (4.11)
Em que a observação atual do termo de erro (ut) é uma função da observação anterior do termo
de erro (ut-1); isto é: ut = ρut-1 + εt onde ρ é o parâmetro que descreve a relação funcional entre as
observações do termo de erro (ut) e εt é um novo termo de erro que é distribuído de forma idêntica e de
forma independente. O coeficiente ρ é chamado de coeficiente de autocorrelação de primeira ordem e
compreende-se em valores de -1 a 1, para evitar comportamentos explosivos.
 Se ρ=0, então não temos correlação em série, porque ut = εt e, portanto, um termo de erro.
 Se ρ se aproxima de + 1, o valor da observação prévia do erro (ut-1) torna-se mais importante
determinar o valor do termo de erro atual (ut) e, por conseguinte, existe uma maior correlação
serial positiva. Neste caso, a observação atual do termo de erro tende a ter o mesmo sinal que a
observação anterior do termo de erro (isto é, negativa levará a negativo e positivo ao positivo).
Isso é chamado de correlação serial positiva. (A Figura1 mostra como os resíduos de um caso
de correlação serial positiva aparecem).
 Se ρ se aproximar de -1, obviamente a força da correlação serial será muito alta. Desta vez, no
entanto, temos correlação serial negativa.

Autocorrelação graficamente
Uma maneira simples de detetar a autocorrelação é examinar se as parcelas residuais contra o
tempo e o gráfico de dispersão de ut contra ut-1 exibem padrões semelhantes aos apresentados nas Figuras
4.40 e 4.41.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 36


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.40 – Correlação positiva

Figura 4.41 – Correlação negativa

Diz-se que existem evidências de correlação serial positiva se o padrão for semelhante ao da
Figura 4.40. Já se o padrão for semelhante ao da Figura 4.41, diz-se que existem evidências de correlação
serial negativa.
Exemplo:
Para testar a autocorrelação dos dados, primeiramente faz-se uma regressão. Neste caso, estimou-
se a seguinte equação, com os seguintes comandos:
Quick > Estimate equation - co2 c fdi pe gdpc
Depois gera-se uma nova variável que contenha os valores dos resíduos da equação estimada:
Quick > Generate series - ut=resid
De seguida, procede-se à representação gráfica da variável ut, assim como do gráfico da variável
ut contra ut-1.
Quick > Graph- ut

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 37


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.42 – Gráfico de ut

Quick > Graph (scatter)- ut(-1) ut

Figura 4.43 – Gráfico de ut(-1) e ut

Através da análise da Figuras 4.42 e da Figura 4.43, pode afirmar-se que os resíduos parecem
estar positivamente correlacionados em série.

Teste prático (caso não se consiga ver a autocorrelação através do método gráfico):
Estima-se novamente a equação anterior:
Quick > Estimate Equation- co2 c fdi pe gdpc

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 38


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.44 – Equação

Da regressão feita, pode verificar-se que a variável independente fdi tem uma probabilidade muito
significativa, por isso removemo-la da equação.

Figura 4.45 – Equação

Com este procedimento, verifica-se que todas as outras variáveis ficam com probabilidade igual
a 0. De seguida, gera-se uma nova variável para os resíduos, desta nova regressão, designada por res1:
Quick > Generate series- res1=resid
Com a variável resíduos gerada, verificamos a sua representação gráfica:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 39


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.46 – Gráfico dos resíduos

De seguida estimamos uma nova regressão: res1 res1(-1) res1(-2) res1(-3) res1(-4).

Figura 4.47 – Regressão com resíduos e resíduos desfasados

Depois, procedemos aos seguintes passos:


Quick > Series statistic > Correlogram > “u” (level)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 40


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.48 – Series statistic

Por aqui, observa-se que o modelo é autorregressivo até 4, podendo ir até 5.


A autocorrelação mede o efeito do momento t-1, no momento t.
Neste caso, mede-se assim: U – U(t-1)
U(t-1) – U(t-2)
U(t-2) – U(t-3), e assim sucessivamente.

Durbin-Watson
O teste estatístico mais utilizado para a investigar a presença de correlação em série é o teste de
Durbin-Watson, que é válido quando os seguintes pressupostos são atendidos:
 O modelo de regressão inclui uma constante;
 A correlação serial é assumida como sendo de primeira ordem;
 A equação não inclui uma variável dependente desfasada como uma variável explicativa.
Exemplo de modeloi:
Yt = β1+β2X2t +β3X3t +···+βkXkt +ut, (4.12)
Onde ut = ρut−1+εt

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 41


Exercícios Introdutórios de Análise Económica de Dados

0 dB dA 2 4- dA 4- dB 4

Rejeita-se H0 Área de Aceita-se H0 Área de Rejeita-se H0


indecisão indecisão

O teste de Durbin Watson está feito para estar compreendido entre 0 e 4.


Equação estimada: co2 c fdi pe gdpc

Figura 4.49 – Equação

Quanto mais próximo de 0, mais perto estamos da existência de autocorrelação positiva. Quanto
mais perto de 4, mais perto estamos da existência de autocorrelação negativa. De seguida, vamos à tabela
“Durbin–watson significance” (facilmente encontrada na internet), para x=6 e k=1: 1,142.
Como 0,267 é menor que 1,142, dizemos que foi detetada a presença de uma correlação
positiva.

Fórmula de Durbin’s h
Equação estimada: co2 c fdi pe gdpc co2(-1)
Fórmula:

H= 1− . (4.13)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 42


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.50 – Equação

Neste exemplo:
.
H= 1 − . ( , )
=1.4195 (4.14)

Teste de correlação, com número de lags


Estimar a equação: co2 c fdi pe gdpc

Figura 4.51 – Equação

View > residual diagnostics > serial correlation (lags=4(por ser autorregressivo até 4))

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 43


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.52 – Serial correlation test

Com este teste, através de probabilidade dada (0,0000), rejeita-se a hipótese nula (H0 não há
correlação serial). Conclui-se assim que este modelo apresenta correlação serial.

4.19. Testes de heterocedasticidade


Em geral, existem duas maneiras de detetar a heterocedasticidade. A primeira, conhecida como o
caminho informal, é por inspeção de diferentes gráficos, enquanto a segunda é através da aplicação de
testes adequados.

Detetar heterocedasticidade graficamente

Figura 4.53 – Gráfico sem heterocedasticidade

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 44


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.54 – Gráficos com heterocedasticidade

Exemplo:
Em primeiro lugar, procede-se à realização da regressão da equação co2 c fdi pe gdpc. Depois
faz-se uma simples análise da parcela de dispersão das três variáveis explicativas relativamente à
variável explicada, através da análise gráfica.
Quick > graph- fdi co2

Figura 4.55 – Gráfico de FDI e CO2

Quick > graph- pe co2

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 45


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.56 – Gráfico de PE e CO2

Quick > graph- gdpc co2

Figura 4.57 – Gráfico de GDPC e CO2

Através deste método gráfico não se consegue tirar conclusões robustas, por isso passa-se aos
testes de heterocedasticidade (de seguida serão expostos cinco exemplos).
Para realizar testes de heterocedasticidade primeiro faz-se uma regressão (neste caso co2 c fdi
pe gdpc), e depois seguem-se os seguintes passos:

View > Residual diagnostics > Heteroskedasticity (Breusch-Pagan-Godfrey)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 46


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.58 – Breusch-Pagan-Godfrey test

No caso do teste Breusch-Pagan-Godfrey, não rejeitamos a hipótese nula, para qualquer nível de
significância, pois a probabilidade é de 0.1394.

View > Residual Diagnostics > Heteroskedasticity (Glejser)

Figura 4.59 – Glejser test

No teste Glejser, também não rejeitamos a hipótese nula, uma vez que a probabilidade é de
0,4267.

View > Residual diagnostics > Heteroskedasticity (Harvey)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 47


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.60 – Harvey test

Neste teste (Harvey) a probabilidade também é elevada e por isso não rejeitamos a hipótese nula.

View > Residual Diagnostics > Heteroskedasticity (ARCH)

Figura 4.61 – ARCH test

Este teste tem a vantagem de determinar só os erros. À medida que se aumenta o número de lags,
a probabilidade diminui. Este é o único teste, para este exemplo, em que se rejeita a hipótese nula para
todos os níveis de significância (1%, 5% e 10%).

View > Residual diagnostics > Heteroskedasticity (White)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 48


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.62 – White test

Este teste determina a heterocedasticidade da função quadrada. Neste caso, não se rejeita a
hipótese nula.
Obs: não se seleciona a opção “include White cross terms”.

4.20. Testes à multicolinearidade


Não podem existir relações lineares exatas entre os valores de amostra das variáveis explicativas
(os Xs). Assim, quando as variáveis explicativas estão altamente correlacionadas entre si (coeficientes
de correlação muito próximos de 1 ou -1), ocorre o problema da multicolinearidade.

Multicolinearidade Perfeita:
Quando existe uma relação linear perfeita. É quando se multiplica uma variável por um vetor.
Exemplo de modelo:
Y=β1+β2X2+ β3X3+e (4.15)

Multicolinearidade imperfeita:
A multicolinearidade imperfeita existe quando as variáveis explicativas numa equação estão
correlacionadas, mas essa correlação é inferior à perfeita.
Isto pode ser expresso como:

X3 = X2 + v (4.16)

Onde v é uma variável aleatória que pode ser vista como o "erro" no relacionamento linear exato.
Portanto, testar-se-á a multicolinearidade das variáveis que fazem parte da equação:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 49


Exercícios Introdutórios de Análise Económica de Dados

ls co2 fdi pe gdpc


Primeiramente, faz-se uma matriz de correlações para se ver a relação entre todas as variáveis da
equação.

Figura 4.63 – Matriz de correlações

Através da matriz de correlações vêm-se os coeficientes de correlação e também se vê que não há


nenhum valor muito próximo de 1, o que pode indicar que não existe multicolinearidade, ou pelo menos,
não existem altos níveis deste fenómeno. Para tirar as dúvidas, procede-se ao teste VIF.
Estima-se a equação: co2 c fdi pe gdpc.
De seguida, clica-se em:
View > Coefficient Diagnostics > Variance Inflation Factors

Figura 4.64 – Variance inflation factors

Neste caso, diz-se que não existe multicolinearidade pois os valores centrados do VIF são
inferiores a 10. Se o VIF for superior a 10, temos um problema de multicolinearidade.

Figura 4.65 – Variance inflation factors output

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 50


Exercícios Introdutórios de Análise Económica de Dados

Para resolver este problema temos que retirar a variável que tenha a segunda maior probabilidade.
Caso não resolva, voltamos a fazer o mesmo.
Quando o VIF for superior a 10 quer dizer que existe multicolinearidade.
Nota: este teste só mede a multicolinearidade entre varáveis dependentes.

Exemplo, com multicolinearidade:


Nova equação: co2 c fdi gdpc gfcf
Primeiro, estima-se a equação anterior, depois faz-se a representação da matriz de correlação.

Figura 4.66 – Matriz de correlação

Com se pode verificar, existe um grande coeficiente de correlação entre o gdpc e o gfcf. Pelo que
estimamos a equação com o GFCF e procedemos à realização do teste VIF.

Figura 4.67 - VIF

Os valores centrados do VIF para as variáveis GDPC e GFCF são muito elevados (superiores a
10), o que significa que temos presença de multicolinearidade.
Tal como referido anteriormente, para resolver o problema retiramos a variável que tenha a
segunda maior probabilidade.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 51


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.68 - VIF

Ao retirarmos a variável GDPC (a segunda com maior probabilidade), resolvemos a questão da


multicolinearidade, como pode ser visto na Figura 4.68.

4.21. Testes de hipóteses


Para testar a estabilidade dos parâmetros usa-se um teste designado de Wald Test.
Em primeiro lugar, é necessário fazer uma regressão, neste caso da equação:
ls co2 c fdi pe gdpc
De seguida, verificam-se os coeficientes de cada variável na regressão, da seguinte forma:
View > Representations

Figura 4.69 – Representations

Desta forma, é possível ver quantos coeficientes tem a equação estimada e que coeficiente
corresponde a cada variável. Depois podemos testar várias hipóteses, tais como a igualdade entre eles
e/ou outro tipo de operações aritméticas.
Por exemplo: H0: c(2)=c(3)=c(4)=0
View > coefficient diagnostics > Wald Test: c(2)=c(3)=c(4)=0

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 52


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.70 – Wald test

Através do resultado apresentado, conclui-se que a hipótese nula é rejeitada para todos os níveis
de significância estatística, pois a probabilidade é igual a 0.0000, ou seja, os coeficientes não são todos
iguais a 0.

4.22. Teste de normalidade dos resíduos


Para proceder à interpretação da normalidade dos resíduos (Jarque-Bera), tem que se fazer uma
regressão OLS, só com as variáveis importantes segundo a regressão stepwise. Em primeiro lugar
estima-se a equação co2 c trend pe fdi gfcf gdpc através dos passos:
Quick > estimate equation
Depois, faz-se o histograma:
View > residual > Histogram

Figura 4.71 – Normality test

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 53


Exercícios Introdutórios de Análise Económica de Dados

Se o valor de Jarque-Bera for maior que o valor do x2 (qui-quadrado), da tabela do qui-quadrado,


para o número de variáveis e para o nível de significância em causa, rejeita-se a hipótese nula, ou seja,
não há má justificação do modelo.

Figure 4.72 – Normality test output

A hipótese nula é a distribuição normal dos erros. Dado que neste caso esta se encontra na zona
dita como “normal”, podemos então dizer que os erros seguem uma distribuição normal.

4.23. Testes de especificação do modelo


Neste caso, as variáveis têm que estar no formato de logaritmo.
Quick > Generate Series:
lco2=log(co2)
lexp01=log(exp01)
lfdi=log(fdi)
lgdpc=log(gdpc)
lgfcf=log(gfcf)
limp=log(imp)
lpe=log(pe)
Com os logaritmos gerados, descobre-se, através da regressão stepwise, quais as variáveis que
ficam na regressão e as que são excluidas. Para isso, faz-se o seguinte:
Quick > Estimate Equation (Stepls)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 54


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.73 – Regressão stepwise

Por esta regressão, conclui-se que as variáveis que são necessárias são: trend, lpe, limp e lgfcf.
Estas são as variáveis que serão usadas no modelo ao qual se irá aplicar os testes seguintes.

Ramsey RESET test


Para fazer este teste, estima-se uma regressão, com as variáveis acima mencionadas.
Quick > Estimate Equation – lco2 c trend lpe limp lgfcf
De seguida, depois de gerada a regressão, pode fazer-se o teste de Ramsey seguindo os seguintes
passos:
View > Stability diagnostics > Ramsey RESET test

Figura 4.74 – Ramsey RESET test

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 55


Exercícios Introdutórios de Análise Económica de Dados

Este teste também pode ser feito através do “program”, seguindo a mesma sequência de etapas,
mas recorrendo aos seguintes comandos:
Ls lco2 c trend lpe limp lgfcf
Reset.

Figura 4.75 – Ramsey test output

A hipótese nula é a de que o modelo esta bem especificado. Neste caso, não se rejeita a hipótese
nula, então o modelo está bem especificado. De seguida, clica-se em FORECAST, para criar uma
variável com o valor da regressão.

Figura 4.76 – Forecast

Os modelos nested (restringidos) são submodelos de um modelo geral, ou seja, são modelos em
que excluímos uma ou mais variáveis, mas que contém basicamente a mesma informação que o modelo
completo.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 56


Exercícios Introdutórios de Análise Económica de Dados

VD= c0+c1.wt+c2.zt+…. (4.17)

Nested

Os modelos non-nested, são modelos, em que as variáveis são distintas umas das outras. Por
exemplo, uma variável em nível e a mesma variável em logaritmos são de fato variáveis diferentes (não
transmitem a mesma informação). Uma estimação feita com variáveis em níveis não é diretamente
comparável com uma estimação com as mesmas variáveis em logaritmos. Na Eq. 4.17 seria, por
exemplo, termos wt ou lwt.

4.24. Teste “omitted variable bias”


Neste teste, verifica-se se alguma das variáveis omitidas é significante para o modelo ou não. Para
isso gera-se uma regressão (sem o gdpc):
Ls co2 c trend pe fdi gfcf
De seguida, faz-se:
View > coefficient diagnostics > omitted variables (gdpc)

Figura 4.77 – Omitted variables test

Depois da execução do passo anterior e de se ter selecionado a variável gdpc, irá aparecer o output
tal como o da Figura 4.78. É neste momento que se conclui se o gdpc é uma variável importante para o
modelo ou não.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 57


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.78 - Omitted variables test output

Dado o output da figura anterior, concluir-se que o GDPC é significante, ou seja, tem que fazer
parte do modelo.

4.25. Procedimento de Mizon e Richard


O procedimento de Mizon e Richard consiste em juntar numa só equação as variáveis em nível
com as variáveis em logaritmos e testar os coeficientes das variáveis em logaritmos através do teste de
Wald.
Primeiro estima-se a seguinte equação: co2 c trend pe imp gfcf lpe limp lgfcf. De seguida, é
necessário ver quais são os coeficientes das variáveis logaritmizadas, a fim de as submeter ao teste Wald.

Figura 4.79 - Representation

Depois da realização do passo anterior, testa-se as variáveis logaritmizadas, segundo o teste wald:
c(6)=c(7)=c(8)=0. A Figura 4.80 mostra o resultado deste teste.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 58


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.80 – Wald test

A hipótese nula é C(6)=C(7)=C(8)=0. Neste caso rejeita-se a hipótese nula, pois a probabilidade
é próxima de 0, o que quer dizer que os coeficientes não são iguais a zero.

4.26. Procedimento de Davidson e MacKinnon


Neste teste, faz-se uma regressão com as variáveis normais e outra com as variáveis em logaritmo,
e registam-se os valores ajustados (fitted) de cada regressão, a fim de os comparar, para ver qual o
melhor modelo.
Obter os valores ajustados (fitted) de uma variável:
ls y c trend x1 x2 'model1
fit(e,g) co2f1

Figura 4.81 – Model 1

ls y c trend lx1 lx2 'model 2


fit(e,g) co2f2

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 59


Exercícios Introdutórios de Análise Económica de Dados

Figura 4.82 – Model 2

Seguidamente, retira-se o FORECAST de cada um dos modelos, a fim de os comparar. Não é


necessário ter resultados que sugerem claramente qual o melhor modelo. Ambos os modelos podem ser
rejeitados ou até nenhum dos dois. Se nenhum deles for rejeitado, escolhe-se aquele com o R2 maior.
Ao rejeitar uma equação não significa necessariamente que a equação dita como a melhor seja a
alternativa correta. A situação é ainda mais difícil se os dois modelos tiverem diferentes variáveis
dependentes. Os testes foram propostos para lidar com esse problema, mas estão além do intuito deste
texto e não serão apresentados aqui.

4.27. Chow-break test


Primeiramente, faz-se uma regressão (neste caso: ls co2 c trend pe imp gfcf), seguido de:
View > stability > chow break point
(inserir a data ou o momento em que se quer o break (neste caso em 1980))

Figura 4.83 – Chow breakpoint test

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 60


Exercícios Introdutórios de Análise Económica de Dados

A Figura 4.84 apresenta o output para esta situação, em que é possível observar a hipótese nula e
através da probabilidade rejeitá-la ou não.

Figura 4.84 – Chow breakpoint test output

Assim sendo, neste caso rejeita-se a hipótese nula, que é a de não haver uma quebra em 1980,
pois a probabilidade é quase igual a zero. Após a realização deste teste pode-se afirmar que realmente
existe uma quebra no ano de 1980.

4.28. Exportar dados para formato Excel


Para exportar dados do EViews, em formato Excel, selecionam-se as variáveis pretendidas, clica-
se no botão direito do rato e de seguida clica-se em Export to file, tal como a Figura 4.85 sugere.

Figura 4.85 – Exportar dados

Este passo é útil, quando se quer guardar os dados sem ser em formato EViews, para que estes
possam ser abertos noutros programas, tais como o Excel ou STATA.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 61


Exercícios Introdutórios de Análise Económica de Dados

5. STATA
Nesta seção o aluno terá o seu primeiro contacto com o STATA. Este também é um programa
muito importante para a análise econométrica. Neste ponto serão abordados tópicos de explicação,
exposição e resultados de testes.

5.1. Importar dados em formato Excel


Antes de importar qualquer ficheiro, deve-se escrever o comando “clear all” na janela de
comandos do STATA e clicar em Enter (para correr o mesmo) de forma a ter a certeza que não há
vestígios de ficheiros anteriores.
No que toca realmente à importação de dados, primeiro devemos selecionar o separador File, de
seguida Import e, por fim, Excel spreadsheet.

Figura 5.1 – Importação de dados

Procurar o ficheiro que se pretende importar, a partir do Browse e, de seguida, clicar no “Import
first row as variable names” para que a primeira linha contenha apenas os nomes das variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 62


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.2 - Dados

Depois de importar o ficheiro, deve aparecer algo como o que está representado na Figura 5.3.
Do lado esquerdo deve aparecer a importação do ficheiro e do lado direito todas as variáveis que
importámos.

Figura 5.3 – Variavéis

5.2. Criar um ficheiro “do”


Para criar um ficheiro “do” basta clicar na imagem “Do-file Editor”; logo após esse passo será
aberta uma nova janela. Depois de aberta, temos acesso a um ficheiro “do” em branco.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 63


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.4 – Ficheiro “do”

Este ficheiro serve para executar comandos, podendo ser gravado para que numa utilização futura
não haja necessidade de escrever todos os passos novamente. Para que um comando seja executado
neste ficheiro é necessário clicar CTRL+D ou clicar no separador “do”. O ficheiro “do” atua de maneira
semelhante ao ficheiro “program” do EViews.

5.3. Formatar dados para as regressões time series


Para informar o programa de que se pretende trabalhar com as regressões time series, digita-se o
comando tsset seguindo da variável representativa do tempo. Este tipo de regressão representa uma
coleção de observações feita ao longo do tempo de maneira sequencial.

Figura 5.5 – Time series

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 64


Exercícios Introdutórios de Análise Económica de Dados

Neste caso, utilizou-se a variável year, uma vez que na base de dados usada a variável temporal
foi descrita com esse nome.

5.4. Utilizar o “help”


Para se utilizar o help escreve-se o comando: help (comando para a qual se quer ajuda) no
“do” ou diretamente na janela para comandos. Por exemplo: help (xtserial), neste caso aparece uma
janela como a da Figura 5.6.

Figura 5.6 - Help

A funcionalidade help fornece uma riqueza de informação para ajudar a aprender e a usar o
STATA. Este é um método para descobrir rapidamente como executar uma função e demais atribuições
do programa.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 65


Exercícios Introdutórios de Análise Económica de Dados

5.5. Procurar e instalar um “command”


Para procurar um command, deve inserir-se no campo indicado o seguinte: findit (comando
pretendido). Neste caso, usou-se o comando: xtscc. Posteriormente, abrir-se-á uma nova janela com
toda a explicação sobre o xtscc, como mostra a Figura 5.7.

Figura 5.7 – Procurar um command

Para instalar um command, insere-se no espaço adequado o seguinte: ssc install (o que se
pretende instalar). Por exemplo: xtscc. Depois de clicar no Enter, confirma-se se a instalação foi bem-
sucedida (ver a Figura 5.8).

Figura 5.8 – Instalar um command

Após a instalação, todos os ficheiros associados ao package estarão disponíveis. Estes packages
poderão ser facilmente desinstalados. Tais programas são ótimas fontes de aprendizagem, pois, no geral,
resolvem problemas ou facilitam tarefas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 66


Exercícios Introdutórios de Análise Económica de Dados

5.6. Efetuar operações aritméticas


Em primeiro lugar, escreve-se no comando: gen w = IMP+EXP (pode usar-se outras variáveis,
assim como executar outras operações, tais como: IMP-EXP; IMP*EXP; IMP/EXP).

Figura 5.9 – Operações aritméticas

De seguida, será gerada a nova variável. Para se consultar os valores desta operação, clica-se no
botão Data Editor.

Figura 5.10 – Data editor

Depois da execução do passo relativo à Figura 5.10, aparecerá na tela uma tabela idêntica à da
Figura 5.11, porém com uma maior dimensão, uma vez que esta apenas apresenta um excerto com duas
variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 67


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.11 – Output

Este separador apresenta todos os valores de todas as variáveis que existem, incluindo as que
foram calculadas.

5.7. Calcular logaritmos


Em primeiro lugar, para se calcular logaritmos insere-se o comando: gen lx=ln(GDPC), por
exemplo, e, depois, caso seja pretendido, pode consultar-se os valores a partir do Data Editor, como foi
demonstrado no ponto anterior. No STATA, para se calcular logaritmos utiliza-se sempre o prefixo
“ln”.
O uso de logaritmos pode mitigar ou eventualmente extinguir problemas de heterocedasticidade.
Além disso, pode também permitir relações não-lineares entre as variáveis explicada e explicativas.
Além disso, as estimativas logaritmizadas são menos sensíveis a observações extremas.

5.8. Criar uma variável tendência


Para criar uma variável tendência com o nome “t”, digita-se o seguinte comando:
gen t=_n

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 68


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.12 - Tendência

Quando as medidas de um processo são tratadas como séries temporais, a estimação da tendência
pode ser usada para fazer afirmações sobre a tendência nos dados, relacionando as medições com os
períodos em que ocorreram. O modelo pode ser utilizado para descrever o comportamento de
determinado dado observado, sem o explicar.

5.9. Apresentar a matriz de correlações


No “do” ou diretamente na janela para comandos do STATA escreve-se o comando: corr
(seguido das variáveis que se deseja utilizar), e depois de clicar no Enter aparecerá uma janela como a
da Figura 5.13.

Figura 5.13 – Matriz de correlações

A matriz de correlações permite saber qual a correlação existente entre as variáveis e, também,
inquirir à cerca da multicolinearidade das mesmas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 69


Exercícios Introdutórios de Análise Económica de Dados

5.10. Matriz de correlações com teste de nível de significância


A matriz de correlações com teste de nível de significância é gerada digitando o comando pwcorr
seguida das variáveis a serem testadas, como se pode verificar na Figura 5.14.

Figura 5.14 – Comando para a matriz de correlações com nível de significância

Depois de efetuado este passo, aparecerá então uma tabela do género do da figura seguinte.

Figura 5.15 – Matriz de correlações com nível de significância

5.11. Regressão múltipla OLS (pooled)


Para criar uma regressão múltipla OLS basta digitar o comando reg seguido da variável depende
e das variáveis independentes. O resultado deste comando é apresentado na Figura 5.16, segue-se
também a explicação de cada parâmetro.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 70


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.16 – Regressão múltipla

Uma regressão múltipla obedece a quatro propriedades: linearidade, não enviesamento,


consistência e Blueness.

5.12. Executar uma regressão sem constante


Para executar uma regressão sem constante, primeiro é necessário digitar o comando reg seguindo
da variável dependente e das variáveis independentes. Depois de digitar o comando escreve-se
“noconstant”, não esquecendo da vírgula a separar, como mostra a Figura 5.17.

Figura 5.17 – Comando para a regressão sem constante

Após a realização do passo anterior, é apresentado no painel uma imagem tal como a da Figura
5.18, com a exceção da constante, visto que o propósito do tópico era mesmo não ter a presença de tal
variável. No EViews não é realizado este passo porque, quando se insere as variáveis para a regressão,
também se tem de digitar a variável constante, ou não (caso a sua ausência seja propositada).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 71


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.18 – Regressão sem constante

Como se pode observar na Figura 5.18, não há presença da variável constante. Uma regressão
sem constante pode ser utlizada quando, por exemplo, a variável constante não é significante para o
modelo.

5.13. Representar graficamente os resíduos de uma regressão


Primeiramente, escreve-se no comando tsset year para que o tempo fique definido e, de seguida,
faz-se uma regressão com as variáveis que pretendemos. Neste caso, foram utilizadas as seguintes
variáveis: CO2, GDPC, PE e IDE.

Figura 5.19 – Regressão

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 72


Exercícios Introdutórios de Análise Económica de Dados

Seguidamente, geram-se os resíduos. Para isso, tem que se inserir o comando predict u, resid, em
que “u” é um nome dado aos resíduos. Para confirmar que os resíduos foram, efetivamente, criados basta
olhar para as variáveis, como mostra a Figura 5.20.

Figura 5.20 – Variável resíduos

Por último, insere-se o comando tsline u, de forma a gerar o gráfico dos resíduos. Após clicar no
Enter vai abrir uma nova página com o gráfico dos resíduos criado, como podemos observar na Figura
5.21.

Figura 5.21 – Gráfico dos resíduos

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 73


Exercícios Introdutórios de Análise Económica de Dados

A análise dos resíduos serve para investigar a adequabilidade do modelo.

5.14. Dummies
Para criar dummies, neste caso mensais, é necessário digitar o comando generate m1=(m==1) e
assim adiante para os 12 meses do ano, como mostra a Figura 5.22.

Figura 5.22 – Comando para criar dummies

Nota: Antes de criar as dummies mensais é necessário criar a variável “mês” da seguinte forma:
generate m=month(dofm(t)).
As dummies servem para controlar choques, como referido anteriormente, no ponto 4.15.

5.15. Obter os valores ajustados de uma variável e representá-los graficamente


Para se obter os valores ajustados de uma variável escreve-se no comando predict fitted e para
observar os valores registados deve-se ir ao Data Editor.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 74


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.23 – Gráfico dos valores ajustados de uma variável

Para representá-los graficamente, utiliza-se o comando tsline fitted e aparecerá o gráfico dos
valores ajustados de uma variável.

5.16. Executar um teste de multicolinearidade


Para executar o teste de multicolinearidade VIF é necessário realizar uma regressão em primeiro
lugar, e só depois é que se digita o comando estat vif, como indica a Figura 5.24.

Figura 5.24 – Comando para executar um teste de multicolinearidade

Após a execução dos passos anteriores, aparecerá o teste VIF, como na Figura 5.25. A primeira
coluna representa as variáveis selecionadas para o teste, a segunda os valores do VIF (aqueles em que
se terá que ter em atenção se são maiores ou menores que 10),e a última coluna os valores inversos do
teste. Por fim, a última linha do teste representa a média do VIF.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 75


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.25 - VIF

Valores VIF que excedam 10 são geralmente vistos como evidências de existência do problema
de multicolinearidade. Portanto, neste caso, a variável que tem o maior VIF (acima de 10) é a IMP.
Dado que essa variável é uma das variáveis de interesse do modelo, retiramos a segunda variável com
maior VIF que neste caso é a GDPC. Este processo deve ser repetido até restarem apenas variáveis com
um VIF inferior a 10.

5.17. Testes de especificação de modelo


Na Figura 5.26 é realizado um teste Ramsey RESET, um dos testes possíveis para testar a
especificação do modelo. Para executar o teste Ramsey RESET é necessário, em primeiro lugar, realizar
uma regressão e depois digitar o comando estat ovtest.

Figura 5.26 – Comando para o teste de especificação do modelo

Para este teste temos a seguinte hipótese nula: “H0: o modelo não tem nenhuma variável omissa,
ou seja, o modelo está bem especificado”.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 76


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.27 – Teste de especificação do modelo

Tendo em conta a Figura 5.27, observa-se que a Prob(F)=0,0098 é menor que 1%, logo rejeita-se
a hipótese nula, o que quer dizer que este modelo apresenta variáveis omissas.

5.18. Exportar dados em formato Excel


Em primeiro lugar, para exportar um ficheiro em formato Excel, clica-se em:
File > Export > Data to Excel spreadsheet.

Figura 5.28 – Exportação de dados

De seguida, escolhem-se as variáveis que é suposto exportar, e depois escreve-se um nome para
o ficheiro Excel. Por último, clica-se em “save variable names to first row in Excel file” para que a
primeira linha tenha o nome das variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 77


Exercícios Introdutórios de Análise Económica de Dados

Figura 5.29 – Exportação para Excel

Ao exportar dados para um formato Excel pode efetuar-se alterações neste, bem como fornecer
esta informação a outros indivíduos, que não vão estar restritos à utilização deste programa.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 78


Exercícios Introdutórios de Análise Económica de Dados

6. Exercício prático
Este capítulo visa aplicar de maneira prática e direta os conceitos anteriormente explicados. Nesta
secção é expectável que o leitor saiba resolver os exercícios e obter os resultados, abaixo apresentados.
Em caso de dúvidas aconselha-se a revisão dos itens anteriores para uma melhor absorção de conceitos.
6.1. Questões
Exercício A – EVIEWS
1. Construir uma base de dados, à semelhança do que foi exposto.
2. Faça a estatística descritiva para as variáveis PIB e CO2PC. Qual das duas variáveis apresenta
uma média mais elevada? Qual o valor do Jarque Bera para cada uma das variáveis? E a
probabilidade?
3. Apresente a matriz de correlações das variáveis: PEG PIB TXC e CN. Alguma das variáveis
está altamente correlacionada com outra?
4. Proceder à elaboração de uma regressão stepwise:
STEPLS CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
B. Qual é o R2?
C. Como está o DW?
5. Proceda à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
B. Qual é o R2?
C. Como está o DW?
6. Veja a autocorrelação, Segundo a equação anterior:
A. Através do método gráfico o que pode concluir (se há ou não autocorrelação e caso
haja se é positiva ou negativa)?
B. De quanto é a probabilidade do teste de autocorrelação?
C. Caso se rejeite a hipótese nula, faz-se a quantos porcento?
7. Calcule o valor de Durbin’s H para a regressão anterior, mas com a variável dependente
desfasada.
8. Heterocedasticidade:
A. Escreva o valor do teste ARCH. Rejeita-se a hipótese nula?
9. Quais são as variáveis que apresentam multicolinearidade, segundo o teste VIF?
10. Quanto à normalidade dos resíduos, diga qual o valor do Jarque Bera e o valor da
probabilidade?
11. Em relação à especificação do Modelo, faça o teste Ramsey Reset e conclua.
12. Para que ano criaria uma dummy shift? E uma dummy stability?
13. Faça o teste de pontos de quebra na raiz unitária, para cada uma das variáveis?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 79


Exercícios Introdutórios de Análise Económica de Dados

14. As variáveis são estacionárias?


15. Os parâmetros estão estáveis?

Exercício B – STATA
1. Apresenta a matriz de correlações das variáveis: RF PIB TXC e CO2PC. Alguma das variáveis
está altamente correlacionada com outra?
2. Proceder à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. Qual o valor de sum squared resid?
B. Quantos graus de liberdade tem esta regressão?
C. Qual é o valor do coeficiente de determinação?
3. Tendo em conta os resíduos da equação anterior para que ano/anos criaria dummy/ies?
4. Esta regressão apresenta multicolinearidade?
5. O que pode dizer quanto a especificação deste modelo?

6.2. Respostas
Exercício A – EVIEWS:
1. Construir uma base de dados, à semelhança do que foi exposto.
Quanto à base de dados, esta será fornecida, em anexo. Porém é necessário abri-la em formato
Excel a fim de perceber o horizonte temporal, conhecer as variáveis e o tipo de dados com que irá
trabalhar.
2. Faça a estatística descritiva para as variáveis PIB e CO2PC. Qual das duas variáveis apresenta
uma média mais elevada? Qual o valor do Jarque Bera para cada uma das variáveis? E a
probabilidade?
A variável que apresenta a média mais elevada é o PIB, como podemos comprovar pela tabela
(média=30272.16). O valor do Jarque Bera para o PIB e para o CO2PC é 2.495101 e 1.818497,
respetivamente; quanto à probabilidade, é 0.287207 e 0.402827.
3. Apresente a matriz de correlações das variáveis: PEG PIB TXC e CN. Alguma das variáveis
está altamente correlacionada com outra?
Segundo esta matriz de correlações, pode dizer-se que poderá haver indícios das variáveis PEG
e PIB estarem correlacionadas com a variável CN. Pois o valor de correlação entre a variável PEG e
CN é de 0.880688 e a da variável PIB e a CN é de 0.899434, muito próximos de 0.9, valor a partir do
qual existe correlação entre variáveis.
4. Proceder à elaboração de uma regressão stepwise:
STEPLS CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 80


Exercícios Introdutórios de Análise Económica de Dados

As variáveis EPPC e RF não são significantes, uma vez que a probabilidade é 0.2795 e 0.2320,
respetivamente.
B. Qual é o R2?
O 𝑅 é 0.971777.
C. Como está o DW?
O valor do DW é 0.787641 está um pouco afastado de dois, o que pode pressupor que se rejeita
hipótese nula, ou seja, há autocorrelação.
5. Proceda à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
Nesta regressão existem duas variáveis que não são, claramente, significantes. A variável EEPC
é uma delas, e tem como valor de probabilidade 0.2795, a outra é RF, o valor da probabilidade é 0. 2320.
Existe, também, duas variáveis que não são significantes a 10%, CO2PC e PIB.
B. Qual é o R2?
O R2 é igual a 0.971777.
C. Como está o DW?
O Durbin-Watson é igual a 0.787641, como está um pouco distante do valor 2, que indica que
não há autocorrelação, pode-se dizer que este modelo poderá ter autocorrelação.
6. Veja a autocorrelação, segundo a equação anterior:
A. Através do método gráfico o que pode concluir (se há ou não autocorrelação e caso haja
se é positiva ou negativa)?
O primeiro passo é criar a variável dos resíduos, após a estimação da regressão pretendida. Com
a exposição do gráfico não se pode concluir quanto à existência de autocorrelação.
B. De quanto é a probabilidade do teste de autocorrelação?
O teste de serial correlation rejeita a hipótese nula, não há correlação serial, com uma
probabilidade de 0,0070.
C. Caso se rejeite a hipótese nula, faz-se a quantos porcento?
A hipótese nula rejeita-se a 1%.
7. Calcule o valor de Durbin’s H para a regressão anterior, mas com a variável dependente
desfasada.
.
H= 1 − . ⇔ H= 1 − . ( . )
⇔ H=1.5326

8. Heterocedasticidade:
A. Escreva o valor do teste ARCH. Rejeita-se a hipótese nula?
O valor do teste ARCH é 0.4862. Assim sendo, não se rejeita a hipótese nula, logo não há presença
de heterocedasticidade.
9. Quais são as variáveis que apresentam multicolinearidade, segundo o teste VIF?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 81


Exercícios Introdutórios de Análise Económica de Dados

As variáveis EPPC, PEG, PIB e RF apresentam multicolinearidade, uma vez que o valor do VIF
é superior a 10.
10. Quanto à normalidade dos resíduos, diga qual o valor do Jarque Bera e o valor da probabilidade?
O Jarque-Bera é 0.746891 e a probabilidade é de 0.688359.
11. Em relação à especificação do Modelo, faça o teste Ramsey Reset e conclua.
Segundo o teste Ramsey RESET, não se rejeita a hipótese nula, probabilidade=0.1070, logo pode
assumir-se que o modelo está bem especificado.
12. Para que ano criaria uma dummy shift? E uma dummy stability?
Dummy: após a visualização dos resíduos, entende-se que deva fazer uma Stability dummy para
o período de 1986 a 1991 e uma shift dummy para o ano de 2007.
13. Faça o teste de pontos de quebra na raiz unitária, para cada uma das variáveis?
Abrir a variável > View > Unit Root Tests > Breakpoint Unit Root Test
Tabela 1. Teste de raiz unitária com quebra estrutural

Variáveis Tendência e constante Constante


T-stat Quebra T-stat Quebra
CN -2.195219 2011 -3.058905 2013
CO2PC -2.542687 2011 -2.373331 2000
EPPC -6.191876*** 1999 -5.307569*** 2000
PEG -4.567966 2013 -2.878463 2000
PIB -3.599616 2011 -2.590099 1995
RF -4.831622** 2011 -2.428256 1997
TXC -3.770289 2008 -4.705189** 2008
NOTA: ***,** e * correspondem ao nível de rejeição de 1%, 5% e 10%, respetivamente. Hipótese nula: a
variável tem raiz unitária.

14. As variáveis são estacionárias?


Para saber se as variáveis são estacionárias faz-se o teste KPSS, porém pode fazer-se com os
outros testes, por exemplo, ADF e PP. O resultado dos últimos 2 testes tem que ser contrário ao KPSS,
visto que a hipótese nula deste é a variável ser estacionária, enquanto que nos outros dois é a variável
ter uma raiz unitária. Assim sendo, quanto à estacionariedade das variáveis, podia-se concluir através
da resposta dada na questão anterior.
Quick > Series Statistics > Unit Root Test > Inserir nome da variável

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 82


Exercícios Introdutórios de Análise Económica de Dados

Tabela 2. Teste de estacionariedade – KPSS

Variáveis Tendência e constante Constante

CN 0.198529** 0.593385**

CO2PC 0.145613* 0.351466*

EPPC 0.059275 0.323899

PEG 0.219718*** 0.484871**

PIB 0.157573** 0.699116**

RF 0.137024* 0.689467**

TXC 0.108226 0.440233*

NOTA: ***,** e * correspondem ao nível de rejeição de 1%, 5% e 10%, respetivamente. Hipótese


nula: a variável é estacionária.

15. Os parâmetros estão estáveis, utilizando a regressão inicial?


View > Stability Diagnostics > Recursive Estimates > CUSUM Test
Através do gráfico conclui-se que os parâmetros estão estáveis, uma vez que a linha CUSUM se
encontra dentro da significância de 5%.

Exercício B – STATA:
1. Apresenta a matriz de correlações das variáveis: RF PIB TXC e CO2PC. Alguma das
variáveis está altamente correlacionada com outra?
Sim, as variáveis PIB e RF estão altamente correlacionadas, com um valor igual a 0.9911.
2. Proceder à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. Qual o valor de sum squared resid?
O valor do RSS é 4.42652182.
B. Quantos graus de liberdade tem esta regressão?
Esta regressão tem 23 graus de liberdade.
C. Qual é o valor do coeficiente de determinação?
O valor do R2 é igual a 0.9863.
3. Tendo em conta os resíduos da equação anterior para que ano/anos criaria dummy/ies?
Para esta base de dados poderia criar-se uma shift dummy para o ano 2011 e uma Stability dummy
de 1986 a 1992.
4. Esta regressão apresenta multicolinearidade?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 83


Exercícios Introdutórios de Análise Económica de Dados

À exceção da variável TXC, todas as outras não passam no teste VIF porque os valores são
superiores a 10. Assim sendo, todas estas variáveis apresentam multicolinearidade.
5. O que pode dizer quanto a especificação deste modelo?
Segundo o teste Ramsey Reset, este modelo está mal especificado, ou seja, há variáveis omissas
no modelo. A probabilidade do teste foi 0.0619.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 84


PARTE 2

TÓPICOS AVANÇADOS DE ECONOMETRIA


Exercícios Introdutórios de Análise Económica de Dados

7. Integração de variáveis
Para perceber o conceito de integração de variáveis é necessário primeiro perceber o que é uma
raiz unitária. Uma raiz unitária é uma tendência estocástica existente numa determinada série temporal.
Se uma série temporal contiver uma raiz unitária quer dizer que esta demonstra um padrão sistemático
imprevisível.
Depois de compreendido este conceito, passamos agora para outro de extrema importância:
estacionariedade. Dizemos que uma série é estacionária se as propriedades básicas da sua distribuição
(média, variância, covariância) forem constantes ao longo do tempo, o que é visto como uma situação
ideal.
Se uma série apresentar raízes unitárias podemos transformá-la em estacionária aplicando-lhe a
transformação por diferenças. As diferenças são indicadas por I(d), onde o d representa a ordem de
integração. Séries não-estacionárias que podem ser transformadas desta forma são então chamadas de
séries integradas de ordem k. Resumindo:

número de vezes que se


ordem de integração de uma número de raízes
= diferenciou a série de forma a =
série unitárias
torna-la estacionária

Dado que o EViews é uma ferramenta que apresenta, neste capítulo, melhores funcionalidades do
que o STATA, os exemplos aqui apresentados serão baseados na utilização deste.

7.1. Análise gráfica


Normalmente os dados apresentam comportamentos não-estacionários, isto é, têm médias,
variâncias, covariâncias que se alteram com o passar do tempo. O comportamento não estacionário pode
estar presente nas séries em forma de uma tendência (trend), de um ciclo (cycle), de um passeio aleatório
(random walk), ou como combinações destes três.
Como foi anteriormente referido, a não estacionaridade de uma série impede que esta seja usada
na construção de modelos económicos, pois a sua imprevisibilidade não permite obter resultados
consistentes. Devido a este facto, e de modo a conseguir obter resultados fiáveis, existe a necessidade
de transformar as séries em estacionárias, o que normalmente acontece através da diferenciação da série
(ver ponto 4.5). Exemplos de outros tipos de transformações por vezes utilizados são: deflação,
transformação em logaritmos (ver ponto 4.4), ajustes sazonais, e “de-trending”.
A análise da estacionaridade de uma série pode ser feita através dos testes de raízes unitárias (os
quais serão explicados posteriormente) mas também visualmente através da análise gráfica da série (ver
ponto 4.8). De seguida apresentamos um exemplo de uma série estacionária (Figura 7.1) e não
estacionária (Figura 7.2).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 86


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.1 – Série estacionária Figura 7.2 - Série não estacionária

Como podemos ver, na primeira figura (Figura 7.1) o comportamento da série parece não se
alterar com o passar do tempo, isto é, as propriedades básicas da sua distribuição parecem ser
constantes ao longo do tempo, o que quer dizer que a série apresenta um comportamento estacionário.
Visualmente, também podemos apurar para a presença de comportamentos não estacionários
percebendo graficamente se a série não apresenta uma média constante e uma variância constante, ou
se existe uma tendência. Posto isto, é fácil de confirmar que no caso da segunda figura (Figura 7.2) a
série não é, de todo, estacionária.

7.2. Correlogramas
Outra forma de investigar se uma série é estacionária ou não, é através da realização e
inspeção de correlogramas. Para aceder ao correlograma de uma determinada série, fazemos duplo
clique na variável e clicamos seguidamente em:
View > Correlogram
Depois escolhemos as especificações que queremos (level,1st difference, 2nd difference; lags
to include) e clicamos em OK.

Figura 7.3 – Correlogram Specification

Seguidamente é apresentado o exemplo do correlograma da variável gdpc em level e com 20


lags.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 87


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.4 – Correlograma da variável gdpc

Ao inspecionar o correlograma da variável, devemos ter atenção aos seguintes pormenores:


Se os valores de AC caem imediatamente de 1 para 0, e se mantêm à volta de 0 nos momentos
posteriores, então a série é estacionária.
Se os valores de AC caem gradualmente de 1 para 0 durante um longo período de tempo,
então a série não é estacionária.
Estas duas situações podem ser igualmente inferidas através das barras que se encontram por
baixo da “Autocorrelation”.
Também podemos confirmar a estacionaridade de uma série através do Q-estatístico (Q-Stat).
O Q-estatístico pode ser usado para verificar se as funções de autocorrelação (AC) no seu conjunto são
iguais a zero. Se for este o caso, então estamos na presença de uma série estacionária que segue a
distribuição do qui-quadrado, onde a hipótese nula é a de que as funções de autocorrelação (AC) no
seu conjunto são iguais a zero.
No caso do nosso exemplo, é fácil verificar que a variável gdpc provavelmente não será
estacionária, tanto pelas barras e valores de AC como pelo Q-estatístico.

7.3. Teste de Dickey–Fuller (DF)


Passando para os testes de raiz unitária, podemos começar por falar do teste de Dickey-Fuller
(DF), que é baseado num modelo autorregressivo de primeira ordem, AR (1), e tem como hipótese nula
a existência de uma raiz unitária, isto é, a série não é estacionária. Devido à possibilidade de este teste
criar um problema de autocorrelação, Dickey e Fuller desenvolveram uma forma alargada deste teste
baseada numa estrutura de um modelo autorregressivo de médias móveis, ARMA(p,q), chamado de

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 88


Exercícios Introdutórios de Análise Económica de Dados

augmented Dickey-Fuller (ADF) test. Desta forma, o teste DF pode então ser considerado um caso
particular do teste ADF, o qual será explicado no ponto seguinte.

7.4. Teste aumentado de Dickey–Fuller (ADF)


Dado o que foi dito no ponto anterior, podemos agora passar para um exemplo prático de como
testar para presença de raízes unitárias utilizando o teste ADF. Relembra-se ainda que a hipótese nula
deste teste é igual à do teste DF, ou seja:

H0: tem raiz unitária (a série não é estacionária);


H1: não tem raiz unitária (a série é estacionária).

Suponhamos que queremos analisar se uma variável tem uma raiz unitária. Depois de fazer
duplo clique na variável fazemos:
View > Unit-Root Test
No menu Test Type escolhemos a opção Augmented Dickey-Fuller.

Figura 7.5 – ADF (step 1)

De seguida especificamos se queremos testar a existência de raiz unitária em nível (level),


primeiras diferenças (1st difference) ou segundas diferenças (2nd difference). Segundo a teoria, devemos
começar por escolher a opção level e depois, se for apropriado, testar o que acontece em 1st difference
e 2nd difference, respetivamente.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 89


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.6 – ADF (step 2)

Seguidamente, temos também de optar se queremos incluir no teste uma constante (intercept),
uma constante e uma tendência (trend and intercept), ou nenhuma destas opções (none).

Figura 7.7 – ADF (step 3)

Tanto no caso anterior (step 1) como neste último (step 2) devemos testar com as três opções
disponíveis: level + intercept; level + trend and intercept; level + none; 1st difference + intercept; 1st
difference + trend and intercept; 1st difference + none; 2st difference + intercept; 2st difference + trend
and intercept; 2st difference + none.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 90


Exercícios Introdutórios de Análise Económica de Dados

O passo que se segue corresponde à escolha do número de desfasamentos (lags) a serem incluídos
no teste de maneira a contornar a possível presença de correlação serial (serial correlation). Neste caso,
as opções são: (1) user specified, (2) automatic selection.

Figura 7.8 – ADF (step 4)

A primeira opção – user specified – é escolhida quando queremos testar um número de


desfasamentos pré-determinados e, portanto, depois de escolhida esta opção, devemos introduzir o
número de desfasamentos que queremos testar. Se por outro lado escolhermos a segunda opção –
automatic selection – devemos escolher o critério que queremos que o EViews adote na procura do
número ótimo de desfasamentos. Normalmente esta escolha prende-se entre o akaike info criterion ou
o schwarz info criterion.
De seguida apresentamos, como exemplo, o resultado do teste ADF para a variável gdpc com as
opções level, intercept, e automatic selection (schwarz info criterion) selecionadas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 91


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.9 – Resultados do teste ADF

Como podemos ver pela figura anterior (Figura 7.9), o EViews mostra-nos a estatística do teste
ADF na parte superior e a regressão utilizada no teste na parte inferior. A hipótese nula (tem raiz unitária
ou a série não é estacionária) será rejeitada se o valor da estatística ADF for menor que o valor critico.
No nosso caso específico, a hipótese nula não se rejeita, pois, o valor estatístico do teste (0.457488) é
maior que os valores críticos a 10% (-2.603944), 5% (-2.931404), e 1% (-3.592462). Assim sendo,
podemos dizer que gdpc tem raiz unitária, não é estacionária.

7.5. Teste de Phillips–Perron (PP)


Outro dos testes que é habitualmente usado para testar a presença de raízes unitárias nas séries é
o teste de Phillips-Perron (PP). Este teste é uma generalização do teste de Dickey-Fuller e é robusto no
caso de os erros serem correlacionados e heterocedásticos. As hipóteses do teste, tal como no caso do
teste ADF, são:

H0: tem raiz unitária (a série não é estacionária);


H1: não tem raiz unitária (a série é estacionária).

No que diz respeito aos passos necessários para a sua execução, podemos dizer que estes são
muito semelhantes aos que foram aplicados no caso do teste ADF que realizámos no ponto anterior.
Primeiro fazemos duplo clique na variável e seguidamente selecionamos:
View > Unit-Root Test
Neste caso, no menu Test Type escolhemos a opção Phillips–Perron.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 92


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.10 – PP (step 1)

Mais uma vez especificamos se queremos testar a existência de raiz unitária em nível (level),
primeiras diferenças (1st difference) ou segundas diferenças (2nd difference).

Figura 7.11 – PP (step 2)

Devendo depois escolher se queremos incluir no teste uma constante (intercept), uma constante e
uma tendência (trend and intercept), ou nenhuma destas opções (none).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 93


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.12 – PP (step 3)

De seguida, devemos escolher uma das opções relativas ao spectral estimation method.
Aconselha-se a utilizar a opção default, que corresponde ao método de estimação de bartlett kernel.

Figura 7.13 – PP (step 4)

Seguidamente, relativamente às opções de bandwidth, podemos escolher a automatic selection ou


a user specified. Aconselha-se a escolher a opção Newey-West Bandwidth na janela referente à automatic
selection.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 94


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.14 – PP (step 5)

De seguida apresentamos, como exemplo, o resultado do teste PP para a variável gdpc com as
opções level, intercept, default (bartlett kernel) e automatic selection (newey-west bandwidth)
selecionadas.

Figura 7.15 – Resultados do teste PP

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 95


Exercícios Introdutórios de Análise Económica de Dados

Pela Figura 7.15, e tal como no caso do teste ADF, o EViews mostra-nos a estatística do teste PP
na parte superior e a regressão utilizada no teste na parte inferior. A hipótese nula (tem raiz unitária ou
a série não é estacionária) será rejeitada se o valor da estatística PP for menor que o valor critico. No
nosso caso específico, a hipótese nula não se rejeita, pois, o valor estatístico do teste (0.832972) é maior
que os valores críticos a 10% (-2.603064), 5% (-2.929734), e 1% (-3.588509). Assim sendo, podemos
dizer que gdpc tem raiz unitária, não é estacionária.

7.6. Teste de Kwiatkowski–Phillips–Schmidt–Shin (KPSS)


Por último, podemos ainda falar do teste Kwiatkowski–Phillips–Schmidt–Shin (KPSS). Este teste
é visto como um teste de confirmação aos anteriores (ADF, PP). As suas hipóteses, ao contrário do caso
dos testes anteriores, são:

H0: não tem raiz unitária (a série é estacionária);


H1: tem raiz unitária (a série não é estacionária).

Tal como no caso dos testes anteriores, o primeiro passo para a realização deste teste é fazer duplo
clique na variável e seguidamente selecionar:
View > Unit-Root Test
Neste caso, no menu Test Type escolhemos a opção Kwiatkowski–Phillips–Schmidt–Shin.
Como neste caso, os passos para a realização do teste KPSS são em tudo idênticos aos efetuados
na execução do teste PP, vamos dispensar a apresentação destes. De referir que neste teste temos de
optar entre incluir uma constante (intercept) ou uma constante e uma tendência (trend and intercept),
pois a opção none não está disponível.
Passando então diretamente para o resultado do teste KPSS, na figura que se segue é apresentado
o resultado do teste para a variável gdpc com as opções level, intercept, default (bartlett kernel) e
automatic selection (newey-west bandwidth) selecionadas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 96


Exercícios Introdutórios de Análise Económica de Dados

Figura 7.16 – Resultados do teste KPSS

Neste caso, a hipótese nula (não tem raiz unitária ou a série é estacionária) será rejeitada se o
valor da estatística KPSS for maior que o valor critico. Neste caso específico, a hipótese é rejeitada,
pois, o valor estatístico do teste (0.846973) é maior que o valor critico a 10% (0.347000), 5% (0.463000),
e 1% (0.739000). Assim sendo, podemos dizer que gdpc tem raiz unitária, não é estacionária, o que
confirma os resultados obtidos nos testes anteriores.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 97


Exercícios Introdutórios de Análise Económica de Dados

8. Previsões: modelos ARMA/ARIMA/SARIMA


Existem diferentes modelos de previsão para séries temporais. Neste capitulo apresentar-se-á as
previsões que podem ser obtidas através de modelos da família AR(p) MA(q), ou seja, Auto-Regressivo
e de Média Móvel, respectivamente.

8.1. Modelos autorregressivos (AR) e de média móvel (MA)


A especificação do ARMA é a seguinte:
ARMA (p, q) (8.1)

Onde (p) é a ordem do autoregressivo e (q) é a ordem da média móvel.

Já a especificação do ARIMA - Auto-Regressivo Integrado de Médias Móveis (Autoregressive


Integrated Moving Average) é dada por:

ARIMA (p, d, q) (8.2)

Onde o (d) é a diferenciação para obter a estacionáriedade.

Por fim, a especificação do SARIMA é:

SARIMA (p, d, q)(P, D, Q) (8.3)

Onde consta a componente sazonal.

E quando é que se devem utilizar estes modelos? Sempre que na amostra existam shocks não
observados. É recomendado também para séries temporais com informações mensais entre 5 e 10 anos,
com alguma indicação de não estacionariedade (para o caso dos ARIMA e SARIMA).
O objetivo deste capítulo é apresentar a ferramenta Automatic ARIMA Selection que facilita o
processo de previsões em séries temporais no EViews (ver página 19 para instalar o Add-ins). A nossa
série foi criada inserindo valores aleatórios de fevereiro de 2010 (2018M02) a dezembro de 2017
(2018M12). Neste modelo não vamos usar um bloco de programação, mas vamos apresentar, em
momento oportuno, os códigos relativos a algumas funções.
Após criar um novo Workfile e importar os dados a serem previstos (detalhes de como importar
dados no EViews podem ser vistos na página 16), deve-se verificar a estacionariedade da amostra.
Abaixo, na Figura 8.1 é possível fazer a primeira verificação através da análise gráfica.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 98


Exercícios Introdutórios de Análise Económica de Dados

A - Em nível B - Em nível logaritmizado


200,000 13

12
160,000

11
120,000

10
80,000
9

40,000
8

0 7
2010 2011 2012 2013 2014 2015 2016 2017 2010 2011 2012 2013 2014 2015 2016 2017

C - Em primeiras diferenças após a logaritmização


2

-1

-2

-3
2010 2011 2012 2013 2014 2015 2016 2017

Figura 8.1 – Análise gráfica da estacionariedade

Na figura “A”, vê-se claramente a componente sazonal. Na figura “B”, o processo de


logaritmização permite a redução da heterocedasticidade, mas ainda se nota a presença de uma forte
sazonalidade. Por fim, na figura “C”, a série é claramente estacionária após efectuadas as primeiras
diferenças, porém, a componente sazonal ainda é muito forte. O facto de se detetarem alguns outliers
através da análise gráfica, leva a que, possivelmente, seja necessário controlá-los através do uso de
variáveis dummies.
Após a análise gráfica, as boas práticas apontam para o uso de testes para verificar a
estacionariedade da série, nomeadamente, o KPSS - Kwiatkowski-Phillips-Schmidt-Shin. Além disso,
foram também utilizados dois testes para verificar a presença de raizes unitárias, nomeadamente,o ADF
- Augmented Dickey-Fuller; e o Phillips-Perron), detalhes na Figura 8.2.

KPSS – Em nível com constante KPSS – Em nível com constante e tendência

LM-Stat. LM-Stat.

0.026933 0.025719
0.739000 0.216000
0.463000 0.146000
0.347000 0.119000

KPSS – Em primeira diferença com constante KPSS – Em primeira diferença com constante e tendência

LM-Stat. LM-Stat.

0.118544 0.078096
0.739000 0.216000
0.463000 0.146000
0.347000 0.119000

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 99


Exercícios Introdutórios de Análise Económica de Dados

ADF
omatic - based on SIC, – Em nível com constante e tendência
maxlag=11) ADF – Em primeira diferença com constante e tendência

t-Statistic Prob.* t-Statistic Prob.*

-1.304307 0.8800 -22.79339 0.0001


-4.072415 -4.072415
-3.464865 -3.464865
-3.158974 -3.158974

ADF – Em nível com constante ADF – Em primeira diferença com constante

t-Statistic Prob.* t-Statistic Prob.*

-0.921215 0.7769 -22.82604 0.0001


-3.511262 -3.511262
-2.896779 -2.896779
-2.585626 -2.585626

ADF – Em nível sem constante e tendência ADF – Em primeira diferença sem constante e tendência

t-Statistic Prob.* t-Statistic Prob.*

0.732544 0.8710 -22.88823 0.0000


-2.593121 -2.593121
-1.944762 -1.944762
-1.614204 -1.614204

PP – Em nível com constante e tendência PP – Em primeira diferença com constante e tendência


Adj. t-Stat Prob.* Adj. t-Stat Prob.*

-4.491589 0.0026 -13.24334 0.0000


-4.058619 -4.059734
-3.458326 -3.458856
-3.155161 -3.155470

PP – Em nível com
Bandwidth: 17constante PP –Bartlett
(Newey-West automatic) using Em primeira
kernel diferença com constante

Adj. t-Stat Prob.* Adj. t-Stat Prob.*

-4.536160 0.0003 -13.42119 0.0001


-3.501445 -3.502238
-2.892536 -2.892879
-2.583371 -2.583553

PP –Bartlett
wey-West automatic) using Em nível sem constante
kernel
Bandwidth: PP –using
e tendência automatic)
17 (Newey-West Em primeira diferença sem constante e tendência
Bartlett kernel

Adj. t-Stat Prob.* Adj. t-Stat Prob.*

-0.343840 0.5587 -13.53292 0.0000


-2.589795 -2.590065
-1.944286 -1.944324
-1.614487 -1.614464

Figura 8.2 – Estacionáriedade e raiz unitária (série logaritmizada)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 100
Exercícios Introdutórios de Análise Económica de Dados

Como os testes de raiz unitária apontam para a presença de raizes unitárias (o que por sua vez
aponta para a não estacionariedade da série), o processo de diferenciação da variável dependente será
executado em momento oportuno.
Na Figura 8.3, apresentam-se as opções de especificação de entrada para o Automatic ARIMA
Selection.

Figura 8.3 – Especificações Automatic ARIMA Selection.

Na Figura 8.4, apresenta-se o resultado parcial do Automatic ARIMA Selection.

Figura 8.4 – Output parcial Automatic ARIMA Selection

A Figura 8.5 apresenta as definições dos output parciais do Automatic ARIMA Selection.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 101
Exercícios Introdutórios de Análise Económica de Dados

especificação do erro autoregressivo sazonal

especificação do erro autoregressivo

especificação do erro de média móvel

especificação de diferença

especificação de erro de média móvel sazonal


Figura 8.5 – Definições dos outputs parciais do Automatic ARIMA Selection

Neste exemplo a sugestão é que se utilize AR 3, MA 1, SAR 12 e SMA 12, sem aplicar diferenças
na variável dependente. O que vamos respeitar para a estimação ARMA. Porém para o ARIMA a
diferença será executada conforme mencionado anteriormente. De seguida, apresentamos o resultado
completo do Automatic ARIMA Selection (Figura 8.6).

Figura 8.6 - Outputs ARIMA Selection

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 102
Exercícios Introdutórios de Análise Económica de Dados

Vê-se que os resultados mostram uma falha após um determinado n de interações, ou seja, a
especificação para a estimação necessitará de ser ajustada com outro método de especificação. A forma
convencional para obter os componentes ARMA é a análise dos correlogramas que podem ser usados
complementando a ferramenta aqui apresentada (e também utilizada por Fuinhas et al., 2017), o que
reforça os resultados da especificação.
A regressão para previsão ARMA teve a seguinte especificação (Figura 8.7):

Dependent Variable: LALEATORIO


Method: ARMA Maximum Likelihood (BFGS)
Date: 12/21/18 Time: 16:52
Sample: 2011M06 2017M12
Included observations: 79
Convergence achieved after 116 iterations
Coefficient covariance computed using outer product of gradients

Variable Coefficient Std. Error t-Statistic Prob.

C 10.40676 0.368059 28.27469 0.0000


AR(1) -0.485526 0.132619 -3.661048 0.0005
AR(2) -0.734993 0.117656 -6.246948 0.0000
SAR(12) 0.999999 3.56E-06 281191.3 0.0000
MA(1) 0.526611 0.088475 5.952083 0.0000
MA(2) 0.956800 0.093114 10.27556 0.0000
SMA(12) -0.996095 0.001377 -723.1479 0.0000
SIGMASQ 0.054002 0.010745 5.026041 0.0000

R-squared 0.947419 Mean dependent var 10.42055


Adjusted R-squared 0.942235 S.D. dependent var 1.019901
S.E. of regression 0.245127 Akaike info criterion 0.842216
Sum squared resid 4.266192 Schwarz criterion 1.082160
Log likelihood -25.26751 Hannan-Quinn criter. 0.938344
F-statistic 182.7564 Durbin-Watson stat 1.930113
Prob(F-statistic) 0.000000

Inverted AR Roots 1.00 .87+.50i .87-.50i .50-.87i


.50+.87i .00+1.00i -.00-1.00i -.24+.82i
-.24-.82i -.50+.87i -.50-.87i -.87-.50i
-.87+.50i -1.00
Inverted MA Roots 1.00 .87+.50i .87-.50i .50+.87i
.50-.87i .00+1.00i -.00-1.00i -.26+.94i
-.26-.94i -.50+.87i -.50-.87i -.87-.50i
-.87+.50i -1.00

Figura 8.7 – Regressão ARMA

Reparem que o R-Squared e o Adjusted R-squared possuem ótimos valores, além da


probabilidade estatística ser significante para toda a especificação. Recorda-se que é suposto a presença
da constante nos modelos mais gerais.
É importante ressalvar que ao aplicar a ferramenta o sistema executará um ajustamento
automático na amostra. Quando se utiliza o limite mínimo de observações é importante corrigir o Sample
para se evitar que o EViews passe a considerar daí em diante aquele que foi o período cconsiderado na

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 103
Exercícios Introdutórios de Análise Económica de Dados

sua última estimação. Para se restaurar o período inicial temos de digitar na opção Sample, na caixa
Equation Estimation o período da amostra, que no nosso caso seria: “smpl 2010m02 2017m12”.
Neste capitulo não executámos esta correção porque há um número superior ao mínimo exigido
pelo método e a perda das primeiras observações não seria um problema. Porém ainda é necessário
alargar o End date para que a previsão possa ser estimada e os outputs visualizados. Neste exemplo a
série temporal é mensal por isso o período alargado são doze meses (Figura 8.8).

Figura 8.8 – Período de previsão

Após esta operação podemos estimar os dois tipos de previsão: “dinâmico” e “estático” (Figura
8.9).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 104
Exercícios Introdutórios de Análise Económica de Dados

Previsão dinâmica
20
Forecast: LALEATORIOF
18
Actual: LALEATORIO
16 Forecast sample: 2011M06 2018M12
14 Adjusted sample: 2012M08 2018M12
Included observations: 77
12
Root Mean Squared Error 0.386546
10 Mean Absolute Error 0.285425
8 Mean Abs. Percent Error 2.748883
Theil Inequality Coef. 0.018556
6
Bias Proportion 0.063111
4 Variance Proportion 0.025964
2 Covariance Proportion 0.910925
2012 2013 2014 2015 2016 2017 2018 Theil U2 Coefficient 0.389264
Symmetric MAPE 2.777425
LALEATORIOF ± 2 S.E.

Previsão estática
18
Forecast: LALEATORIOF
16 Actual: LALEATORIO
Forecast sample: 2011M06 2018M12
14
Adjusted sample: 2012M08 2018M01
12
Included observations: 66
Root Mean Squared Error 0.287837
10 Mean Absolute Error 0.219194
Mean Abs. Percent Error 2.092414
8 Theil Inequality Coef. 0.013780
Bias Proportion 0.022405
6
Variance Proportion 0.022630
4 Covariance Proportion 0.954964
III IV I II III IV I II III IV I II III IV I II III IV I II III IV I Theil U2 Coefficient 0.282459
2012 2013 2014 2015 2016 2017 2018 Symmetric MAPE 2.104037

LALEATORIOF ± 2 S.E.

Figura 8.9 – Previsões ARMA

O melhor método de previsão deve ser verificado através da estatística de Theil. Os critérios de
avaliação são: U=1 o método naive é bom como a técnica de previsão; U<1 a técnica de previsão usada
é melhor que o método naive; U>1 não faz sentido usar o método formal de previsão. O método em
avaliação (naive) é o ideal para a previsão. Com base na estatística, deve-se optar entre um dos métodos,
podendo-se apresentar os dois.
Outra informação importante para análise da previsão é que, para o Bias Proportion e a Variance
Proportion quanto mais próximo de zero estiverem os valores melhor, e para a Covariance Proportion
quanto mais afatstados de zero melhor.

8.2. Metodologia de Box–Jenkins


Esta metodologia é utilizada para construir modelos paramétricos de séries temporais
univariadas, ou seja, compostos apenas pela variável dependente. A metodologia de Box-Jenkins para
previsão baseia-se no ajuste do modelo ARIMA, onde os próprios dados indicam como deve ser feita a
estruturação do modelo.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 105
Exercícios Introdutórios de Análise Económica de Dados

Algumas generalizações do modelo são: ARIMA e ARIMA Sazonal (comumente conhecido


como SARIMA). O segundo modelo é aplicável na presença de um componente sazonal (SAR).
Trabalhando com a variável em primeiras diferenças, a melhor especificação para a previsão foi
AR 2, MA 3, SAR 12 e SMA 12 (detalhes da regressão na Figura 8.10):

Dependent Variable: DLALEATORIO


Method: ARMA Maximum Likelihood (BFGS)
Date: 12/21/18 Time: 22:15
Sample: 2011M07 2017M12
Included observations: 78
Convergence achieved after 125 iterations
Coefficient covariance computed using outer product of gradients

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) -0.493584 0.138463 -3.564722 0.0007


AR(2) -0.743899 0.116756 -6.371401 0.0000
SAR(12) 0.999996 1.33E-05 75194.42 0.0000
MA(1) -0.466929 0.096935 -4.816920 0.0000
MA(2) 0.434335 0.100409 4.325640 0.0000
MA(3) -0.956777 0.098679 -9.695879 0.0000
SMA(12) -0.988571 0.005117 -193.1748 0.0000
SIGMASQ 0.053626 0.011435 4.689854 0.0000

R-squared 0.943875 Mean dependent var -0.029364


Adjusted R-squared 0.938262 S.D. dependent var 0.983808
S.E. of regression 0.244448 Akaike info criterion 0.856056
Sum squared resid 4.182842 Schwarz criterion 1.097769
Log likelihood -25.38617 Hannan-Quinn criter. 0.952818
Durbin-Watson stat 1.952203

Inverted AR Roots 1.00 .87+.50i .87-.50i .50+.87i


.50-.87i .00+1.00i -.00-1.00i -.25-.83i
-.25+.83i -.50+.87i -.50-.87i -.87-.50i
-.87+.50i -1.00
Inverted MA Roots 1.00 1.00 .87-.50i .87+.50i
.50-.87i .50+.87i .00-1.00i -.00+1.00i
-.26+.94i -.26-.94i -.50+.87i -.50-.87i
-.87+.50i -.87-.50i -1.00

Figura 8.10 – Regressão ARIMA

Na Figura 8.11 podemos ver os resultados da previsão dinâmica e estática.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 106
Exercícios Introdutórios de Análise Económica de Dados

Previsão dinâmica
3
Forecast: DLALEATORIF
2 Actual: DLALEATORIO
Forecast sample: 2011M06 2018M12
1 Adjusted sample: 2012M09 2018M12
Included observations: 76
0 Root Mean Squared Error 0.582487
Mean Absolute Error 0.462494
-1 Mean Abs. Percent Error 244.2163
Theil Inequality Coef. 0.301027
-2 Bias Proportion 0.000119
Variance Proportion 0.002085
-3 Covariance Proportion 0.997796
2012 2013 2014 2015 2016 2017 2018 Theil U2 Coefficient 0.082474
Symmetric MAPE 93.60536
DLALEATORIF ± 2 S.E.

Previsão estática
3
Forecast: DLALEATORIF
2 Actual: DLALEATORIO
Forecast sample: 2011M06 2018M12
1
Adjusted sample: 2012M09 2018M01
Included observations: 65
0
Root Mean Squared Error 0.278510
-1 Mean Absolute Error 0.213319
Mean Abs. Percent Error 321.3509
-2 Theil Inequality Coef. 0.145734
Bias Proportion 0.013717
-3
Variance Proportion 0.035052
-4 Covariance Proportion 0.951231
III IV I II III IV I II III IV I II III IV I II III IV I II III IV I Theil U2 Coefficient 0.027060
2012 2013 2014 2015 2016 2017 2018 Symmetric MAPE 53.50417

DLALEATORIF ± 2 S.E.

Figura 8.11 – Previsões ARIMA

Os valores das previsões estática e dinâmica são muito próximos. Reafirmando a boa capacidade
preditiva da variável utilizada neste capítulo. Como se trata de uma série aleatória, criada com finalidade
pedagógica, era esperado que tal acontecesse.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 107
Exercícios Introdutórios de Análise Económica de Dados

9. Modelos ARCH-GARCH
Neste capítulo vamos ver um tipo de técnica econométrica que modeliza em simultâneo a
equação da média e a equação da variância. Estes modelos são especialmente adequados quando temos
a presença de heterocedasticidade condicional nos resíduos dos nossos modelos económicos ou
financeiros. OS dados deste tópico encontram-se disponíveis no anexo Excel-Eviews nas folhas SP500.
A rendibilidade dos ativos financeiros é normalmente composta por momentos de relativa
calmaria seguidos de períodos tempestuosos. Este fenómeno é facilmente detetado graficamente como
podemos ver na Figura 9.1.

Figura 9.1 – Rendibilidades diárias do índice bolsista S&P 500

Para modelizarmos a volatilidade do índice bolsista norte americano S&P500, vamos em


primeiro lugar importar os dados deste índice no sítio “Yahoo! Finance, world indices”,
https://finance.yahoo.com/world-indices (Symbol ^GSPC).

9.1. Teste de efeitos ARCH


O teste ARCH baseia-se na informação que os resíduos estimados desfasados possuem
relativamente aos resíduos estimados contemporâneos. Se o passado tiver poder explicativo sobre o
presente podemos ter efeitos ARCH.
Pare se efetuar o teste ARCH, primeiro estimamos a regressão pelo método dos mínimos
quadrados com especificação da Eq. 9.1.
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.1)
De seguida, obtemos os resíduos da regressão (resíduos estimados) e fazemos uma nova
regressão, em que fazemos os resíduos contemporâneos da regressão da equação anterior dependerem
de uma constante e de valores desfasados dos próprios resíduos estimados tal como está especificado na
Eq. 9.2.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 108
Exercícios Introdutórios de Análise Económica de Dados

𝜇̂ = 𝛾 + 𝛾 𝜇̂ + 𝛾 𝜇̂ +⋅⋅⋅ +𝛾 𝜇̂ +𝜔 (9.2)

O teste ARCH é baseado na hipótese nula de homocedasticidade (Eq. 9.3).

0 = 𝛾 =⋅⋅⋅= 𝛾 (9.3)
Vejamos se temos efeitos ARCH nas rendibilidades diárias do índice bolsista S&P 500. Em
primeiro lugar vamos fazer a regressão das rendibilidades diárias numa constante (Figura 9.2).

Figura 9.2 – Regressão das rendibilidades diárias do S&P500

De seguida fazemos o teste ARCH de ordem um (Figura 9.3) e o teste de ordem cinco (Figura
9.4). O EViews apresenta dois testes para os efeitos ARCH, um teste F e um teste de qui-quadrado (o
mais utilizado). A hipótese nula do teste é: H0: Homocedasticidade. Assim, podemos concluir que
rejeitamos H0, isto é, estamos na presença de heterocedasticidade (neste caso condicional). Este
resultado suporta que a modelização das rendibilidades diárias do índice S&P500 deverá ser feita
recorrendo a modelos do tipo ARCH.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 109
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.3 – Teste ARCH de ordem 1

Figura 9.4 – Teste ARCH de ordem 5

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 110
Exercícios Introdutórios de Análise Económica de Dados

9.2. Estimação
A modelização da variância de um modelo ARCH é feita com o recurso a métodos numéricos.
Uma consequência deste tipo de otimização é que podemos obter resultados muito diferentes
dependendo das condições inicias que são consideradas ou do próprio algoritmo de otimização que
utilizarmos. Por uma questão de segurança nos resultados obtidos, devemos estimar o modelo com
diferentes condições de partida e com diferentes algoritmos de otimização.
Para estimarmos, no EViews, um modelo ARCH seguimos os procedimentos iniciais habituais:
Quick / Estimate Equation… / Method: ARCH – Autoregressive Conditional Heteroskedasticity. A
janela utilizada para introduzir as especificações desejadas é o que aparece na Figura 9.5.

Figura 9.5 – Janela da regressão ARCH

A especificação da distribuição condicional dos erros, é feita na janela “Error distribution”. Pode-
se escolher entre distribuição Normal (Gaussian), a distribuição t de Student (Student’s t), e a
distribuição Erro Generalizado (GED). No caso da distribuição t de Student e GED tem, ainda, de ser
definido o parâmetro fixo. A distribuição t de Student converge para a lei Normal à medida que 𝜈 ⟶
∞. A distribuição GED tem uma distribuição normal quando r = 2, e tem caudas grossas (fat-tailed) se
r < 2.

9.3. Modelo ARCH


No modelo ARCH, a variância dos resíduos evolui ao longo do tempo, estando dependente dos
quadrados dos resíduos de um período passado, isto é, de um ou mais resíduos, mas sempre com o
mesmo número de desfasamentos. Neste modelo abandonamos, portanto, o pressuposto da variância
constante que é um pressuposto no modelo OLS.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 111
Exercícios Introdutórios de Análise Económica de Dados

Nos modelos ARCH, as variáveis independentes podem ser a variável dependente desfasada
(autorregressiva), uma média móvel ou outras variáveis. As Eqs. 9.4 – 9.6 representam o modelo
ARCH(1).

𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.4)

𝜇 ∼ 𝑖𝑖𝑑𝑁(0, 𝜎 ) (9.5)

𝜎 =𝛾 +𝛾 𝜇 (9.6)

No modelo ARCH, a equação da variância pode ser representada, por uma questão de
comodidade, substituindo 𝜎 por ℎ :
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.7)

𝜇 |Ω ∼ 𝑖𝑖𝑑𝑁(0, ℎ ) (9.8)

ℎ =𝛾 +𝛾 𝜇 (9.9)

O modelo ARCH de ordem q, ARCH(q), tem a representação (Eq. 9.10):


ℎ =𝛾 +𝛾 𝜇 +𝛾 𝜇 +⋅⋅⋅ +𝛾 𝜇 (9.10)

Para estimar o modelo ARCH(2) reporesentado pelas Eqs. 9.11 – 9.12:


𝑅 =∝ +𝛽𝑅 + 𝜂𝑖𝑑 + 𝜇 (9.11)

ℎ =𝛾 +𝛾 𝜇 +𝛾 𝜇 (9.12)
onde R é a rentabilidade diária do índice S&P500; e id é uma variável “impulse dummy” para controlar
a “Black Monday” (19 de outubro de 1987), podemos proceder como é referido na Figura 9.6.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 112
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.6 – Modelo ARCH(2) da rendibilidade diária do S&P500

O modelo estimado anteriormente pode ser representado pelas Eqs. 9.13 – 9.14:
𝑅 = 0.000435 + 0.098443𝑅 − 0.262577𝑖𝑑 (9.13)

ℎ = 0.0000459 + 0.225424𝜇 + 0.269732𝜇 (9.14)

9.4. Modelo GARCH


O modelo ARCH pode ser generalizado passando a incluir na equação da variância, a variância
desfasada até à ordem p. Este modelo é designado de modelo ARCH generalizado e é representado pelo
acrónimo GARCH(p, q). A representação genérica do modelo pode ser vista nas Eqs. 9.15 – 9.16.
𝑌 =∝ +𝛽 𝑋 + 𝜇
(9.15)
𝜇 |Ω ∼ 𝑖𝑖𝑑𝑁(0, ℎ )

ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.16)

Na equação anterior, ∑ 𝛿ℎ é designado por somatório dos termos GARCH e ∑ 𝛾𝜇


é designado por somatório dos termos ARCH.
A variância incondicional, ℎ, pode ser calculada de acordo com a fórmula da Eq. 9.17.

𝛾
ℎ= (9.17)
1−∑ 𝛿ℎ −∑ 𝛾𝜇

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 113
Exercícios Introdutórios de Análise Económica de Dados

Vejamos um exemplo de estimação de um modelo GARCH(1, 1). Retomemos as rendibilidades


diárias do índice S&P500, para o período de 3 de janeiro de 1950 a 5 de novembro de 2018.

Figura 9.7 – Estimação do modelo GARCH(1, 1)

A volatilidade condicional e obtida a partir da equação da variância. No EViews temos a


representação da volatilidade quer do desvio-padrão quer da variância. Para obtermos os gráficos
clicamos na janela “View” e abrimos a janela (ver Figura 9.8). Nessa janela temos acesso a “GARCH
Graph/Conditional Standard Deviation” e a “GARCH Graph/Conditional Variance”.

Figura 9.8 – Janela de acesso aos gráficos da volatilidade

Na Figura 9.9 temos os gráficos da volatilidade. Como se pode observar a volatilidade obtida a
partir do desvio-padrão dá-nos uma visibilidade mais detalhada da evolução da volatilidade do índice
S&P500.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 114
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.9 – Graphs of GARCH Conditional Standard Deviation and Conditional Variance

9.5. Testes de diagnóstico


Retomemos o modelo da secção anterior. Vamos verificar se os resíduos seguem uma distribuição
normal e se as equações da média e da variância estão bem especificadas. Na Figura 9.10 temos a
representação do modelo (lado esquerdo) e a estimação (lado direito). Nos pontos seguintes desta secção
vamos proceder aos testes de diagnóstico e aferir a qualidade da estimação efetuada.

Figura 9.10 – Modelo GARCH(1,1) das rendibilidades do índice S&P500 (1/1/1999 – 31/12/2010)

Residual Diagnostics / Histogram – Normality Test


Pode-se utilizar a estatística de Jarque-Bera para verificar a hipótese nula de os resíduos
(estandardizados) seguirem uma distribuição normal. Se os resíduos forem normalmente distribuídos, a
estatística de Jarque-Bera deverá ser estatisticamente não significante.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 115
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.11 – Residual Diagnostics / Histogram – Normality Test

Como se pode observar na Figura 9.11, a estatística de Jarque-Bera claramente rejeita a hipótese
nula de os resíduos da regressão seguirem uma distribuição normal. Este resultado é muito frequente em
estimações de series financeiras. De um modo geral não são um problema se a amostra for de grande
dimensão. Considera-se que uma amostra tem uma grande dimensão quando temos mais de 100
observações.

Residual Diagnostics / Correlogram – Q-statistics


Pode-se utilizar o correlograma (autocorrelações e autocorrelações parciais) dos resíduos
(estandardizados) para testar a correlação serial ainda presente na equação média. Este teste é usado
para se verificar a qualidade da especificação da equação média. Se a equação média estiver
corretamente especificada, então todas as estatísticas Q (Q-statistics) deverão ser estatisticamente não
significantes (isto é, terem um valor superior a 5%).

Figura 9.12 – Residual Diagnostics / Correlogram – Q-statistics

Como podemos observar na Figura 9.12, todas as estatísticas Q são muito superiores ao valor de
corte (5%), indicando que a equação da média não sofre de má especificação.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 116
Exercícios Introdutórios de Análise Económica de Dados

Residual Diagnostics / Correlogram Squared Residuals


Pode-se utilizar o correlograma (autocorrelações e autocorrelações parciais) dos quadrados dos
resíduos (estandardizados) para se testar se ainda estão presentes efeitos ARCH na equação de variância.
Este teste e usado para se verificar a qualidade da especificação da equação de variância. Se a equação
de variação estiver bem especificada, todas as estatísticas Q deverão ser estatisticamente não
significantes.

Figura 9.13 – Residual Diagnostics / Correlogram Squared Residuals

Os resultados da estatística Q que podemos observar na Figura 9.13, são maioritariamente


inferiores a 5%, indicando que a equação da média não está bem especificada. O modelo deve neste
caso ser revisto incluindo uma especificação revista tendo em consideração o que a literatura já
identificou como relevante no comportamento da volatilidade (algumas especificações alternativas são
apresentadas nas secções seguintes). Investigadores mais experientes podem desenvolver novos
modelos e testá-los empiricamente.

9.6. Modelo GARCH-M


O modelo “GARCH in mean” ou modelo GARCH-M(p,q), tem uma especificação em que a
equação da média inclui a volatilidade (isto é, ht) desfasada um ou mais períodos como variável
explicativa. Como se pode observar na Eq. 9.18, o desvio-padrão desfasado um período ( ℎ ) entra
como variável explicativa da variável Y. No caso da variável Y representar a rendibilidade de um índice
bolsista, a teoria financeira indica que a volatilidade (isto é, o risco) deve traduzir-se num aumento do
prémio de risco, e, portanto, os investidores devem exigir uma rendibilidade mais elevada para
compensar o risco mais elevado.

𝑌 =∝ +𝛽 𝑋 + 𝜃 ℎ +𝜇 (9.18)

𝜇 |Ω ∼ 𝑖𝑖𝑑𝑁(0, ℎ ) (9.19)

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 117
Exercícios Introdutórios de Análise Económica de Dados

ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.20)

Por vezes a especificação da equação da média de utiliza o logaritmo natural da variância


condicional como está representado na Eq. 9.21.
𝑌 =∝ +𝛽 𝑋 + 𝜃 ln ℎ +𝜇 (9.21)
Na Figura 9.14 apresentamos janela com a representação do modelo GARCH-M(1,1) e os
resultados da sua estimação (lado direito).

Figura 9.14 – GARCH-M(1,1) das rendibilidades diárias do índice S&P500

O modelo estimado apresenta, como seira esperado, um sinal positivo e estatisticamente altamente
significante (inferior a 1%) para a volatilidade na equação da média (0.083438 ℎ ).

9.7. Modelo TGARCH


O modelo “threshold GARCH”, ou mais resumidamente TGARCH, procura capturar o efeito de
as variações positivas e as variações negativas de uma variável independente não terem a mesma
intensidade sobre a variável dependente. Como se pode ver na especificação da Eq. 9.22, temos uma
variável, dt-j, que neste caso é uma variável dummy (uma variável dicotómica, isto é, uma variável que
é composta unicamente por zeros e uns). Esta variável, dt-j, assume o valor “um” sempre que ocorreu
uma variação negativa e o valor “zero” quando as variações foram nulas ou positivas.

ℎ =𝛾 + 𝛿ℎ + 𝛾 +𝜃𝑑 𝜇 (9.22)

onde 𝑑 = 1; com j = 1, …, q; se 𝜇 < 0; e 0 no caso contrário.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 118
Exercícios Introdutórios de Análise Económica de Dados

A equação anterior pode ser tornada ainda mais específica, permitindo que a ordem dos
desfasamentos, q e r, sejam diferentes.

ℎ =𝛾 + 𝛿 ℎ + 𝛾 𝜇 + 𝛾 𝜇 𝑑 (9.23)

onde 𝑑 = 1; com j = 1, …, q; se 𝜇 < 0; e 0 no caso contrário.


Neste modelo, as boas notícias, 𝜇 > 0, e as más notícias, 𝜇 < 0, tem efeitos diferentes na
variância condicional. As boas notícias têm um impacto ∑ 𝛾 , e as más notícias ∑ 𝛾 +
∑ 𝛾 . Se ∑ 𝛾 > 0, as más notícias aumentam a volatilidade e podemos afirmar que existe
alavancagem (leverage effect) de ordem r. Se ∑ 𝛾 ≠ 0, o impacto das notícias é assimétrico.
No Figura 9.15 apresentamos janela com a representação do modelo TGARCH (1,1) e os
resultados da sua estimação (lado direito).

Figura 9.15 – TARCH (1,1) das rendibilidades diárias do índice S&P500

O modelo estimado apresenta, como seira esperado, um sinal positivo e estatisticamente altamente
significante (inferior a 1%) para as variações negativas nas rendibilidades (equação da variância), isto
é, 0.088842 𝜇 𝑑 .

9.8. Modelo EGARCH


Um dos problemas da estimação da equação da variância é o facto de por vezes se obterem
variâncias estimadas negativas. Uma forma de ultrapassar este problema é recorrer ao modelo
“exponential GARCH” ou EGARCH. Neste modelo a variância tem a especificação seguinte (Eq. 9.24):

𝜇 𝜇
ln(ℎ ) = 𝛾 + 𝛿 ln(ℎ )+ 𝜁 + 𝜉 (9.24)
ℎ ℎ

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 119
Exercícios Introdutórios de Análise Económica de Dados

A existência de alavancagem pode ser testada se 𝜉 < 0. Estamos na presença de impactos


assimétricos se 𝜉 ≠ 0.
Na Figura 9.16 apresentamos janela com a representação do modelo EGARCH (1,1) com a
especificação para a deteção de assimetria (assinala-se a ordem da assimetria no quadrado da
Asymmetric order) e os resultados da sua estimação (lado direito).

Figura 9.16 – Modelo EGARCH

O modelo estimado apresenta, como seira esperado, um sinal negativo e estatisticamente


altamente significante (inferior a 1%) para as variações negativas nas rendibilidades (equação da
variância), isto é, 𝜉 = −0.070451.

9.9. Outros modelos GARCH


Vamos agora ver alguns modelos, que embora de menor utilização na investigação em Finanças,
tem a sua importância na deteção de fenómenos financeiros. Vamos começar pelo modelo IGARCH,
passamos de seguida ao estudo dos modelos PARCH e CGARCH.

Modelo IGARCH
O modelo integrated GARCH ou mais simplesmente IGARCH é um modelo desenhado para lidar
com uma condição específica da equação da variância. Neste modelo “forçamos” a que o somatório das
componentes “p” e “q” somem sempre um. Com esta restrição, a variância comporta-se como uma
variável integrada de ordem um. Dito por outras palavras a variância comporta-se como tendo uma
memória permanente.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 120
Exercícios Introdutórios de Análise Económica de Dados

ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.25)

sujeito a,

𝛿 + 𝛾 =1 (9.26)

Para estimar este modelo selecionamos IGARCH na janela “Restrictions” (ver Figura 9.17,
painel da esquerda).

Figura 9.17 – Janela de seleção do IGARCH e estimação do modelo

Como se pode observar no painel da direita 𝛾 = 0.54206 e 𝛿 = 0.945794 cuja soma é um.
Como podemos, ainda, observar os dois coeficientes são estatisticamente altamente significantes.

Modelo PARCH
O modelo power ARCH ou PARCH. Neste caso para ser mais percetível não utilizamos ℎ =
𝜎 .

𝜎 =𝛾 + 𝛿 𝜎 + 𝛾( 𝜇 −𝜑 𝜇 ) (9.27)

onde 𝜆 > 0; 𝜑 ≤ 1 para j = 1, …, r; 𝜑 = 0 para todos j > r, e r ≤ q.


O modelo é simétrico se 𝜑 = 0 para todos os j. Quando 𝜆 = 2 e 𝜑 = 0 para todos os j, o
modelo PARCH é simplesmente uma especificação GARCH(p, q). Estamos na presença de efeitos
assimétricos se pelo menos um 𝜑 ≠ 0.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 121
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.18 – Janela de seleção do PARCH e estimação do modelo

Como podemos ver no resultado da estimação do modelo PARCH, o valor de 𝜆 = 1.320650.

Modelo CGARCH
O modelo “component GARCH” ou CGARCH.
A variância condicional dos resíduos do modelo GARCH(1, 1) reverte para 𝛾 (ver Eq. 9.28) que
é constante no tempo.
ℎ = 𝛾 + 𝛿 (ℎ − 𝛾 ) + 𝛾 (𝜇 −𝛾 ) (9.28)
O modelo CGARCH permite que a reversão da média dos resíduos (𝑚 ) possa ser modelizada de
acordo com a formulação da Eq. 9.29.
𝑚 = 𝛾 + 𝜌(𝑚 − 𝛾 ) + 𝜙(𝜇 −ℎ ) (9.29)
Um modelo assimétrico CGARCH pode ser estimado assinalando o espaço “Include threshold
Term”. Esta opção combina o modelo CGARCH com o modelo TARCH, introduzindo efeitos
assimétricos na equação “transitória”. São estimados modelos do tipo das Eqs, 9.30 – 9.32, que se
seguem.
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.30)

𝑚 = 𝛾 + 𝜌(𝑚 − 𝛾 ) + 𝜙(𝜇 −ℎ )𝜃 𝑧1 (9.31)

ℎ − 𝑚 = 𝛾 (𝜇 −𝑚 )+𝛾 (𝜇 −𝑚 )𝑑 + 𝛿 (ℎ −𝑚 ) + 𝜃 𝑧2 (9.32)
onde “z” são as variáveis exógenas e “d” é uma variável dummy indicando um choque negativo. Se 𝛾 >
0 isso suporta a presença de efeitos de alavancagem transitória na variância condicional.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 122
Exercícios Introdutórios de Análise Económica de Dados

Figura 9.19 – Janela de seleção do CGARCH e estimação do modelo

Temos evidência de efeitos de alavancagem transitória na variância condicional ( 𝛾 =


0.086550).

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 123
Exercícios Introdutórios de Análise Económica de Dados

10. Modelos VAR


O modelo VAR (Vector Autoregressive) é bastante usado em estudos empíricos, pois permite
analisar relações entre as variáveis quando são dependentes e independentes ao mesmo tempo. Para
além disso também é possível analisar a relação das variáveis com os valores passados.
Para a aplicação do modelo VAR é necessário verificar a existência de alguns pressupostos. As
variáveis terão que ser estacionárias (ver Cap. 7). As variáveis I(0) podem ser usadas no modelo VAR,
bem como variáveis integradas de ordem 1, desde que diferenciadas e não cointegradas (ver Cap. 11).
Para exemplificar a estimação do modelo var será usado o software EViews. O STATA também poderia
ser usado para a estimação do modelo, o processo é praticamente o mesmo.
Para este exemplo serão usados os dados do ficheiro Excel do EViews, separador VAR. Este é
somente um exercício de exemplificação de estimação do modelo, por vezes as propriedades
econométricas podem não se verificar. Tendo em conta que as variáveis z1, z2 e z3 são estacionárias em
níveis, o primeiro passo é verificar o número ótimo de desfasamentos. Para tal é necessário estimar um
modelo VAR em Quick – Estimate VAR, escrever as variáveis e “ok”, tal como mostra a Figura 10.1:

Figura 10.1 – Estimação do modelo var.

Após a estimação do modelo, no menu View > Lag Structure > Lag Lenght criteria e coloca-se o
nº de desfasamentos (lags) máximo que queremos testar. Neste caso o programa sugere 8 e obtém-se o
output com 8 lags como mostra a Figura 10.2:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 124
Exercícios Introdutórios de Análise Económica de Dados

Figura 10.2 – Seleção de desfasamentos

O output obtido mostra o número de desfasamentos ótimos para critérios de seleção. A legenda
dos critérios de informação está no próprio output na parte inferior. Com todo o leque de critérios é
possível escolher um critério mais ou menos restrito. Os resultados mostram que o 8º desfasamento é o
ótimo (depende do número de máximo de desfasamentos em análise). O número ótimo é o menor valor
de cada coluna, no EViews aparece com “*”. Apenas o critério de informação Schwarz aponta para 2
desfasamentos, usando o princípio da parcimónia, será o número de desfasamentos escolhidos.

10.1. Endogeneidade
No caso dos modelos VAR e também nos VEC, a endogeneidade não é um problema, pois estes
modelos são robustos na presença deste fenómeno. O Estes dois modelos também permitem o uso de
variáveis exógenas (só independentes). Para testar a exogeneidade das variáveis é necessário recorrer
aos blocos de exogeneidade. Para os executar (tendo em conta os dados do passo anterior) basta seguir
a Figura 10.3.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 125
Exercícios Introdutórios de Análise Económica de Dados

Figura 10.3 – Blocos de exogeneidade e output.

A figura anterior (painel à direita) mostra o resultado dos Blocos de Exogeneidade. Os Blocos de
Exogeneidade são analisados na linha do “All”, em que é apresentada a probabilidade do 𝜒 . O teste
tem como hipótese nula a variável ser exógena e, portanto, no output apresentado, a variável z1 será
exógena, uma vez que H0 não é rejeitado.

10.2. Causalidade
Em termos econométricos a causalidade das variáveis é verificada quando os valores passados de
uma variável explicam (causam) os valores presentes de outra. Para tal recorre-se ao teste de Causalidade
de Granger, em são testadas relações bidirecionais entre as variáveis. Este teste é executado da mesma
forma que os Blocos de Exogeneidade, o output é até comum. Analisando o output da figura anterior (à
direita), observa-se para cada variável a relação causal das outras. Por exemplo, a hipótese nula do teste
de causalidade de Granger para a relação de z2 para z1 é: a variável z2 não Granger causa a variável z1.
Neste exemplo a H0 é rejeitada, pois a probabilidade é de 0,2874. O mesmo acontece para a variável z3
(Prob. 0,3070). Para testar a relação contrária é necessário verificar nos resultados da variável z2 e z3.
Neste caso a variável z1 causa z2 e também z3. Note que existe um outro teste de causalidade, o teste
de causalidade Pairwise Granger, que é baseado numa estatística F. A forma de interpretação é a mesma.

10.3. Estimação
Após verificar a exogeneidade das variáveis é possível verificar que as variáveis z2 e z3 são
endógenas e que a variável z1 é exógena uma vez que causa duas variáveis. No caso de a variável z1

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 126
Exercícios Introdutórios de Análise Económica de Dados

não causar nem fosse causada teria de ser removida do modelo. Para efeitos de exemplificação, e para
não reduzir drasticamente os graus de liberdade do modelo, as variáveis z1, z2 e z3 serão consideradas
todas endógenas.
Para estimar o modelo com as características desejadas (nº de desfasamentos ótimos) é necessário
seguir os passos: Quick > Estimate VAR. A janela da Figura 10.4 é obtida no campo da variáveis
exógenas é possível especificar uma constante, bem como possíveis variáveis dummy e ainda as
variáveis exógenas desfasadas acompanhando o desfazamento ótimo. Estimando o modelo especificado
anteriormente obtém-se o seguinte output:

(continuação)

Figura 10.4 – Estimação do modelo VAR

Na figura anterior é possível observar os coeficientes do modelo VAR, bem como os seus desvios
padrões e a estatística t. Os coeficientes são obtidos através do método OLS, pelo que não têm
interpretação direta, pois neste método as outras equações não são tidas em conta. Também é possível
observar a o R2 e o R2 ajustado aos graus de liberdade. Este output serve sobretudo de base a à análise
que se irá realizar nos passos seguintes.

10.4. Testes de diagnóstico


Tal como todos os outros modelos econométricos, é necessário verificar a qualidade de estimação
do modelo através da análise aos resíduos de cada equação. Estes testes são já conhecidos (normalidade,
autocorrelação e heterocedasticidade) de capítulos anteriores. Para os modelos VAR os testes são os
tradicionais embora adaptados.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 127
Exercícios Introdutórios de Análise Económica de Dados

Para executar os testes de diagnósticos aos resíduos é seguir o caminho (dentro do outrput do
modelo VAR): View > Residual Tests. Começando por testar a normalidade dos resíduos em: View >
Residual Tests > Normality test obtém-se o seguinte outpu:

Figura 10.5 – Teste de normalidade dos resíduos

A hipótese nula do teste de Jarque-Bera é: os resíduos seguem uma distribuição normal. No output
do teste é possível observar o deslocamento (skewness) dos resíduos em relação à distribuição normal,
bem como o achatamento (kurtosis) em relação à distribuição normal. Observando o valor da
probabilidade a hipótese nula do teste Jarque-Bera é rejeitada para qualquer nível de significância
estatística. No output as componentes dizem respeito às variáveis exógenas por orem, ou seja, a
componente 1, 2 e 3 correspondem às variáveis z1, z2 e z3, respetivamente.
O teste de heterocedasticidade é obtido através: View > Residual Tests > White
Heteroskedasticity (No Cross Terms). O output do teste de heterocedasticidade está representado na
Figura 10.6.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 128
Exercícios Introdutórios de Análise Económica de Dados

Figura 10.6 – Teste de heterocedasticidade

A hipótese nula do teste de heterocedasticidade é: os resíduos são homocedásticos. Neste caso a


hipótese nula é rejeita para o nível de significância estatística de 1%.
Para executar o teste de autocorrelação é seguir os passos: View > Residual Tests >
Autocorrelation LM Test e selecionar o número de desfasamentos que queremos observar. Neste caso
foram escolhidos 3. O output do teste de autocorrelação dos erros está representado na Figura 10.7.

Figura 10.7 – Teste de autocorrelação.

A hipótese nula do teste de autocorrelação dos erros é: os erros não estão autocorrelacionados. A
hipótese nula do teste também é apresentada no output do EViews. No output são apresentados dois

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 129
Exercícios Introdutórios de Análise Económica de Dados

testes de autocorrelação. O primeiro é a atucorrelação para cada desfasamento, ou seja, para o


desfasamento 1 é testada a autocorrelação de ordem 1. A segunda parte do teste diz respeito aos
desfasamentos acumulados. Qualquer que seja o desfasamento escolhido aquando da execução do teste,
o valor do teste não altera, apena apresenta mais informação. Para o teste executado a hipótese nula é
rejeitada para qualquer nível de significância estatística.
Em suma, o modelo Var estimado não reúne as propriedades econométricas desejadas, uma vez
que os resíduos não seguem uma distribuição normal, os erros são heterocedásticos e
autocorrelacionados. Uma possível forma de resolver o problema é acrescentar variáveis endógenas que
possam interagir neste sistema de variáveis.

10.5. Funções impulso resposta


Como foi mencionado secção 10.4, os coeficientes do VAR não têm interpretação direta. No
entanto, através do modelo estimado do VAR é possível calcular a Função Impulso Resposta (FIR) que
permite analisar a resposta de uma variável em funções de um impulso noutra variável. Só é possível
calcular as FIR para as variáveis endógenas. Existe uma rotina no EViews que permite obter as FIR, em
Views > Impulse Response é obtido o menu da Figura 10.8.

Figura 10.8 – Menu das FIR

Neste menu é possível escolher o número de períodos para o qual irão ser calculadas as FIR, bem
como o número de repetições da Simulação Monte Carlo, para observar a evolução das IRF ao longo
dos períodos. Na Figura 10.9 são apresentadas as FIR para as variáveis endógenas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 130
Exercícios Introdutórios de Análise Económica de Dados

Response to Cholesky One S.D. (d.f. adjusted) Innovations ± 2 S.E.


Response of Z1 to Z1 Response of Z1 to Z2 Response of Z1 to Z3
.04 .04 .04

.03 .03 .03

.02 .02 .02

.01 .01 .01

.00 .00 .00

-.01 -.01 -.01


1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Response of Z2 to Z1 Response of Z2 to Z2 Response of Z2 to Z3

.010 .010 .010


.008 .008 .008
.006 .006 .006
.004 .004 .004
.002 .002 .002
.000 .000 .000
-.002 -.002 -.002
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Response of Z3 to Z1 Response of Z3 to Z2 Response of Z3 to Z3

.008 .008 .008


.006 .006 .006
.004 .004 .004
.002 .002 .002
.000 .000 .000
-.002 -.002 -.002
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Figura 10.9 – Funções impulso-resposta

É importante relembrar que a base de dados utilizada neste exemplo tem frequência mensal, pelo
que um período de tempos nas FIR corresponde a um mês. De uma forma geral, todas as respostas
regressão ao equilíbrio após 10 meses, este resultado é expectável uma vez que as variáveis são
estacionárias. Quanto à resposta individual de cada variável, a resposta é diferente. No caso de um
impulso na variável z1, a variável z2 responde negativamente e regressão ao equilíbrio após 5 períodos.
Um idêntico semelhante é observado na resposta na resposta da variável z3 a um impulso na variável
z1. A resposta de z1 a um impulso em z2 é muito reduzida, contrariamente à resposta de z3 a um impulso
em z2, neste caso o choque é positivo e bem pronunciado. Quando às respostas de z1 e z2 em impulsos
na z3, são positivos e pouco pronunciados, regressão ao equilíbrio rapidamente. A análise de casa FIR
é feita tendo em conta que tudo o resto se mantém constante (ceteris paribus).

10.6. Decomposição da variância


A decomposição da variância permite da previsão do erro permite observar a evolução de quanto
a previsão do erro de uma variável consegue explicar outra. Um aspeto importante da decomposição da
variância é a ordenação de Cholesky. Na ordenação de Cholesky as variáveis são ordenadas da mais
exógena para a mais endógenas. Neste exemplo e segundo os Blocos de Exogeneidade as variáveis ficam
da seguinte forma: z1 z2 z3. Para obter o output da decomposição da variância é seguir Views > Variance
Decomposition e aparece a seguinte janela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 131
Exercícios Introdutórios de Análise Económica de Dados

Figura 10.10 – Menu do EViews de Decomposição da Variância

Introduz-se a informação do ordenamento de Cholesky, bem como o número de repetições da


simulação de Monte Carlo. O output da Decomposição da Variância é apresentado na Figura 10.11.

(continuação)

Figura 10.11 – Decomposição da Variância

Começando pela decomposição da variância da previsão do erro de z1, após 1 período a variância
da previsão do erro é explicada em 100% por ela própria. Após 10 períodos a variância da previsão do
erro é explicada em 98,99 % por z1, e em 0,40% e 0,60% por z2 e z3, respetivamente. A interpretação

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 132
Exercícios Introdutórios de Análise Económica de Dados

da decomposição da variância da previsão do erro é feita da mesma forma. Ao analisar a decomposição,


assim como as FIR é necessário ter sempre em consideração aspetos da teoria económica. Os modelos
podem estar corretamente especificados e com as propriedades econométricas desejadas, mas, no
entanto, pode não haver nada na teoria económica que explique o efeito encontrado.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 133
Exercícios Introdutórios de Análise Económica de Dados

11. Modelos VEC


À semelhança dos do modelo VAR, o modelo VEC (Vectro Error Correction) também funcionada
bem com variáveis endógenas. A principal diferença entre o modelo VAR e o modelo VEC é que o
modelo VAR analise, essencialmente, efeitos de curto prazo, enquanto que o modelo VEC analisa
efeitos de longo prazo.

11.1. Cointegração e endogeneidade


Um dos pressupostas para a estimação do modelo VEC é a existência de cointegração. A
cointegração é verificada quando existe uma relação de longo prazo entre as variáveis. Para executar o
teste de cointegração é necessário que as variáveis sejam integradas de ordem 1. Ou seja, só é possível
estimar o modelo VEC com variáveis I(1) e cointegradas. Para testar a existência de relações de longo
prazo entre as variáveis é feito o teste de cointegração de Johansen. Existem outros testes de
cointegração como o Engle-Granjer e o Phillips-Ouliaris. Neste exemplo será usado o teste de
cointegração de Johansen. Serão usados os dados o ficheiro Excel para o EViews da folha “VEC” que
contém as variáveis x1 x2 x3 com frequência mensal. Considerando que todas as variáveis são I(1),
estão reunidas as condições para executar o teste de cointegração de Johansen. Seguindo o caminho
Quick > Group Statistics > Johansen Cointegration test e inserindo as variáveis x1,x2 e x3 aparece a
janela da Figura 11.1.

Figura 11.1 – Menu do teste de cointegração

Na janela da figura anterior, é possível selecionar o pressuposto do teste de cointegração bem


como o intervalo de desfasamento. O primeiro passo é selecionar a opção 6 para obter um sumário de
todos as opções, e escolher o número de desfasamentos. O software sugere 4 desfasamento, é esse
número que vai ser usado. A figura seguinte mostra o resultado do teste.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 134
Exercícios Introdutórios de Análise Económica de Dados

Figura 11.2 – Teste de cointegração de Johansen

Através do output do teste é possível ver o pressuposto ótimo segundo os critérios de informação.
O critério de informação Akaike indica uma tendência quadrático e o critério Schwarz indica a não
existência de uma tendência determinística e com constante. Ambos os critérios indicam dois vetores de
cointegração. Como a amostra têm bastantes observações, pode-se seguir um critério menos restrito
como o Akaike. Para uma análise mais detalhada ao teste regressamos ao menu da Figura 11.1 e
selecionamos a opção 5), em que se obtém o output a seguir apresentado.

Figura 11.3 – Teste de cointegração de Johansen, opção 5

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 135
Exercícios Introdutórios de Análise Económica de Dados

Neste output mais detalhado do teste de cointegração é possível verificar que o ”trace test” e o
“Max-eigenvalue test” indicam 2 vetores de cointegração para um nível de significância estatística de
5%.

11.2. Estimação
Para a estimação no modelo VEC é necessário ter em conta os resultados do teste de
cointegração de Johansen. Para estimar o modelo VEC é seguir os passos: Quick > Estimate VAR, em
VAR type selecionamos a opção ”Vector Error Correction” e colocamos as variáveis tal como mostra
a Figura 11.4 (painel à esquerda).

Figura 11.4 – Especificação do modelo VEC

Tal como mostra a figura anterior (painel à direita), no separador “Cointegration” é necessário
selecionar as opções de acordo com o teste de cointegração de Johansen, bem como o número de
vetores de cointegração. Após realizados os passos da especificação, estima-se o modelo que é
apresentado na figura seguinte.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 136
Exercícios Introdutórios de Análise Económica de Dados

(continuação)

Figura 11.5 – Modelo VEC estimado

Tal como nos modelos VAR, o modelo VEC não tem interpretação direta, é necessário obter as
funções impulso resposta e a decomposição da variância. A obtenção das Funções Impulso Resposta e
da Decomposição da Variância é obtida da mesma forma que no modelo VAR (ver capítulo anterior).
Para uma análise correta do modelo VEC é necessário testar a exogeneidade das variáveis, bem como
testar qualidade da estimação (normalidade, autocorrelação e heterocedasticidade). Todos estes testes
foram executados no capítulo do modelo VAR, aqui sã executados e interpretados da mesma forma.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 137
Exercícios Introdutórios de Análise Económica de Dados

12. Modelos com dados de painel


Os modelos com dados de painel são um dos vários métodos de análise de dados que são
habitualmente usados em econometria. Mas antes de aprofundar o tema, devemos começar por dar uma
explicação simples sobre o que são estes modelos, as suas vantagens para a análise, e como funcionam.
Os modelos com dados de painel (ou dados longitudinais) têm a capacidade de combinar dados
de séries temporais (time-series data) com dados transversais (cross-sectional data), isto é, permitem
observar o comportamento de N entidades (por exemplo países, empresas, indivíduos, entre outros)
durante um determinado período de tempo T (anos, meses, semestres, trimestres, etc.). Se um painel
contém o mesmo número de observações temporais para cada entidade e para cada variável, então
dizemos que estamos na presença de um painel balanceado (balanced panel), caso contrário, se isto não
se verificar, dizemos que estamos na presença de um painel não balanceado (unbalanced panel).

Figura 12.1 – Matriz de dados em painel

Falando das vantagens do uso de modelos com dados de painel, podemos dizer que estes são
capazes de controlar a heterogeneidade individual, isto é, controlam variáveis que mudam com o tempo,
mas não entre entidades, dão-nos mais informação, mais variabilidade, menos colinearidade, mais graus
de liberdade, e são capazes de identificar e medir efeitos que não são detetados através de dados de
séries temporais ou dados transversais (fatores culturais por exemplo).
Um modelo linear simples com dados de painel pode ser representado pelo seguinte exemplo:
𝑌 = 𝛼 + 𝛽𝑋 + 𝜇 (12.1)
onde Y é a variável dependente e X é a variável explicativa, contendo ambos os subscritos i e t que
representam o número de entidades e o número de períodos de tempo em estudo, respetivamente, com i
= 1, 2, 3, …, N; t = 1, 2, 3, …, T. O parâmetro α representa a constante e o parâmetro β representa o
coeficiente da variável explicativa X, sendo que neste caso supõe-se que ambos os parâmetros sejam
iguais para todas as entidades e para todo o tempo (suposição que, como veremos posteriormente, pode
ser alterada). Por fim, o parâmetro 𝜇 representa o termo de erro.
Depois de explicados todos estes pequenos detalhes à cerca deste tipo de modelos, podemos então
passar para os diferentes métodos que podemos adotar na estimação de modelos lineares simples com

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 138
Exercícios Introdutórios de Análise Económica de Dados

dados de painel. Normalmente, podemos utilizar três métodos para este efeito: modelo de dados
empilhados, modelo de efeitos fixos e modelo de efeitos aleatórios. Seguidamente, explicaremos de
forma breve o conceito por trás de cada um destes modelos e a forma como os podemos estimar com
exemplos práticos efetuados no STATA. Os dados deste tópico encontram-se disponíveis na folha 3 do
anexo Excel-Stata.

12.1. Modelo de dados empilhados (pooled)


O modelo de dados empilhados (pooled OLS method), tal com já referimos, é um dos métodos
que pode ser utilizado na estimação de modelos com dados de painel. A principal característica deste
modelo é que ele assume que não existem diferenças entre as entidades incluídas no estudo, estimando
uma constante comum para todas elas (ver equação anterior). Essencialmente, para este modelo ser
utilizado é necessário que estejamos perante um painel com algum grau de homogeneidade nos seus
dados. De seguida, vamos então aprender como estimar um modelo de dados empilhados, embora a
inclusão de efeitos fixos ou de efeitos aleatórios na estimação sejam opções mais interessantes.
Primeiramente, importamos os dados tal como foi explicado no ponto 5.1. deste livro. Depois
de importados os dados, a estrutura deste deverá parecer-se com a do seguinte exemplo:

Figura 12.2 – Dados no STATA

Para verificar se a base foi bem importada e se a estrutura corresponde à do exemplo podemos
selecionar uma das duas opções do editor de dados (Data Editor), presente na barra de ferramentas do
programa.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 139
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.3 – Editor de dados

Antes de começar a estimação em si, devemos dizer ao programa que os nossos dados são dados
de painel. Para isso criamos um ficheiro “do” (ver ponto 5.2) ou escrevemos diretamente o seguinte
comando:
xtset panelvar timevar
Onde “panelvar” e “timevar” correspondem, respetivamente, às variáveis representativas das
diferentes entidades incluídas no painel e do horizonte temporal deste. Sendo assim, de acordo com
exemplo da Figura 12.4, seria:
xtset id time
Depois de inserido este comando, o STATA irá responder com a seguinte mensagem:

Figura 12.4 - XTSET

Neste caso a mensagem corresponde à que se obtém quando se dá o caso de termos um painel
balanceado (situação já falada anteriormente). De qualquer forma, se nenhuma mensagem de erro
aparecer, então é sinal que podemos prosseguir com a estimação.
Para estimar uma regressão em painel na sua forma mais simples utilizamos o seguinte comando
(mais uma vez no ficheiro “do” ou diretamente na janela para comandos do STATA):
regress depvar indepvars, options
Com “depvar” e “indepvars” a representar a variável dependente e a(s) variável(eis)
independente(s), respetivamente. Voltando ao modelo de dados empilhados, para estimar este tipo de
modelo no STATA devemos utilizar o comando anterior, sem definir nenhuma opção (deixamos em
branco). No caso do nosso exemplo será então:
regress y x
Como resultado irá aparecer no STATA a seguinte tabela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 140
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.5 - Modelo de dados empilhados

De seguida apresentamos uma tabela com informação mais pormenorizada e com indicações das
várias estatísticas apresentadas.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 141
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.6 – Modelo de dados empilhados, para onde olhar?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 142
Exercícios Introdutórios de Análise Económica de Dados

12.2. Modelo de efeitos fixos


Um outro método que pode ser utilizado na estimação de modelos com dados de painel é o
modelo de efeitos fixos (fixed effects model). O uso de modelos de efeitos fixos é especialmente
apropriado para analisar os impactos de variáveis que variam com o tempo. Para este estimador, também
conhecido por least squares dummy variable (LSDV) estimator, cada entidade tem características
individuais que podem ou não influenciar as variáveis independentes, e por consequência, a variável
dependente. Por essa razão, o estimador de efeitos fixos permite que o modelo contenha constantes
diferentes para cada entidade, incluindo uma variável muda (dummy variable) para cada uma delas.
Desta forma, o modelo pode capturar as características especificas de cada entidade que não variam com
o tempo (como por exemplo fatores geográficos).
Ainda sobre estas características, uma suposição importante do modelo de efeitos fixos é a de
que estas são únicas para uma determinada entidade e não deverão estar correlacionadas com as
características de outras entidades. Adicionalmente, o modelo de efeitos fixos permite também a
inclusão de variáveis mudas (dummies) temporais, dando assim origem ao modelo de efeitos fixos de
duas vias (two-way fixed effects model), modelo esse que permite capturar efeitos que variam com o
tempo, mas que são comuns a todas as entidades (neste livro, esta especificação não será aprofundada).
Um modelo de efeitos fixos terá então a seguinte forma:
𝑌 = 𝛼 + 𝛽𝑋 + 𝛽 𝑋 + ⋯+ 𝛽 𝑋 +𝜇 (12.2)
Como se pode ver, neste caso a constante α tem o subscrito i, o que quer dizer que esta é diferente
para cada uma das entidades em estudo.
Passando então para a estimação do modelo de efeitos fixos no STATA, podemos começar por
dizer que os primeiros passos (importação da base, declaração dos dados como dados de painel) são
idênticos aos que explicámos no ponto anterior, e assim sendo, não será necessária nova demonstração.
Para estimar uma regressão em painel utilizando o estimador de efeitos fixos digitamos o seguinte
comando (no ficheiro “do” ou diretamente na janela para comandos do STATA):
xtreg depvar indepvars, fe
Notar que desta feita, escolhemos incluir a opção “fe”, que corresponde precisamente à estimação
com efeitos fixos. A opção “robust” pode também ser adicionada de maneira a controlar a
heterocedasticidade (caso esta esteja presente).
No caso do nosso exemplo será:
xtreg y x, fe
Como resultado irá aparecer no STATA a seguinte figura:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 143
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.7 - Modelo de efeitos fixos

Antes de apresentar esta tabela com informação mais pormenorizada, devemos ainda referir que
existem outras duas maneiras alternativas de estimar um modelo de efeitos fixos. Uma delas é usando o
comando “areg” e absorvendo a variável correspondente às entidades (panelvar) através da opção
“absorb”. Desta maneira, recorrendo ao nosso exemplo, fica:
areg y x, absorb(id)
Outra maneira, seria usar o comando “regress”. Com o nosso exemplo ficaria:
xi: regress y x i.id
Neste comando “xi:” é uma expansão de interação que cria variáveis mudas automaticamente e o
prefixo “i.” denota a variável categórica para a qual as variáveis mudas vão ser criadas. Se não existirem
erros, os três comandos aqui apresentados deverão fornecer os mesmos resultados.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 144
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.8 – Modelo de efeitos fixos, para onde olhar?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 145
Exercícios Introdutórios de Análise Económica de Dados

12.3. Modelo de efeitos aleatórios


O último método de que vamos falar, relativamente à estimação de modelos com dados de painel,
é o modelo de efeitos aleatórios (random effects model). Este modelo difere do modelo de efeitos fixos
no sentido em que não considera as constantes para cada entidade como fixas, mas como aleatórias. No
modelo de efeitos aleatórios a variação entre entidades é assumida como sendo aleatória e não
correlacionada com as variáveis independentes do modelo. Outra forma de explicar a diferença entre
estes dois modelos (fixos vs. aleatórios) é que enquanto o modelo de efeitos fixos avoca que as entidades
diferem nas suas constantes, o modelo de efeitos aleatórios assume que as entidades diferem nos seus
termos de erro.
Algumas das desvantagens que podem ser apontadas no uso do modelo de efeitos aleatórios são:
é necessário fazer suposições sobre a distribuição do componente aleatório; se os efeitos individuais não
observados forem correlacionados com as variáveis explicativas (independentes) então as estimações
serão inconsistentes e enviesadas.
Obviamente, o uso do modelo de efeitos fixos também traz algumas vantagens, como por
exemplo: tem menos parâmetros para estimar do que o modelo de efeitos fixos; podem ser incluídas no
modelo variáveis invariantes no tempo.
Aritmeticamente, no modelo de efeitos aleatórios, a variabilidade da constante para cada entidade
é representada por:
𝛼 = 𝛼+ 𝜗 (12.3)
onde 𝜗 é uma variável aleatória padrão de média zero. Sendo assim o modelo de efeitos aleatórios pode
ser representado da seguinte forma:
𝑌 = 𝛼+ 𝛽 𝑋 + 𝛽 𝑋 + ⋯+ 𝛽 𝑋 + (𝜗 + 𝜇 ) (12.4)
Para estimar o modelo de efeitos aleatórios no STATA, começamos mais uma vez por importar
os dados e por declarar os mesmos como dados de painel, tal como nos dois casos anteriores.
Seguidamente escrevemos o seguinte comando no “do” ou na janela para comandos do STATA:
xtreg depvar indepvars, re
Não esquecer que as dotações “depvar” e “indepvars” representam respetivamente a variável
dependente e as variáveis independentes. Como pode ser facilmente observado, a diferença entre este
comando e o comando usado na estimação do modelo de efeitos fixos é a troca da opção “fe” pela opção
“re”, opção essa que notifica o STATA que queremos usar o estimador de efeitos aleatórios.
No caso do nosso exemplo será então:
xtreg y x, re

Como resultado irá aparecer no STATA a seguinte tabela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 146
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.9 - Modelo de efeitos aleatórios

Mais uma vez, na página seguinte, apresentamos uma tabela com informação mais
pormenorizada.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 147
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.10 – Modelo de efeitos aleatórios, para onde olhar?

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 148
Exercícios Introdutórios de Análise Económica de Dados

12.4. Testes de diagnóstico


Quando se estimam modelos econométricos é necessário inquirir à cerca da presença de vários
fenómenos que podem influenciar as estimações produzidas pelos modelos. Para este efeito, os
investigadores realizam habitualmente uma série de testes diagnósticos de modo a verificar as
características das suas variáveis e dos seus modelos. Esta prática tem como principal objetivo a
obtenção de resultados o menos enviesados possível.
Desta forma, neste ponto iremos explorar alguns dos testes diagnósticos que habitualmente são
aplicados a modelos com dados de painel.

Hausman Test
O primeiro teste de que vamos falar é o teste de Hausman. A aplicação deste teste é essencial nas
estimações de modelos com dados de painel, isto porque este nos permite decidir entre o uso do modelo
de efeitos fixos ou o uso do modelo de efeitos aleatórios. A hipótese nula do teste é:

H0: A diferença nos coeficientes não é sistemática.

Contudo, a hipótese nula deste teste também pode ser dita como sendo a de que o melhor modelo
é o de efeitos aleatórios, ou a de que os erros não são correlacionados com os regressores.
Passando à prática, para se efetuar este teste no STATA começa-se por estimar a regressão com
efeitos fixos:
xtreg y x, fe
Guardando de seguida a estimação com o seguinte comando:
estimates store fixed
Depois estima-se a mesma regressão, mas desta feita, recorrendo ao modelo de efeitos aleatórios
(nota: não trocar esta ordem):
xtreg y x, re
Mais uma vez, guarda-se a estimação:
estimates store random
E finalmente confrontam-se as duas estimações através do seguinte comando:
hausman fixed random
Depois de “correr” o comando, o STATA irá apresentar a seguinte tabela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 149
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.11 – Teste de Hausman

Depois da tabela gerada, devemos agora perceber se devemos aceitar ou rejeitar a hipótese nula
do teste. Para isso iremos observar o valor da Prob>chi2 (realçado na Figura 12.11). Se este for < 0.05
então rejeitamos a hipótese nula do teste e devemos usar o modelo de efeitos fixos na nossa estimação.
Se, pelo contrário, este valor for > 0.05 então não rejeitamos a hipótese nula e o modelo de efeitos
aleatórios deve ser adotado na nossa estimação. No caso do nosso exemplo, deveríamos optar por
estimar este modelo recorrendo ao estimador de efeitos fixos.

Teste Breusch-Pagan Lagrange multiplier (LM)


Este teste, tal como o anterior, também serve para decidir entre dois métodos de estimação de
modelos com dados de painel, mas neste caso, a decisão é entre o modelo de efeitos aleatórios e o modelo
de dados empilhados (pooled). A hipótese nula deste teste é:

H0: As variâncias entre entidades é zero.

Isto quer dizer, não existem diferenças significantes entre as unidades, não existe efeito de painel,
uma regressão OLS simples é o mais apropriado.
Para realizar este teste, primeiro estimamos o modelo de efeitos aleatórios:
xtreg y x, re
Logo de seguida, depois da estimação, digitamos o seguinte comando:
xttest0
Como resultado, o STATA irá apresentar a seguinte tabela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 150
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.12 – Teste Breusch-Pagan Lagrange multiplier (LM)

Para aceitar ou rejeitar a hipótese nula, devemos olhar para o valor da Prob>chibar2. Se o valor
for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula do teste a 10%, se
for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do nosso exemplo, vemos que o valor
é < 0.01, logo, rejeitamos a hipótese nula a 1%, o que quer dizer que o melhor estimador a utilizar será
o de efeitos aleatórios. Como nota, devemos ainda dizer que se obtermos este resultado (efeitos
aleatórios), o passo seguinte será a realização do teste de Hausman que confirmará se realmente devemos
usar os efeitos aleatórios ou, se por outro lado, o estimador de efeitos fixos é o mais apropriado.

Testes de dependência seccional para modelos com dados de painel


A dependência seccional, com origem em padrões espaciais ou fatores comuns não observados,
é um fenómeno que por vezes se encontra presente nos modelos com dados em painel. Este fenómeno
é especialmente problemático nos casos dos macro painéis com séries temporais bastante longas. Se este
problema não for devidamente controlado, a probabilidade de obtermos estimativas enviesadas é
altamente elevada.
Existem alguns testes disponíveis para inquirir à cerca da presença da dependência seccional quer
nos modelos quer nas variáveis. Falando primeiro dos testes disponíveis para os modelos, podemos
começar por referir:

Teste de Pesaran CD
Este teste é usado para averiguar se os resíduos são correlacionados entre as entidades, sendo que
a sua hipótese nula é:

H0: Os resíduos não são correlacionados ou não existe dependência seccional.

Para realizar este teste começa-se por computar a regressão:


xtreg y x, fe
E imediatamente a seguir digita-se o comando:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 151
Exercícios Introdutórios de Análise Económica de Dados

xtcsd, pesaran abs


Como resultado o STATA dá-nos a seguinte estatística:

Figura 12.13 – Teste de Pesaran CD

Para perceber se existe ou não dependência seccional devemos olhar para o valor de Pr. Mais
uma vez se o valor for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula
do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No nosso exemplo, vemos
que o valor é < 0.01, logo, rejeitamos a hipótese nula a 1%, o que quer dizer que foi detetada a presença
de dependência seccional.
Antes de avançar, podemos ainda dizer que este mesmo teste (Pesaran CD) pode ser feito somente
às variáveis (ou aos resíduos), o que ajuda na análise pré-estimação. Para isso escrevemos o seguinte
comando:
xtcd varlist
Onde “varlist” representa a lista de variáveis que queremos analisar (nota: existe um máximo
de variáveis que podem ser analisadas ao mesmo tempo, se o número de variáveis passar o máximo deve
partir-se a análise em mais do que um grupo. Exemplo:

xtcd y x

Depois de introduzido o comando, o STATA dá-nos a seguinte tabela:

Figura 12.14 – Teste de Pesaran CD (xtcd)

Como podemos verificar ambas as variáveis apresentam valores estatísticos com p-value < 0.01,
o que quer dizer que rejeitamos a hipótese nula (pode ler-se por baixo da tabela), existem indícios de
dependência seccional em ambas as variáveis.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 152
Exercícios Introdutórios de Análise Económica de Dados

Adicionalmente, e voltando a centrarmo-nos nos testes aos modelos, podemos (e devemos)


também efetuar os testes de Friedman e Frees para fenómeno da dependência seccional, de forma a ter
a certeza das conclusões retiradas do teste de Pesaran. Estes testes realizam-se da mesma maneira que o
anterior e têm a mesma hipótese nula.

Teste de Friedman
xtreg y x, fe
xtcsd, friedman
Depois de digitarmos estes comandos, o STATA produz a seguinte estatística:

Figura 12.15 – Teste de Friedman

Este teste lê-se da mesma forma que o de Pesaran CD.

Teste de Frees
xtreg y x, fe
xtcsd, frees
No caso deste teste, a leitura é um pouco diferente das anteriores, vejamos:

Figura 12.16 – Teste de Frees

O teste de Frees providencia-nos os valores críticos para α = 0.10, α = 0.05, e α = 0.01 da


distribuição Q. Para rejeitar ou não rejeitar a hipótese nula precisamos de olhar para estes valores críticos
e para o valor estatístico dado pelo teste, que se encontra na parte superior deste. Tomando como
exemplo a Figura 12.16, vemos que o valor estatístico do teste é de 8.096, número que se encontra além
do valor critico de α = 0.01 (0.2601) (notar que os valores críticos se encontram em crescendo de α =
0.10 até α = 0.01 e que 8.096 é muito maior que 0.2601). Desta forma concluímos que se rejeita a
hipótese nula e que existe dependência seccional.

Teste de independência de Breusch-Pagan LM


Este teste é um caso particular que difere dos anteriores por apenas poder ser aplicado no caso de
modelos com efeitos fixos. De qualquer modo, a hipótese nula do teste é igual à dos testes anteriores:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 153
Exercícios Introdutórios de Análise Económica de Dados

H0: Os resíduos não são correlacionados ou não existe dependência seccional.

Também os passos para a realização deste teste são semelhantes aos anteriores, primeiro estima-
se a regressão:
xtreg y x, fe
E depois utiliza-se o seguinte comando:
xttest2
Tal como no caso dos testes anteriores devemos olhar para o valor de Pr, sendo que se o valor for
> 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula do teste a 10%, se for <
0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. Por vezes não é possível a realização deste teste pois
este é sensível ao facto de o número de entidades ser maior que o número de anos em estudo, o que faz
com que os vetores das entidades não sejam linearmente independentes.

Teste modificado de Wald para a heterocedasticidade


Outro fenómeno que muitas vezes se encontra presente nos modelos é o da heterocedasticidade.
Tal como no caso da dependência seccional, se ignorarmos a presença de heterocedasticidade e não a
controlarmos podemos originar resultados enviesados. Para o caso do modelo de efeitos fixos, a presença
de heterocedasticidade pode ser testada através de um teste modificado de Wald que tem como hipótese
nula:

H0: Homocedasticidade.

Mais uma vez, tal como nos casos anteriormente descritos, começamos por estimar o modelo:
xtreg y x, fe
Usando de seguida o comando:
xttest3
Depois de efetuados estes passos o STATA apresentará a seguinte estatística:

Figura 12.17 – Teste modificado de Wald para a heterocedasticidade

Se o valor da Prob>chi2 for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a
hipótese nula do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 154
Exercícios Introdutórios de Análise Económica de Dados

nosso exemplo rejeitamos claramente a hipótese nula a 1%, o que se traduz na presença de
heterocedasticidade.

Teste de Wooldridge para a autocorrelação


Adicionalmente aos fenómenos da dependência seccional e da heterocedasticidade, no caso dos
macro painéis com séries temporais longas podemos ainda deparar-nos com problemas produzidos pela
presença de autocorrelação (ou correlação serial) nos modelos. A autocorrelação pode levar a que os
erros dos coeficientes sejam menores do que o que realmente são e que o R2 seja mais alto do que o que
é na realidade.
Para detetar a presença de autocorrelação nos modelos, podemos usar o teste de Wooldridge para
a autocorrelação em dados de painel. A hipótese nula do teste é:

H0: Não existe autocorrelação de primeira ordem.

Neste caso, para realizarmos o teste só temos de escrever o seguinte comando no STATA:
xtserial depvar indepvars
Onde “depvar” e “indepvars” representam variável dependente e variáveis independentes,
respetivamente. No caso do nosso exemplo fica:
xtserial y x
Depois de “corrermos” o comando, o STATA mostra o seguinte:

Figura 12.18 – Teste de Wooldridge para a autocorrelação

Se o valor da Prob>F for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a
hipótese nula do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do
nosso exemplo rejeitamos a hipótese nula a 1%, ou seja, existe autocorrelação.

Testes de Raiz unitária/estacionariedade


No STATA podemos também encontrar uma série de testes de raiz unitária (de estacionariedade)
desenvolvidos para dados de painel. Nestes testes estão incluídos o de Levin-Lin-Chu, o de Harris-
Tzavalis, o de Breitung, o de Im-Pesaran-Shin, um de tipo Fisher, e o teste de estacionariedade de Hadri
Lagrange multiplier. Todos têm a hipótese nula de que o painel contém uma raiz unitária, à exceção do
último em que a hipótese nula é a de que os painéis são estacionários. Embora o programa contenha este
conjunto de testes, habitualmente, os testes de raiz unitária de 1º geração fazem-se no EViews, tal como

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 155
Exercícios Introdutórios de Análise Económica de Dados

estão explicados no capítulo 7. Contudo, se necessário, o utilizador pode usar o comando “help
xtunitroot” para saber mais à cerca dos testes anteriormente enunciados.
Um aspeto importante, para o qual devemos alertar é que os testes de raiz unitária de 1º geração
são baseados na hipótese de que não existe dependência seccional entre as entidades, o que em muitos
casos não acontece, e por isso, estes testes deixam de ser eficientes. Deste modo, testes de raiz unitária
de 2º geração foram desenvolvidos de forma a lidar com a presença do fenómeno de dependência
seccional nos painéis.
Um exemplo de um teste de 2º geração que é normalmente usado é o CIPS (cross-sectionally
augmented Im-Pesaran-Shin). Este teste pode ser realizado no STATA recorrendo ao comando
“multipurt”, sendo que a sua hipótese nula é a de que a variável é I(1) ou de que não é estacionária.
Para realizar este teste usamos então o seguinte comando:
multipurt varname, lags(numlist)
Como podemos verificar, depois do “multipurt” devemos especificar as variáveis que queremos
testar tal como o número de desfasamentos (lags) a ser aplicados no teste. Normalmente começa-se por
utilizar a opção “lags(0)”, aumentando depois este número nos ensaios seguintes. Como é obvio, o
número de desfasamentos deve ser escolhido tendo como base o sentido económico, por exemplo, com
dados anuais usar um máximo de até 3 desfasamentos deverá ser o suficiente.
Exemplificando, escrevemos então o comando com as variáveis a ser testadas e especificamos
um determinado número de desfasamentos:
multipurt y x, lags(3)
De seguida o STATA apresta-nos a seguinte tabela:

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 156
Exercícios Introdutórios de Análise Económica de Dados

Figura 12.19 – CIPS

Antes de iniciar a explicação à cerca dos resultados deste teste, devemos referir que além desta
tabela (B), o comando “multipurt” também nos dá uma tabela referente à estimação do teste de Maddala
e Wu (A), teste esse que é de 1º geração. Neste caso como o que nos interessa é o teste CIPS, a tabela
(A) não foi apresentada.
Centrando-nos agora nos resultados da Figura 12.19, vemos que a tabela é dividida em duas
partes, uma primeira em que a especificação não contém uma tendência e uma segunda em que uma
tendência está presente na especificação. Este facto pode ajudar-nos a perceber se será necessário incluir
uma tendência no modelo de forma a tornar as variáveis estacionárias. Para avaliar a estacionariedade
da série recorremos conjuntamente aos valores de Zt-bar e do seu respetivo p-value. Dada a hipótese
nula do teste, se o p-value for > 0.1 aceitamos a hipótese nula, se for < 0.1 rejeitamos a hipótese nula a
10%, se for < 0.05, rejeitamos a 5%, e se < 0.01 rejeitamos a 1%.
No caso do nosso exemplo, percebemos que a variável “y” é claramente I(1), ou não é
estacionária, pois através das suas estatísticas percebemos que não é possível rejeitar a hipótese nula do
teste CIPS em qualquer das especificações apresentadas, isto é, com e sem tendência e com qualquer
número de desfasamentos (neste caso 0, 1, 2, 3), pois o p-value é sempre superior a 10%. Já no que toca
à variável “x”, a inferência já não é assim tão simples. Como pode ser verificado na Figura 12.19, sem
tendência, a variável “x” parece ser sempre I(1) – não estacionária – à exceção da especificação com um

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 157
Exercícios Introdutórios de Análise Económica de Dados

desfasamento, em que esta parece rejeitar a hipótese nula. Com tendência, o cenário mantém-se idêntico,
mas desta feita a hipótese nula também se rejeita na especificação que contem três desfasamentos.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 158
Exercícios Introdutórios de Análise Económica de Dados

13. Referências

Asteriou, D., & Hall, S. G. (2011). Applied econometrics. Palgrave Macmillan. (pp. 1-492). ISBN: 978-
0-230-27182-1.
Fuinhas, J. A., Marques, A. C. & Belucio, M. (2017). O impacto das peregrinações no turismo religioso.
Análise e previsão do fenómeno Mariano de Fátima. In: F. Matias, José António C. Santos, C.
Afonso, C. Baptista, C. M. Q. Ramos, & M. C. Santos (Eds.), Estudos de Gestão e
Empreendedorismo (pp. 605-626). Faro: Universidade do Algarve.
Wooldridge, J.M. (2006). Introductory Econometrics: A Modern Approach. 3rd Edition,
Thomson/South-Western, Mason.

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 159
View publication stats

Exercícios Introdutórios de Análise Económica de Dados

Sobre os autores:

José Alberto Fuinhas é Professor convidado no Departamento de Gestão e Economia da Faculdade de


Ciências Sociais e Humanas da Universidade da Beira Interior e Professor na Faculdade de Economia
da Universidade de Coimbra. E-mail: fuinhas@ubi.pt; fuinhas@uc.pt

Matheus Belucio é mestre em Economia pela Universidade da Beira Interior. E-mail:


matheus.belucio@hotmail.com

Renato Santiago é mestre em Economia pela Universidade da Beira Interior. E-mail:


renato.santiago@ubi.pt

Tiago Afonso é mestre em Economia pela Universidade da Beira Interior e assistente no Departamento
de Gestão e Economia da Faculdade de Ciências Sociais e Humanas da Universidade da Beira Interior.
E-mail: tiago.afonso@ubi.pt

José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 160

Você também pode gostar