Escolar Documentos
Profissional Documentos
Cultura Documentos
net/publication/330635309
CITATIONS READS
0 51
4 authors:
Some of the authors of this publication are also working on these related projects:
Globalization and the paradigm of renewable energy transition in the Latin American and the Caribbean (LAC) countries View project
The extended Energy-Growth Nexus: Theory and Empirical Apllications View project
All content following this page was uploaded by José Alberto Fuinhas on 29 January 2019.
Índice
1. Introdução ...................................................................................................................................... 1
PARTE 1 ................................................................................................................................................ 3
2. Obtenção de variáveis em bases de dados ................................................................................... 4
2.1. AM ECO................................................................................................................................. 4
2.2. World Bank – World Development indicators (WDI) ....................................................... 4
2.3. Pordata ................................................................................................................................... 5
3. Tratamento dos dados em Excel ................................................................................................... 6
3.1. Ativar/desativar suplementos ............................................................................................... 6
3.2. Modificar os separadores do sistema: decimal e de milhares ............................................ 6
3.3. Realizar operações aritméticas............................................................................................. 7
3.4. Realizar operações com matrizes ......................................................................................... 8
3.5. Representação gráfica de dados ........................................................................................... 9
3.6. Representar uma linha de regressão num gráfico .............................................................. 9
3.7. Alterar o ano base do deflator ............................................................................................ 10
3.8. Calcular taxas de crescimento simples e logarítmicas ..................................................... 11
4. EViews .......................................................................................................................................... 13
4.1. Criar um Workfile............................................................................................................... 13
4.2. Importar dados de ficheiros em formato Excel ................................................................ 14
4.3. Instalar add ins..................................................................................................................... 17
4.4. Converter variáveis para logaritmos ................................................................................. 17
4.5. Calcular as primeiras diferenças de variáveis .................................................................. 18
4.6. Criar uma variável tendência ............................................................................................. 19
4.7. Criar e executar operações num ficheiro “program’’...................................................... 20
4.8. Representar variáveis graficamente .................................................................................. 20
4.9. Apresentar as estatísticas descritivas das variáveis.......................................................... 22
4.10. Apresentar a matriz de correlações ................................................................................... 22
4.11. Efetuar regressões múltiplas OLS ..................................................................................... 23
4.12. Interpretação dos coeficientes das regressões ................................................................... 25
4.13. Interpretação da qualidade do ajustamento ..................................................................... 29
4.14. Representar graficamente os resíduos das regressões...................................................... 29
4.15. Dummies............................................................................................................................... 31
4.16. Interpretar os coeficientes das variáveis dummies ........................................................... 33
4.17. Regressão stepwise (backward e forward) ........................................................................ 34
4.18. Testes de autocorrelação ..................................................................................................... 35
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso iii
Exercícios Introdutórios de Análise Económica de Dados
1. Introdução
O presente livro destina-se a alunos provenientes de outros sistemas de ensino e que tendo sido
admitidos ao mestrado em Economia na Universidade da Beira Interior precisam de, com a maior
brevidade possível, poderem estar a um nível de conhecimento de Econometria Aplicada básica que lhes
permita acompanhar as aulas da unidade curricular de Análise Económica de Dados. As dificuldades
não se ficam apenas pela unidade curricular de Análise Económica de Dados. Este livro também se
destina a alunos provenientes do 1º ciclo de estudos em Economia, onde estes podem fazer uma revisão
de práticas adquiridas anteriormente. A metodologia de estudo-aprendizagem na maioria das unidades
curriculares do mestrado “obriga” os alunos a desenvolverem trabalhos de investigação aplicada que
requerem já algum conhecimento no que toca à recolha e tratamento avançado dos dados. Também aqui
este pequeno livro de iniciação se pode revelar um elemento de estudo com algumas mais-valias para
os alunos.
Os alunos a quem se destina este livro encontram-se, regra geral, em diferentes níveis de formação
em métodos quantitativos e de domínio do conhecimento económico. O conhecimento e aplicação de
conceitos económicos revela-se imprescindível para a formulação de modelos económicos e para a sua
posterior reprodução econométrica. As dúvidas que se colocam para os alunos que começam
virtualmente do zero em Econometria são inúmeras. Questões tão simples como as que se seguem
poderão ser barreiras quase intransponíveis quando o tempo para as estudar escasseia. Afinal as variáveis
devem ser reais ou podem também ser nominais? Devem ser convertidas em valores per capita? E o ano
base a que se referem as variáveis é importante?
As questões não se ficam pelas variáveis, variáveis essas, muitas vezes insuficientemente
representativas dos conceitos económicos que lhes estão na base, mas também pela miríade de técnicas
econométricas que estão disponíveis e que não é nada óbvio quando devem (ou podem) ser aplicadas.
O livro encontra-se dividido em duas partes. Na primeira parte são tratados aspetos elementares
da obtenção de dados e do seu tratamento para poderem ser utilizados nos programas econométricos,
que aqui se cingem ao EViews e ao STATA. Os estudantes são, ainda, iniciados na estimação pelo
método dos mínimos quadrados, na interpretação dos resultados das estimações e ainda na realização de
um conjunto alargado de testes de diagnóstico que aferem a qualidade da regressão estimada. A geração
de variáveis mudas (dummies) e a sua utilização são também objeto de atenção. Na segunda parte são
abordadas algumas das técnicas econométricas mais utilizadas na investigação empírica. O objetivo aqui
é que os estudantes estejam alertados para as condições que têm de estar reunidas para que um
determinado modelo econométrico possa ser utilizado, que sejam capazes de dominar os passos básicos
da programação, e que consigam interpretar os resultados obtidos. A investigação empírica depara-se
com imensas limitações e a sua superação requer, para a maioria dos investigadores, algum tempo para
adquirir a experiência necessária. Procurou-se que o nível de exposição das técnicas seja suficiente para
que a maioria dos estudantes possam ser autónomos no aprofundamento do estudo das particularidades
de cada técnica.
Os programas econométricos aqui utilizados são os que por razões históricas já se encontram
enraizados nos dois primeiros ciclos de estudos de Economia da Faculdade de Ciências Socias e
Humanas da UBI. Outros poderiam ter sido utilizados e provavelmente o serão num futuro próximo.
2.1. AM ECO
Esta base de dados disponibiliza variáveis macroeconómicas da Comissão Europeia e possui
variáveis para países europeus. Para se chegar ao exemplo da Figura 2.1, seguem-se os seguintes passos:
Balanços com o resto do mundo > estatísticas Bop > Current account balance, balance of
payments statistics
http://ec.europa.eu/economy_finance/ameco/user/serie/SelectSerie.cfm
Na AMECO é possível encontrar dados com frequência anual referentes à população, consumo,
comércio, entre outras variáveis de interesse económico.
2.3. Pordata
Esta base de dados disponibiliza variáveis com foco em Portugal e também para a União Europeia,
embora com menos detalhe. A Portada tem como temas principais: população, educação, saúde,
proteção social, condições de vida e rendimento das famílias, justiça e segurança, emprego e mercado
de trabalho, empresas e pessoal, macroeconomia, ciência, tecnologia e sociedade de informação,
ambiente, energia e território, turismo e transportes.
https://www.pordata.pt/Europa
Na Pordata, assim como no World Bank, é possível escolher o(s) país(es), variável(is) e o tempo.
Os suplementos são ferramentas do Office, que não foram previamente instaladas por terem
funções bastante específicas, como por exemplo, fazer a conversão de quase qualquer moeda para o
Euro e vice-versa.
Um dos motivos pela qual se alteram os separadores do sistema prende-se com o facto de que na
língua inglesa o separador decimal é o ponto e o separador de milhares é a vírgula, contrariamente à
língua portuguesa. No EViews os pontos e as vírgulas funcionam de acordo com a língua inglesa e, em
contrapartida, no STATA funcionam de acordo com a língua portuguesa.
Este ponto é benéfico quando se trata um elevado número de valores que, quando necessário,
podem ser, por exemplo, somados com outros valores correspondentes ao mesmo ano, país ou outro, e
apenas com um simples comando obtemos o resultado imediatamente.
O resultado será parecido com o da Figura 3.5. Depois disto, seleciona-se a dimensão que a matriz
irá ter, colocando o cursor na função e clicando ctrl+shift+enter. De seguida aparecerá a matriz.
Para executar outras operações com matrizes, como a inversa ou a determinante, o processo é o
mesmo.
Em modelos e planeamento económico, bem como nos negócios, a maior parte dos problemas
são lineares ou aproximados por modelos lineares. Estes problemas podem ser resolvidos recorrendo ao
cálculo matricial. As matrizes estocásticas também são usadas em algoritmos e têm variadas aplicações
de computação, nomeadamente nos programas específicos de econometria.
Os gráficos exibem os dados de uma maneira mais intuitiva e agradável, o que torna mais fácil a
sua compreensão.
A linha de regressão irá então estimar uma tendência em função dos dados.
Depois, tal como a Figura 3.9, seleciona-se toda a coluna, clicando em colar especial e seleciona-
se “Divisão”.
𝑃𝐸 − 𝑃𝐸
𝑡𝑎𝑥𝑎 𝑑𝑒 𝑐𝑟𝑒𝑠𝑐𝑖𝑚𝑒𝑛𝑡𝑜 𝑃𝐸 = (3.1)
𝑃𝐸
4. EViews
Nesta seção o aluno terá o seu primeiro contacto com o software EViews, um programa muito
importante para análise econométrica e bastante “user friendly”. O intuito desta secção é explicar desde
a simples criação de novos ficheiros até a compreensão de resultados dos testes que serão efetuados.
Neste momento, é necessário preencher os dados de acordo com o ficheiro que se pretende criar.
Uma outra forma de criar um workfile é usar as teclas “Ctrl+N”. Adicionalmente, ainda é possível
ir ao menu ficheiro, new > workfile (como mostra a Figura 4.3), aparecendo depois a mesma janela da
Figura 4.2.
Neste primeiro passo é possível escolher qual a folha do Excel que se pretende importar.
Neste segundo passo é necessário definir a natureza da primeira linha dos dados, neste caso o
nome das variáveis.
Neste terceiro passo é possível mudar o nome de uma variável. Caso isto não seja pretendido,
clica-se apenas em seguinte.
Os add-ins podem oferecer novas formas de utilizar os programas do EViews. Existem pacotes e
bibliotecas de add-ins que podem ser utilizados para expandir as ferramentas do EViews.
1
> Designa o passo seguinte.
Na nova janela (Figura 4.12), introduz-se a expressão correspondente à geração da nova variável.
De notar que a função “log” do EViews corresponde ao logaritmo natural.
Contudo, para gerar as diferenças das variáveis, é necessário, primeiro, criar os logaritmos dessas
mesmas variáveis. Com o logaritmo da variável selecionado, é possível gerar então as primeiras
diferenças através da expressão: d(variável).
As primeiras diferenças são utilizadas, por exemplo, quando as séries não apresentam
estacionariedade, ou no cálculo de taxas de crescimento.
Depois deste passo, a primeira coisa a ser feita é escrever stop e clicar em run selected, de forma
a executar o comando, como mostra a Figura 4.16.Concluindo, para executar o “program” basta escrever
o(s) comando(s) que se pretende utilizar, selecionar o(s) comando(s), e clicar em run selected.
O ficheiro “program” tem a função de realizar operações através de comandos, sendo, portanto,
um método alternativo ao utilizado até aqui.
Depois executado o passo anterior, aparece um esquema igual ao da Figura 4.18, em que é
necessário selecionar o tipo de gráfico que se pretende, e selecionar se as variáveis serão representadas
através de único gráfico ou através de um gráfico para cada uma das variáveis.
A representação gráfica é benéfica para comparar variáveis e analisá-las de uma forma mais
precisa e mais compreensível. Por exemplo, pode ser útil para a observação de tendências. Este software
tem ainda a vantagem de mostrar os gráficos das variáveis em conjunto ou em separado, dando a
possibilidade de escolher a forma que permite uma melhor avaliação das variáveis.
Através da matriz de correlações sabe-se qual o grau de correlação que existe entre as variáveis
escolhidas (este ponto será aprofundado posteriormente).
Posteriormente, é apresentado o output da equação, como mostra a Figura 4.25. Este output
apresenta um conjunto de critérios que ajudam a perceber melhor as características do modelo que está
a ser testado.
Nota ainda para o facto de também se poder representar a regressão através do “program”. Para
isso escreve-se: ls co2 c imp gdpc fdi.
Modelos de Regressão
Modelo de Regressão Determinista
Neste caso temos uma variável dependente e uma independente.
Exemplo: Yt=b0+b1.Xt (4.1)
Em que:
Yt é a variável dependente;
Xt é a variável independente;
Os parâmetros b0 e b1 obtêm-se através das fórmulas abaixo apresentadas (Eqs 4.2 e 4.3).
∑𝑌 ∑𝑋
𝑏 =𝑌−𝑏 𝑋 = − 𝑏1
𝑛 𝑛 (4.2)
∑(𝑋 − 𝑋)(𝑌 − 𝑌) 𝑛 ∑ 𝑋𝑌 − ∑ 𝑋 ∑ 𝑌
𝑏 = =
∑(𝑋 − 𝑋) 𝑛 ∑ 𝑋 − (∑ 𝑋) (4.3)
Coeficiente de Determinação – R2
Este coeficiente mede a proporção de variabilidade da variável dependente/explicada pela
variável independente num modelo de regressão.
𝑹𝟐 – Através da sua percentagem pode perceber-se de que forma a variável dependente poderá
ser explicada pelas variáveis independentes (explicativas). Quanto mais baixo for o seu valor, mais baixo
será o poder explicativo do modelo. O poder explicativo está altamente relacionado com o número de
observações e com o número de variáveis independentes.2
Quanto maior for o P-valor 3 (Prob.) maior é a probabilidade de não se rejeitar a hipótese nula.
(H. nula é quando o β=0).
o P-valor < 0,01 – Estatisticamente significante a 1%
o P-valor < 0,05 – Estatisticamente significante a 5%
o P-valor < 0,10 – Estatisticamente significante a 10%
Pressuposto: Um aumento de 1 ponto percentual de X (variável explicativa) representa um
aumento (caso o valor do coeficiente seja positivo) ou uma diminuição (caso o valor do coeficiente
seja negativo) no Y (variável dependente). (Ceteris paribus – para acontecer, tudo o resto permanece
constante).
Preposição do Método OLS
Tem que ser linear;
O coeficiente da variável tem que ser superior a 0,1;
O X não pode ser estocástico (não determinista);
2
O R2 situa-se entre valores de 0-1, podendo chegar a valores muito elevados, às vezes até mesmo superiores a
0,9. Isso pode levar a concluir que existe uma relação muito forte entre as variáveis.
3
No EViews e no STATA o P-valor aparece com 4 casas decimais (0.0000).
O valor esperado do termo de erro tem que ser 0 (ou seja, a média);
Os erros têm que ser homocedásticos, e a variância do erro tem que ser constante para todo o t;
Não pode haver autocorrelação dos erros;
Não pode haver multicolinearidade – não pode haver relações lineares exatas entre as variáveis;
Por exemplo, estimando a seguinte regressão: co2 c gdpc, temos:
Uma informação importante quando se faz uma estimação é saber a qualidade do ajustamento
(goodness-of-fit) efetuado. Para se determinar a qualidade do ajustamento precisamos de saber quão
próximo é o valor estimado do valor observado. Na regressão linear, vamos determinar a reta que melhor
traduz a relação entre Yt e Xt. Por outras palavras, trata-se encontrar uma medida que minimize as
discrepâncias entre os valores estimados e os valores que efetivamente a variável dependente tem em
cada momento. Para se obter esta medida, primeiro temos que decompor o valor de Yt. Assim, o valor
observado é decomposto no valor estimado mais o seu resíduo (estimado). Conforme Asteriou e Hall,
2011:
Yt = ӯt +ût (4.7)
Subtraindo ӯ dos dois lados que temos
Yt −ӯ = ӯt − ӯ + û (4.8)
Depois clica-se em resids e os resíduos serão apresentados como mostra a Figura 4.29.
A análise dos resíduos serve para investigar a adequabilidade do modelo. Neste caso, serão criadas
duas dummies, uma para o ano 1984 (ponto A da Figura 4.29) em que claramente ocorreu um choque e
outra para o período de 1990 a 2000 (período B da Figura 4.29) em que também parece ter ocorrido
outro choque. (apresentadas no ponto 4.16).
4.15. Dummies
Neste tópico serão abordados três tipos de dummies, as impulse, as stability e as sazonais. Cada
uma das dummies tem a sua função e, portanto, aplicam-se em situações diferentes. Uma variável
dummy, ou binária, assume os valores de 0 ou 1 ao longo do tempo.
- Impulse
Uma impulse dummy servem para controlar choques num ano específico.
Para se criar uma dummy deste tipo, primeiramente, vai-se ao separador Add-ins e seleciona-se
Generate Dummy Variables, como mostra a figura seguinte.
Depois de executado o passo anterior, é possível escolher entre Impulse Dummy ou Stability
Dummy. Tendo em conta este exemplo opta-se por Impulse Dummy.
A seguir irá aparecer uma janela como a da Figura 4.32, onde se deve indicar a informação
referente ao ano em que ocorreu o choque.
- Stability
Uma stability dummy serve para controlar choques num período de tempo, entre mais do que um
ano por exemplo.
Para se criar um stability, primeiro faz-se o mesmo passo da Figura 4.30, mas desta feita opta-se
pela opção stability, como mostra a Figura 4.33.
De seguida irá aparecer um quadro igual ao da Figura 4.34, em que é necessário especificar o
período de tempo em que ocorre o choque.
- Sazonal
Para se gerarem dummies sazonais é necessário recorrer-se a comandos idênticos aos
representados na Figura 4.35.
Esta opção não é adequada a dados anuais, apenas se consegue realizar com dados compreendidos
num ano, como por exemplo, dados bimestrais, trimestrais, quadrimestrais, semestrais e mensais. O
exemplo, Figura 4.35, é para dados mensais.
De acordo com o exemplo da Figura 4.36, foram inseridas duas dummies no modelo. A dummy
impulse para o ano de 1984 e a dummy stability para o período que vai desde 1990 a 2002. Ambas as
dummies demonstram ter uma probabilidade estatisticamente significante, o que justifica a sua inserção.
Relativamente aos coeficientes, vemos que em ambos os casos este é negativo, isto porque quer no ano
de 1984 quer no intervalo de 1990 a 2002 os resíduos são negativos.
Depois, e de acordo com Figura 4.38, é necessário optar por uma das opções: forwards ou
backward, bem como definir (para cada uma destas opções) o p-value que retira automaticamente da
estimação as variáveis que não são estatisticamente significantes.
4
Para executar no “program”, escreve-se:
stepls(ftol=0.10, btol=0.10, back) co2 c @ trend exp01 fdi gdpc gfcf imp pe
Em que:
Ftol e btol são níveis de significância para as quais queremos que as variáveis sejam retiradas, caso
tenham probabilidade superior a esse nível de significância;
Back, escolheu-se entre backward e forward.
Neste exemplo, esta regressão retira as variáveis cujo p-value esteja acima de 10%.
Como se pode observar no output da Figura 4.39, neste output não estão presentes todas as
variáveis, faltam as variáveis exp01 e imp. A regressão completa era co2 c trend exp01 fdi gdpc gfcf
imp pe. Isto significa que as variáveis exp01 e imp não são necessárias para este modelo (o seu p-value
é superior a 10%).
Autocorrelação graficamente
Uma maneira simples de detetar a autocorrelação é examinar se as parcelas residuais contra o
tempo e o gráfico de dispersão de ut contra ut-1 exibem padrões semelhantes aos apresentados nas Figuras
4.40 e 4.41.
Diz-se que existem evidências de correlação serial positiva se o padrão for semelhante ao da
Figura 4.40. Já se o padrão for semelhante ao da Figura 4.41, diz-se que existem evidências de correlação
serial negativa.
Exemplo:
Para testar a autocorrelação dos dados, primeiramente faz-se uma regressão. Neste caso, estimou-
se a seguinte equação, com os seguintes comandos:
Quick > Estimate equation - co2 c fdi pe gdpc
Depois gera-se uma nova variável que contenha os valores dos resíduos da equação estimada:
Quick > Generate series - ut=resid
De seguida, procede-se à representação gráfica da variável ut, assim como do gráfico da variável
ut contra ut-1.
Quick > Graph- ut
Através da análise da Figuras 4.42 e da Figura 4.43, pode afirmar-se que os resíduos parecem
estar positivamente correlacionados em série.
Teste prático (caso não se consiga ver a autocorrelação através do método gráfico):
Estima-se novamente a equação anterior:
Quick > Estimate Equation- co2 c fdi pe gdpc
Da regressão feita, pode verificar-se que a variável independente fdi tem uma probabilidade muito
significativa, por isso removemo-la da equação.
Com este procedimento, verifica-se que todas as outras variáveis ficam com probabilidade igual
a 0. De seguida, gera-se uma nova variável para os resíduos, desta nova regressão, designada por res1:
Quick > Generate series- res1=resid
Com a variável resíduos gerada, verificamos a sua representação gráfica:
De seguida estimamos uma nova regressão: res1 res1(-1) res1(-2) res1(-3) res1(-4).
Durbin-Watson
O teste estatístico mais utilizado para a investigar a presença de correlação em série é o teste de
Durbin-Watson, que é válido quando os seguintes pressupostos são atendidos:
O modelo de regressão inclui uma constante;
A correlação serial é assumida como sendo de primeira ordem;
A equação não inclui uma variável dependente desfasada como uma variável explicativa.
Exemplo de modeloi:
Yt = β1+β2X2t +β3X3t +···+βkXkt +ut, (4.12)
Onde ut = ρut−1+εt
0 dB dA 2 4- dA 4- dB 4
Quanto mais próximo de 0, mais perto estamos da existência de autocorrelação positiva. Quanto
mais perto de 4, mais perto estamos da existência de autocorrelação negativa. De seguida, vamos à tabela
“Durbin–watson significance” (facilmente encontrada na internet), para x=6 e k=1: 1,142.
Como 0,267 é menor que 1,142, dizemos que foi detetada a presença de uma correlação
positiva.
Fórmula de Durbin’s h
Equação estimada: co2 c fdi pe gdpc co2(-1)
Fórmula:
H= 1− . (4.13)
Neste exemplo:
.
H= 1 − . ( , )
=1.4195 (4.14)
View > residual diagnostics > serial correlation (lags=4(por ser autorregressivo até 4))
Com este teste, através de probabilidade dada (0,0000), rejeita-se a hipótese nula (H0 não há
correlação serial). Conclui-se assim que este modelo apresenta correlação serial.
Exemplo:
Em primeiro lugar, procede-se à realização da regressão da equação co2 c fdi pe gdpc. Depois
faz-se uma simples análise da parcela de dispersão das três variáveis explicativas relativamente à
variável explicada, através da análise gráfica.
Quick > graph- fdi co2
Através deste método gráfico não se consegue tirar conclusões robustas, por isso passa-se aos
testes de heterocedasticidade (de seguida serão expostos cinco exemplos).
Para realizar testes de heterocedasticidade primeiro faz-se uma regressão (neste caso co2 c fdi
pe gdpc), e depois seguem-se os seguintes passos:
No caso do teste Breusch-Pagan-Godfrey, não rejeitamos a hipótese nula, para qualquer nível de
significância, pois a probabilidade é de 0.1394.
No teste Glejser, também não rejeitamos a hipótese nula, uma vez que a probabilidade é de
0,4267.
Neste teste (Harvey) a probabilidade também é elevada e por isso não rejeitamos a hipótese nula.
Este teste tem a vantagem de determinar só os erros. À medida que se aumenta o número de lags,
a probabilidade diminui. Este é o único teste, para este exemplo, em que se rejeita a hipótese nula para
todos os níveis de significância (1%, 5% e 10%).
Este teste determina a heterocedasticidade da função quadrada. Neste caso, não se rejeita a
hipótese nula.
Obs: não se seleciona a opção “include White cross terms”.
Multicolinearidade Perfeita:
Quando existe uma relação linear perfeita. É quando se multiplica uma variável por um vetor.
Exemplo de modelo:
Y=β1+β2X2+ β3X3+e (4.15)
Multicolinearidade imperfeita:
A multicolinearidade imperfeita existe quando as variáveis explicativas numa equação estão
correlacionadas, mas essa correlação é inferior à perfeita.
Isto pode ser expresso como:
X3 = X2 + v (4.16)
Onde v é uma variável aleatória que pode ser vista como o "erro" no relacionamento linear exato.
Portanto, testar-se-á a multicolinearidade das variáveis que fazem parte da equação:
Neste caso, diz-se que não existe multicolinearidade pois os valores centrados do VIF são
inferiores a 10. Se o VIF for superior a 10, temos um problema de multicolinearidade.
Para resolver este problema temos que retirar a variável que tenha a segunda maior probabilidade.
Caso não resolva, voltamos a fazer o mesmo.
Quando o VIF for superior a 10 quer dizer que existe multicolinearidade.
Nota: este teste só mede a multicolinearidade entre varáveis dependentes.
Com se pode verificar, existe um grande coeficiente de correlação entre o gdpc e o gfcf. Pelo que
estimamos a equação com o GFCF e procedemos à realização do teste VIF.
Os valores centrados do VIF para as variáveis GDPC e GFCF são muito elevados (superiores a
10), o que significa que temos presença de multicolinearidade.
Tal como referido anteriormente, para resolver o problema retiramos a variável que tenha a
segunda maior probabilidade.
Desta forma, é possível ver quantos coeficientes tem a equação estimada e que coeficiente
corresponde a cada variável. Depois podemos testar várias hipóteses, tais como a igualdade entre eles
e/ou outro tipo de operações aritméticas.
Por exemplo: H0: c(2)=c(3)=c(4)=0
View > coefficient diagnostics > Wald Test: c(2)=c(3)=c(4)=0
Através do resultado apresentado, conclui-se que a hipótese nula é rejeitada para todos os níveis
de significância estatística, pois a probabilidade é igual a 0.0000, ou seja, os coeficientes não são todos
iguais a 0.
A hipótese nula é a distribuição normal dos erros. Dado que neste caso esta se encontra na zona
dita como “normal”, podemos então dizer que os erros seguem uma distribuição normal.
Por esta regressão, conclui-se que as variáveis que são necessárias são: trend, lpe, limp e lgfcf.
Estas são as variáveis que serão usadas no modelo ao qual se irá aplicar os testes seguintes.
Este teste também pode ser feito através do “program”, seguindo a mesma sequência de etapas,
mas recorrendo aos seguintes comandos:
Ls lco2 c trend lpe limp lgfcf
Reset.
A hipótese nula é a de que o modelo esta bem especificado. Neste caso, não se rejeita a hipótese
nula, então o modelo está bem especificado. De seguida, clica-se em FORECAST, para criar uma
variável com o valor da regressão.
Os modelos nested (restringidos) são submodelos de um modelo geral, ou seja, são modelos em
que excluímos uma ou mais variáveis, mas que contém basicamente a mesma informação que o modelo
completo.
Nested
Os modelos non-nested, são modelos, em que as variáveis são distintas umas das outras. Por
exemplo, uma variável em nível e a mesma variável em logaritmos são de fato variáveis diferentes (não
transmitem a mesma informação). Uma estimação feita com variáveis em níveis não é diretamente
comparável com uma estimação com as mesmas variáveis em logaritmos. Na Eq. 4.17 seria, por
exemplo, termos wt ou lwt.
Depois da execução do passo anterior e de se ter selecionado a variável gdpc, irá aparecer o output
tal como o da Figura 4.78. É neste momento que se conclui se o gdpc é uma variável importante para o
modelo ou não.
Dado o output da figura anterior, concluir-se que o GDPC é significante, ou seja, tem que fazer
parte do modelo.
Depois da realização do passo anterior, testa-se as variáveis logaritmizadas, segundo o teste wald:
c(6)=c(7)=c(8)=0. A Figura 4.80 mostra o resultado deste teste.
A hipótese nula é C(6)=C(7)=C(8)=0. Neste caso rejeita-se a hipótese nula, pois a probabilidade
é próxima de 0, o que quer dizer que os coeficientes não são iguais a zero.
A Figura 4.84 apresenta o output para esta situação, em que é possível observar a hipótese nula e
através da probabilidade rejeitá-la ou não.
Assim sendo, neste caso rejeita-se a hipótese nula, que é a de não haver uma quebra em 1980,
pois a probabilidade é quase igual a zero. Após a realização deste teste pode-se afirmar que realmente
existe uma quebra no ano de 1980.
Este passo é útil, quando se quer guardar os dados sem ser em formato EViews, para que estes
possam ser abertos noutros programas, tais como o Excel ou STATA.
5. STATA
Nesta seção o aluno terá o seu primeiro contacto com o STATA. Este também é um programa
muito importante para a análise econométrica. Neste ponto serão abordados tópicos de explicação,
exposição e resultados de testes.
Procurar o ficheiro que se pretende importar, a partir do Browse e, de seguida, clicar no “Import
first row as variable names” para que a primeira linha contenha apenas os nomes das variáveis.
Depois de importar o ficheiro, deve aparecer algo como o que está representado na Figura 5.3.
Do lado esquerdo deve aparecer a importação do ficheiro e do lado direito todas as variáveis que
importámos.
Este ficheiro serve para executar comandos, podendo ser gravado para que numa utilização futura
não haja necessidade de escrever todos os passos novamente. Para que um comando seja executado
neste ficheiro é necessário clicar CTRL+D ou clicar no separador “do”. O ficheiro “do” atua de maneira
semelhante ao ficheiro “program” do EViews.
Neste caso, utilizou-se a variável year, uma vez que na base de dados usada a variável temporal
foi descrita com esse nome.
A funcionalidade help fornece uma riqueza de informação para ajudar a aprender e a usar o
STATA. Este é um método para descobrir rapidamente como executar uma função e demais atribuições
do programa.
Para instalar um command, insere-se no espaço adequado o seguinte: ssc install (o que se
pretende instalar). Por exemplo: xtscc. Depois de clicar no Enter, confirma-se se a instalação foi bem-
sucedida (ver a Figura 5.8).
Após a instalação, todos os ficheiros associados ao package estarão disponíveis. Estes packages
poderão ser facilmente desinstalados. Tais programas são ótimas fontes de aprendizagem, pois, no geral,
resolvem problemas ou facilitam tarefas.
De seguida, será gerada a nova variável. Para se consultar os valores desta operação, clica-se no
botão Data Editor.
Depois da execução do passo relativo à Figura 5.10, aparecerá na tela uma tabela idêntica à da
Figura 5.11, porém com uma maior dimensão, uma vez que esta apenas apresenta um excerto com duas
variáveis.
Este separador apresenta todos os valores de todas as variáveis que existem, incluindo as que
foram calculadas.
Quando as medidas de um processo são tratadas como séries temporais, a estimação da tendência
pode ser usada para fazer afirmações sobre a tendência nos dados, relacionando as medições com os
períodos em que ocorreram. O modelo pode ser utilizado para descrever o comportamento de
determinado dado observado, sem o explicar.
A matriz de correlações permite saber qual a correlação existente entre as variáveis e, também,
inquirir à cerca da multicolinearidade das mesmas.
Depois de efetuado este passo, aparecerá então uma tabela do género do da figura seguinte.
Após a realização do passo anterior, é apresentado no painel uma imagem tal como a da Figura
5.18, com a exceção da constante, visto que o propósito do tópico era mesmo não ter a presença de tal
variável. No EViews não é realizado este passo porque, quando se insere as variáveis para a regressão,
também se tem de digitar a variável constante, ou não (caso a sua ausência seja propositada).
Como se pode observar na Figura 5.18, não há presença da variável constante. Uma regressão
sem constante pode ser utlizada quando, por exemplo, a variável constante não é significante para o
modelo.
Seguidamente, geram-se os resíduos. Para isso, tem que se inserir o comando predict u, resid, em
que “u” é um nome dado aos resíduos. Para confirmar que os resíduos foram, efetivamente, criados basta
olhar para as variáveis, como mostra a Figura 5.20.
Por último, insere-se o comando tsline u, de forma a gerar o gráfico dos resíduos. Após clicar no
Enter vai abrir uma nova página com o gráfico dos resíduos criado, como podemos observar na Figura
5.21.
5.14. Dummies
Para criar dummies, neste caso mensais, é necessário digitar o comando generate m1=(m==1) e
assim adiante para os 12 meses do ano, como mostra a Figura 5.22.
Nota: Antes de criar as dummies mensais é necessário criar a variável “mês” da seguinte forma:
generate m=month(dofm(t)).
As dummies servem para controlar choques, como referido anteriormente, no ponto 4.15.
Para representá-los graficamente, utiliza-se o comando tsline fitted e aparecerá o gráfico dos
valores ajustados de uma variável.
Após a execução dos passos anteriores, aparecerá o teste VIF, como na Figura 5.25. A primeira
coluna representa as variáveis selecionadas para o teste, a segunda os valores do VIF (aqueles em que
se terá que ter em atenção se são maiores ou menores que 10),e a última coluna os valores inversos do
teste. Por fim, a última linha do teste representa a média do VIF.
Valores VIF que excedam 10 são geralmente vistos como evidências de existência do problema
de multicolinearidade. Portanto, neste caso, a variável que tem o maior VIF (acima de 10) é a IMP.
Dado que essa variável é uma das variáveis de interesse do modelo, retiramos a segunda variável com
maior VIF que neste caso é a GDPC. Este processo deve ser repetido até restarem apenas variáveis com
um VIF inferior a 10.
Para este teste temos a seguinte hipótese nula: “H0: o modelo não tem nenhuma variável omissa,
ou seja, o modelo está bem especificado”.
Tendo em conta a Figura 5.27, observa-se que a Prob(F)=0,0098 é menor que 1%, logo rejeita-se
a hipótese nula, o que quer dizer que este modelo apresenta variáveis omissas.
De seguida, escolhem-se as variáveis que é suposto exportar, e depois escreve-se um nome para
o ficheiro Excel. Por último, clica-se em “save variable names to first row in Excel file” para que a
primeira linha tenha o nome das variáveis.
Ao exportar dados para um formato Excel pode efetuar-se alterações neste, bem como fornecer
esta informação a outros indivíduos, que não vão estar restritos à utilização deste programa.
6. Exercício prático
Este capítulo visa aplicar de maneira prática e direta os conceitos anteriormente explicados. Nesta
secção é expectável que o leitor saiba resolver os exercícios e obter os resultados, abaixo apresentados.
Em caso de dúvidas aconselha-se a revisão dos itens anteriores para uma melhor absorção de conceitos.
6.1. Questões
Exercício A – EVIEWS
1. Construir uma base de dados, à semelhança do que foi exposto.
2. Faça a estatística descritiva para as variáveis PIB e CO2PC. Qual das duas variáveis apresenta
uma média mais elevada? Qual o valor do Jarque Bera para cada uma das variáveis? E a
probabilidade?
3. Apresente a matriz de correlações das variáveis: PEG PIB TXC e CN. Alguma das variáveis
está altamente correlacionada com outra?
4. Proceder à elaboração de uma regressão stepwise:
STEPLS CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
B. Qual é o R2?
C. Como está o DW?
5. Proceda à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
B. Qual é o R2?
C. Como está o DW?
6. Veja a autocorrelação, Segundo a equação anterior:
A. Através do método gráfico o que pode concluir (se há ou não autocorrelação e caso
haja se é positiva ou negativa)?
B. De quanto é a probabilidade do teste de autocorrelação?
C. Caso se rejeite a hipótese nula, faz-se a quantos porcento?
7. Calcule o valor de Durbin’s H para a regressão anterior, mas com a variável dependente
desfasada.
8. Heterocedasticidade:
A. Escreva o valor do teste ARCH. Rejeita-se a hipótese nula?
9. Quais são as variáveis que apresentam multicolinearidade, segundo o teste VIF?
10. Quanto à normalidade dos resíduos, diga qual o valor do Jarque Bera e o valor da
probabilidade?
11. Em relação à especificação do Modelo, faça o teste Ramsey Reset e conclua.
12. Para que ano criaria uma dummy shift? E uma dummy stability?
13. Faça o teste de pontos de quebra na raiz unitária, para cada uma das variáveis?
Exercício B – STATA
1. Apresenta a matriz de correlações das variáveis: RF PIB TXC e CO2PC. Alguma das variáveis
está altamente correlacionada com outra?
2. Proceder à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. Qual o valor de sum squared resid?
B. Quantos graus de liberdade tem esta regressão?
C. Qual é o valor do coeficiente de determinação?
3. Tendo em conta os resíduos da equação anterior para que ano/anos criaria dummy/ies?
4. Esta regressão apresenta multicolinearidade?
5. O que pode dizer quanto a especificação deste modelo?
6.2. Respostas
Exercício A – EVIEWS:
1. Construir uma base de dados, à semelhança do que foi exposto.
Quanto à base de dados, esta será fornecida, em anexo. Porém é necessário abri-la em formato
Excel a fim de perceber o horizonte temporal, conhecer as variáveis e o tipo de dados com que irá
trabalhar.
2. Faça a estatística descritiva para as variáveis PIB e CO2PC. Qual das duas variáveis apresenta
uma média mais elevada? Qual o valor do Jarque Bera para cada uma das variáveis? E a
probabilidade?
A variável que apresenta a média mais elevada é o PIB, como podemos comprovar pela tabela
(média=30272.16). O valor do Jarque Bera para o PIB e para o CO2PC é 2.495101 e 1.818497,
respetivamente; quanto à probabilidade, é 0.287207 e 0.402827.
3. Apresente a matriz de correlações das variáveis: PEG PIB TXC e CN. Alguma das variáveis
está altamente correlacionada com outra?
Segundo esta matriz de correlações, pode dizer-se que poderá haver indícios das variáveis PEG
e PIB estarem correlacionadas com a variável CN. Pois o valor de correlação entre a variável PEG e
CN é de 0.880688 e a da variável PIB e a CN é de 0.899434, muito próximos de 0.9, valor a partir do
qual existe correlação entre variáveis.
4. Proceder à elaboração de uma regressão stepwise:
STEPLS CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
As variáveis EPPC e RF não são significantes, uma vez que a probabilidade é 0.2795 e 0.2320,
respetivamente.
B. Qual é o R2?
O 𝑅 é 0.971777.
C. Como está o DW?
O valor do DW é 0.787641 está um pouco afastado de dois, o que pode pressupor que se rejeita
hipótese nula, ou seja, há autocorrelação.
5. Proceda à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. As variáveis são significantes?
Nesta regressão existem duas variáveis que não são, claramente, significantes. A variável EEPC
é uma delas, e tem como valor de probabilidade 0.2795, a outra é RF, o valor da probabilidade é 0. 2320.
Existe, também, duas variáveis que não são significantes a 10%, CO2PC e PIB.
B. Qual é o R2?
O R2 é igual a 0.971777.
C. Como está o DW?
O Durbin-Watson é igual a 0.787641, como está um pouco distante do valor 2, que indica que
não há autocorrelação, pode-se dizer que este modelo poderá ter autocorrelação.
6. Veja a autocorrelação, segundo a equação anterior:
A. Através do método gráfico o que pode concluir (se há ou não autocorrelação e caso haja
se é positiva ou negativa)?
O primeiro passo é criar a variável dos resíduos, após a estimação da regressão pretendida. Com
a exposição do gráfico não se pode concluir quanto à existência de autocorrelação.
B. De quanto é a probabilidade do teste de autocorrelação?
O teste de serial correlation rejeita a hipótese nula, não há correlação serial, com uma
probabilidade de 0,0070.
C. Caso se rejeite a hipótese nula, faz-se a quantos porcento?
A hipótese nula rejeita-se a 1%.
7. Calcule o valor de Durbin’s H para a regressão anterior, mas com a variável dependente
desfasada.
.
H= 1 − . ⇔ H= 1 − . ( . )
⇔ H=1.5326
8. Heterocedasticidade:
A. Escreva o valor do teste ARCH. Rejeita-se a hipótese nula?
O valor do teste ARCH é 0.4862. Assim sendo, não se rejeita a hipótese nula, logo não há presença
de heterocedasticidade.
9. Quais são as variáveis que apresentam multicolinearidade, segundo o teste VIF?
As variáveis EPPC, PEG, PIB e RF apresentam multicolinearidade, uma vez que o valor do VIF
é superior a 10.
10. Quanto à normalidade dos resíduos, diga qual o valor do Jarque Bera e o valor da probabilidade?
O Jarque-Bera é 0.746891 e a probabilidade é de 0.688359.
11. Em relação à especificação do Modelo, faça o teste Ramsey Reset e conclua.
Segundo o teste Ramsey RESET, não se rejeita a hipótese nula, probabilidade=0.1070, logo pode
assumir-se que o modelo está bem especificado.
12. Para que ano criaria uma dummy shift? E uma dummy stability?
Dummy: após a visualização dos resíduos, entende-se que deva fazer uma Stability dummy para
o período de 1986 a 1991 e uma shift dummy para o ano de 2007.
13. Faça o teste de pontos de quebra na raiz unitária, para cada uma das variáveis?
Abrir a variável > View > Unit Root Tests > Breakpoint Unit Root Test
Tabela 1. Teste de raiz unitária com quebra estrutural
CN 0.198529** 0.593385**
RF 0.137024* 0.689467**
Exercício B – STATA:
1. Apresenta a matriz de correlações das variáveis: RF PIB TXC e CO2PC. Alguma das
variáveis está altamente correlacionada com outra?
Sim, as variáveis PIB e RF estão altamente correlacionadas, com um valor igual a 0.9911.
2. Proceder à elaboração de uma regressão OLS:
Ls CN C CO2PC EPPC PEG PIB RF TXC
A. Qual o valor de sum squared resid?
O valor do RSS é 4.42652182.
B. Quantos graus de liberdade tem esta regressão?
Esta regressão tem 23 graus de liberdade.
C. Qual é o valor do coeficiente de determinação?
O valor do R2 é igual a 0.9863.
3. Tendo em conta os resíduos da equação anterior para que ano/anos criaria dummy/ies?
Para esta base de dados poderia criar-se uma shift dummy para o ano 2011 e uma Stability dummy
de 1986 a 1992.
4. Esta regressão apresenta multicolinearidade?
À exceção da variável TXC, todas as outras não passam no teste VIF porque os valores são
superiores a 10. Assim sendo, todas estas variáveis apresentam multicolinearidade.
5. O que pode dizer quanto a especificação deste modelo?
Segundo o teste Ramsey Reset, este modelo está mal especificado, ou seja, há variáveis omissas
no modelo. A probabilidade do teste foi 0.0619.
7. Integração de variáveis
Para perceber o conceito de integração de variáveis é necessário primeiro perceber o que é uma
raiz unitária. Uma raiz unitária é uma tendência estocástica existente numa determinada série temporal.
Se uma série temporal contiver uma raiz unitária quer dizer que esta demonstra um padrão sistemático
imprevisível.
Depois de compreendido este conceito, passamos agora para outro de extrema importância:
estacionariedade. Dizemos que uma série é estacionária se as propriedades básicas da sua distribuição
(média, variância, covariância) forem constantes ao longo do tempo, o que é visto como uma situação
ideal.
Se uma série apresentar raízes unitárias podemos transformá-la em estacionária aplicando-lhe a
transformação por diferenças. As diferenças são indicadas por I(d), onde o d representa a ordem de
integração. Séries não-estacionárias que podem ser transformadas desta forma são então chamadas de
séries integradas de ordem k. Resumindo:
Dado que o EViews é uma ferramenta que apresenta, neste capítulo, melhores funcionalidades do
que o STATA, os exemplos aqui apresentados serão baseados na utilização deste.
Como podemos ver, na primeira figura (Figura 7.1) o comportamento da série parece não se
alterar com o passar do tempo, isto é, as propriedades básicas da sua distribuição parecem ser
constantes ao longo do tempo, o que quer dizer que a série apresenta um comportamento estacionário.
Visualmente, também podemos apurar para a presença de comportamentos não estacionários
percebendo graficamente se a série não apresenta uma média constante e uma variância constante, ou
se existe uma tendência. Posto isto, é fácil de confirmar que no caso da segunda figura (Figura 7.2) a
série não é, de todo, estacionária.
7.2. Correlogramas
Outra forma de investigar se uma série é estacionária ou não, é através da realização e
inspeção de correlogramas. Para aceder ao correlograma de uma determinada série, fazemos duplo
clique na variável e clicamos seguidamente em:
View > Correlogram
Depois escolhemos as especificações que queremos (level,1st difference, 2nd difference; lags
to include) e clicamos em OK.
augmented Dickey-Fuller (ADF) test. Desta forma, o teste DF pode então ser considerado um caso
particular do teste ADF, o qual será explicado no ponto seguinte.
Suponhamos que queremos analisar se uma variável tem uma raiz unitária. Depois de fazer
duplo clique na variável fazemos:
View > Unit-Root Test
No menu Test Type escolhemos a opção Augmented Dickey-Fuller.
Seguidamente, temos também de optar se queremos incluir no teste uma constante (intercept),
uma constante e uma tendência (trend and intercept), ou nenhuma destas opções (none).
Tanto no caso anterior (step 1) como neste último (step 2) devemos testar com as três opções
disponíveis: level + intercept; level + trend and intercept; level + none; 1st difference + intercept; 1st
difference + trend and intercept; 1st difference + none; 2st difference + intercept; 2st difference + trend
and intercept; 2st difference + none.
O passo que se segue corresponde à escolha do número de desfasamentos (lags) a serem incluídos
no teste de maneira a contornar a possível presença de correlação serial (serial correlation). Neste caso,
as opções são: (1) user specified, (2) automatic selection.
Como podemos ver pela figura anterior (Figura 7.9), o EViews mostra-nos a estatística do teste
ADF na parte superior e a regressão utilizada no teste na parte inferior. A hipótese nula (tem raiz unitária
ou a série não é estacionária) será rejeitada se o valor da estatística ADF for menor que o valor critico.
No nosso caso específico, a hipótese nula não se rejeita, pois, o valor estatístico do teste (0.457488) é
maior que os valores críticos a 10% (-2.603944), 5% (-2.931404), e 1% (-3.592462). Assim sendo,
podemos dizer que gdpc tem raiz unitária, não é estacionária.
No que diz respeito aos passos necessários para a sua execução, podemos dizer que estes são
muito semelhantes aos que foram aplicados no caso do teste ADF que realizámos no ponto anterior.
Primeiro fazemos duplo clique na variável e seguidamente selecionamos:
View > Unit-Root Test
Neste caso, no menu Test Type escolhemos a opção Phillips–Perron.
Mais uma vez especificamos se queremos testar a existência de raiz unitária em nível (level),
primeiras diferenças (1st difference) ou segundas diferenças (2nd difference).
Devendo depois escolher se queremos incluir no teste uma constante (intercept), uma constante e
uma tendência (trend and intercept), ou nenhuma destas opções (none).
De seguida, devemos escolher uma das opções relativas ao spectral estimation method.
Aconselha-se a utilizar a opção default, que corresponde ao método de estimação de bartlett kernel.
De seguida apresentamos, como exemplo, o resultado do teste PP para a variável gdpc com as
opções level, intercept, default (bartlett kernel) e automatic selection (newey-west bandwidth)
selecionadas.
Pela Figura 7.15, e tal como no caso do teste ADF, o EViews mostra-nos a estatística do teste PP
na parte superior e a regressão utilizada no teste na parte inferior. A hipótese nula (tem raiz unitária ou
a série não é estacionária) será rejeitada se o valor da estatística PP for menor que o valor critico. No
nosso caso específico, a hipótese nula não se rejeita, pois, o valor estatístico do teste (0.832972) é maior
que os valores críticos a 10% (-2.603064), 5% (-2.929734), e 1% (-3.588509). Assim sendo, podemos
dizer que gdpc tem raiz unitária, não é estacionária.
Tal como no caso dos testes anteriores, o primeiro passo para a realização deste teste é fazer duplo
clique na variável e seguidamente selecionar:
View > Unit-Root Test
Neste caso, no menu Test Type escolhemos a opção Kwiatkowski–Phillips–Schmidt–Shin.
Como neste caso, os passos para a realização do teste KPSS são em tudo idênticos aos efetuados
na execução do teste PP, vamos dispensar a apresentação destes. De referir que neste teste temos de
optar entre incluir uma constante (intercept) ou uma constante e uma tendência (trend and intercept),
pois a opção none não está disponível.
Passando então diretamente para o resultado do teste KPSS, na figura que se segue é apresentado
o resultado do teste para a variável gdpc com as opções level, intercept, default (bartlett kernel) e
automatic selection (newey-west bandwidth) selecionadas.
Neste caso, a hipótese nula (não tem raiz unitária ou a série é estacionária) será rejeitada se o
valor da estatística KPSS for maior que o valor critico. Neste caso específico, a hipótese é rejeitada,
pois, o valor estatístico do teste (0.846973) é maior que o valor critico a 10% (0.347000), 5% (0.463000),
e 1% (0.739000). Assim sendo, podemos dizer que gdpc tem raiz unitária, não é estacionária, o que
confirma os resultados obtidos nos testes anteriores.
E quando é que se devem utilizar estes modelos? Sempre que na amostra existam shocks não
observados. É recomendado também para séries temporais com informações mensais entre 5 e 10 anos,
com alguma indicação de não estacionariedade (para o caso dos ARIMA e SARIMA).
O objetivo deste capítulo é apresentar a ferramenta Automatic ARIMA Selection que facilita o
processo de previsões em séries temporais no EViews (ver página 19 para instalar o Add-ins). A nossa
série foi criada inserindo valores aleatórios de fevereiro de 2010 (2018M02) a dezembro de 2017
(2018M12). Neste modelo não vamos usar um bloco de programação, mas vamos apresentar, em
momento oportuno, os códigos relativos a algumas funções.
Após criar um novo Workfile e importar os dados a serem previstos (detalhes de como importar
dados no EViews podem ser vistos na página 16), deve-se verificar a estacionariedade da amostra.
Abaixo, na Figura 8.1 é possível fazer a primeira verificação através da análise gráfica.
12
160,000
11
120,000
10
80,000
9
40,000
8
0 7
2010 2011 2012 2013 2014 2015 2016 2017 2010 2011 2012 2013 2014 2015 2016 2017
-1
-2
-3
2010 2011 2012 2013 2014 2015 2016 2017
LM-Stat. LM-Stat.
0.026933 0.025719
0.739000 0.216000
0.463000 0.146000
0.347000 0.119000
KPSS – Em primeira diferença com constante KPSS – Em primeira diferença com constante e tendência
LM-Stat. LM-Stat.
0.118544 0.078096
0.739000 0.216000
0.463000 0.146000
0.347000 0.119000
ADF
omatic - based on SIC, – Em nível com constante e tendência
maxlag=11) ADF – Em primeira diferença com constante e tendência
ADF – Em nível sem constante e tendência ADF – Em primeira diferença sem constante e tendência
PP – Em nível com
Bandwidth: 17constante PP –Bartlett
(Newey-West automatic) using Em primeira
kernel diferença com constante
PP –Bartlett
wey-West automatic) using Em nível sem constante
kernel
Bandwidth: PP –using
e tendência automatic)
17 (Newey-West Em primeira diferença sem constante e tendência
Bartlett kernel
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 100
Exercícios Introdutórios de Análise Económica de Dados
Como os testes de raiz unitária apontam para a presença de raizes unitárias (o que por sua vez
aponta para a não estacionariedade da série), o processo de diferenciação da variável dependente será
executado em momento oportuno.
Na Figura 8.3, apresentam-se as opções de especificação de entrada para o Automatic ARIMA
Selection.
A Figura 8.5 apresenta as definições dos output parciais do Automatic ARIMA Selection.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 101
Exercícios Introdutórios de Análise Económica de Dados
especificação de diferença
Neste exemplo a sugestão é que se utilize AR 3, MA 1, SAR 12 e SMA 12, sem aplicar diferenças
na variável dependente. O que vamos respeitar para a estimação ARMA. Porém para o ARIMA a
diferença será executada conforme mencionado anteriormente. De seguida, apresentamos o resultado
completo do Automatic ARIMA Selection (Figura 8.6).
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 102
Exercícios Introdutórios de Análise Económica de Dados
Vê-se que os resultados mostram uma falha após um determinado n de interações, ou seja, a
especificação para a estimação necessitará de ser ajustada com outro método de especificação. A forma
convencional para obter os componentes ARMA é a análise dos correlogramas que podem ser usados
complementando a ferramenta aqui apresentada (e também utilizada por Fuinhas et al., 2017), o que
reforça os resultados da especificação.
A regressão para previsão ARMA teve a seguinte especificação (Figura 8.7):
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 103
Exercícios Introdutórios de Análise Económica de Dados
sua última estimação. Para se restaurar o período inicial temos de digitar na opção Sample, na caixa
Equation Estimation o período da amostra, que no nosso caso seria: “smpl 2010m02 2017m12”.
Neste capitulo não executámos esta correção porque há um número superior ao mínimo exigido
pelo método e a perda das primeiras observações não seria um problema. Porém ainda é necessário
alargar o End date para que a previsão possa ser estimada e os outputs visualizados. Neste exemplo a
série temporal é mensal por isso o período alargado são doze meses (Figura 8.8).
Após esta operação podemos estimar os dois tipos de previsão: “dinâmico” e “estático” (Figura
8.9).
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 104
Exercícios Introdutórios de Análise Económica de Dados
Previsão dinâmica
20
Forecast: LALEATORIOF
18
Actual: LALEATORIO
16 Forecast sample: 2011M06 2018M12
14 Adjusted sample: 2012M08 2018M12
Included observations: 77
12
Root Mean Squared Error 0.386546
10 Mean Absolute Error 0.285425
8 Mean Abs. Percent Error 2.748883
Theil Inequality Coef. 0.018556
6
Bias Proportion 0.063111
4 Variance Proportion 0.025964
2 Covariance Proportion 0.910925
2012 2013 2014 2015 2016 2017 2018 Theil U2 Coefficient 0.389264
Symmetric MAPE 2.777425
LALEATORIOF ± 2 S.E.
Previsão estática
18
Forecast: LALEATORIOF
16 Actual: LALEATORIO
Forecast sample: 2011M06 2018M12
14
Adjusted sample: 2012M08 2018M01
12
Included observations: 66
Root Mean Squared Error 0.287837
10 Mean Absolute Error 0.219194
Mean Abs. Percent Error 2.092414
8 Theil Inequality Coef. 0.013780
Bias Proportion 0.022405
6
Variance Proportion 0.022630
4 Covariance Proportion 0.954964
III IV I II III IV I II III IV I II III IV I II III IV I II III IV I Theil U2 Coefficient 0.282459
2012 2013 2014 2015 2016 2017 2018 Symmetric MAPE 2.104037
LALEATORIOF ± 2 S.E.
O melhor método de previsão deve ser verificado através da estatística de Theil. Os critérios de
avaliação são: U=1 o método naive é bom como a técnica de previsão; U<1 a técnica de previsão usada
é melhor que o método naive; U>1 não faz sentido usar o método formal de previsão. O método em
avaliação (naive) é o ideal para a previsão. Com base na estatística, deve-se optar entre um dos métodos,
podendo-se apresentar os dois.
Outra informação importante para análise da previsão é que, para o Bias Proportion e a Variance
Proportion quanto mais próximo de zero estiverem os valores melhor, e para a Covariance Proportion
quanto mais afatstados de zero melhor.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 105
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 106
Exercícios Introdutórios de Análise Económica de Dados
Previsão dinâmica
3
Forecast: DLALEATORIF
2 Actual: DLALEATORIO
Forecast sample: 2011M06 2018M12
1 Adjusted sample: 2012M09 2018M12
Included observations: 76
0 Root Mean Squared Error 0.582487
Mean Absolute Error 0.462494
-1 Mean Abs. Percent Error 244.2163
Theil Inequality Coef. 0.301027
-2 Bias Proportion 0.000119
Variance Proportion 0.002085
-3 Covariance Proportion 0.997796
2012 2013 2014 2015 2016 2017 2018 Theil U2 Coefficient 0.082474
Symmetric MAPE 93.60536
DLALEATORIF ± 2 S.E.
Previsão estática
3
Forecast: DLALEATORIF
2 Actual: DLALEATORIO
Forecast sample: 2011M06 2018M12
1
Adjusted sample: 2012M09 2018M01
Included observations: 65
0
Root Mean Squared Error 0.278510
-1 Mean Absolute Error 0.213319
Mean Abs. Percent Error 321.3509
-2 Theil Inequality Coef. 0.145734
Bias Proportion 0.013717
-3
Variance Proportion 0.035052
-4 Covariance Proportion 0.951231
III IV I II III IV I II III IV I II III IV I II III IV I II III IV I Theil U2 Coefficient 0.027060
2012 2013 2014 2015 2016 2017 2018 Symmetric MAPE 53.50417
DLALEATORIF ± 2 S.E.
Os valores das previsões estática e dinâmica são muito próximos. Reafirmando a boa capacidade
preditiva da variável utilizada neste capítulo. Como se trata de uma série aleatória, criada com finalidade
pedagógica, era esperado que tal acontecesse.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 107
Exercícios Introdutórios de Análise Económica de Dados
9. Modelos ARCH-GARCH
Neste capítulo vamos ver um tipo de técnica econométrica que modeliza em simultâneo a
equação da média e a equação da variância. Estes modelos são especialmente adequados quando temos
a presença de heterocedasticidade condicional nos resíduos dos nossos modelos económicos ou
financeiros. OS dados deste tópico encontram-se disponíveis no anexo Excel-Eviews nas folhas SP500.
A rendibilidade dos ativos financeiros é normalmente composta por momentos de relativa
calmaria seguidos de períodos tempestuosos. Este fenómeno é facilmente detetado graficamente como
podemos ver na Figura 9.1.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 108
Exercícios Introdutórios de Análise Económica de Dados
𝜇̂ = 𝛾 + 𝛾 𝜇̂ + 𝛾 𝜇̂ +⋅⋅⋅ +𝛾 𝜇̂ +𝜔 (9.2)
0 = 𝛾 =⋅⋅⋅= 𝛾 (9.3)
Vejamos se temos efeitos ARCH nas rendibilidades diárias do índice bolsista S&P 500. Em
primeiro lugar vamos fazer a regressão das rendibilidades diárias numa constante (Figura 9.2).
De seguida fazemos o teste ARCH de ordem um (Figura 9.3) e o teste de ordem cinco (Figura
9.4). O EViews apresenta dois testes para os efeitos ARCH, um teste F e um teste de qui-quadrado (o
mais utilizado). A hipótese nula do teste é: H0: Homocedasticidade. Assim, podemos concluir que
rejeitamos H0, isto é, estamos na presença de heterocedasticidade (neste caso condicional). Este
resultado suporta que a modelização das rendibilidades diárias do índice S&P500 deverá ser feita
recorrendo a modelos do tipo ARCH.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 109
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 110
Exercícios Introdutórios de Análise Económica de Dados
9.2. Estimação
A modelização da variância de um modelo ARCH é feita com o recurso a métodos numéricos.
Uma consequência deste tipo de otimização é que podemos obter resultados muito diferentes
dependendo das condições inicias que são consideradas ou do próprio algoritmo de otimização que
utilizarmos. Por uma questão de segurança nos resultados obtidos, devemos estimar o modelo com
diferentes condições de partida e com diferentes algoritmos de otimização.
Para estimarmos, no EViews, um modelo ARCH seguimos os procedimentos iniciais habituais:
Quick / Estimate Equation… / Method: ARCH – Autoregressive Conditional Heteroskedasticity. A
janela utilizada para introduzir as especificações desejadas é o que aparece na Figura 9.5.
A especificação da distribuição condicional dos erros, é feita na janela “Error distribution”. Pode-
se escolher entre distribuição Normal (Gaussian), a distribuição t de Student (Student’s t), e a
distribuição Erro Generalizado (GED). No caso da distribuição t de Student e GED tem, ainda, de ser
definido o parâmetro fixo. A distribuição t de Student converge para a lei Normal à medida que 𝜈 ⟶
∞. A distribuição GED tem uma distribuição normal quando r = 2, e tem caudas grossas (fat-tailed) se
r < 2.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 111
Exercícios Introdutórios de Análise Económica de Dados
Nos modelos ARCH, as variáveis independentes podem ser a variável dependente desfasada
(autorregressiva), uma média móvel ou outras variáveis. As Eqs. 9.4 – 9.6 representam o modelo
ARCH(1).
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.4)
𝜇 ∼ 𝑖𝑖𝑑𝑁(0, 𝜎 ) (9.5)
𝜎 =𝛾 +𝛾 𝜇 (9.6)
No modelo ARCH, a equação da variância pode ser representada, por uma questão de
comodidade, substituindo 𝜎 por ℎ :
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.7)
𝜇 |Ω ∼ 𝑖𝑖𝑑𝑁(0, ℎ ) (9.8)
ℎ =𝛾 +𝛾 𝜇 (9.9)
ℎ =𝛾 +𝛾 𝜇 +𝛾 𝜇 (9.12)
onde R é a rentabilidade diária do índice S&P500; e id é uma variável “impulse dummy” para controlar
a “Black Monday” (19 de outubro de 1987), podemos proceder como é referido na Figura 9.6.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 112
Exercícios Introdutórios de Análise Económica de Dados
O modelo estimado anteriormente pode ser representado pelas Eqs. 9.13 – 9.14:
𝑅 = 0.000435 + 0.098443𝑅 − 0.262577𝑖𝑑 (9.13)
ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.16)
𝛾
ℎ= (9.17)
1−∑ 𝛿ℎ −∑ 𝛾𝜇
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 113
Exercícios Introdutórios de Análise Económica de Dados
Na Figura 9.9 temos os gráficos da volatilidade. Como se pode observar a volatilidade obtida a
partir do desvio-padrão dá-nos uma visibilidade mais detalhada da evolução da volatilidade do índice
S&P500.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 114
Exercícios Introdutórios de Análise Económica de Dados
Figura 9.9 – Graphs of GARCH Conditional Standard Deviation and Conditional Variance
Figura 9.10 – Modelo GARCH(1,1) das rendibilidades do índice S&P500 (1/1/1999 – 31/12/2010)
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 115
Exercícios Introdutórios de Análise Económica de Dados
Como se pode observar na Figura 9.11, a estatística de Jarque-Bera claramente rejeita a hipótese
nula de os resíduos da regressão seguirem uma distribuição normal. Este resultado é muito frequente em
estimações de series financeiras. De um modo geral não são um problema se a amostra for de grande
dimensão. Considera-se que uma amostra tem uma grande dimensão quando temos mais de 100
observações.
Como podemos observar na Figura 9.12, todas as estatísticas Q são muito superiores ao valor de
corte (5%), indicando que a equação da média não sofre de má especificação.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 116
Exercícios Introdutórios de Análise Económica de Dados
𝑌 =∝ +𝛽 𝑋 + 𝜃 ℎ +𝜇 (9.18)
𝜇 |Ω ∼ 𝑖𝑖𝑑𝑁(0, ℎ ) (9.19)
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 117
Exercícios Introdutórios de Análise Económica de Dados
ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.20)
O modelo estimado apresenta, como seira esperado, um sinal positivo e estatisticamente altamente
significante (inferior a 1%) para a volatilidade na equação da média (0.083438 ℎ ).
ℎ =𝛾 + 𝛿ℎ + 𝛾 +𝜃𝑑 𝜇 (9.22)
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 118
Exercícios Introdutórios de Análise Económica de Dados
A equação anterior pode ser tornada ainda mais específica, permitindo que a ordem dos
desfasamentos, q e r, sejam diferentes.
ℎ =𝛾 + 𝛿 ℎ + 𝛾 𝜇 + 𝛾 𝜇 𝑑 (9.23)
O modelo estimado apresenta, como seira esperado, um sinal positivo e estatisticamente altamente
significante (inferior a 1%) para as variações negativas nas rendibilidades (equação da variância), isto
é, 0.088842 𝜇 𝑑 .
𝜇 𝜇
ln(ℎ ) = 𝛾 + 𝛿 ln(ℎ )+ 𝜁 + 𝜉 (9.24)
ℎ ℎ
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 119
Exercícios Introdutórios de Análise Económica de Dados
Modelo IGARCH
O modelo integrated GARCH ou mais simplesmente IGARCH é um modelo desenhado para lidar
com uma condição específica da equação da variância. Neste modelo “forçamos” a que o somatório das
componentes “p” e “q” somem sempre um. Com esta restrição, a variância comporta-se como uma
variável integrada de ordem um. Dito por outras palavras a variância comporta-se como tendo uma
memória permanente.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 120
Exercícios Introdutórios de Análise Económica de Dados
ℎ =𝛾 + 𝛿ℎ + 𝛾𝜇 (9.25)
sujeito a,
𝛿 + 𝛾 =1 (9.26)
Para estimar este modelo selecionamos IGARCH na janela “Restrictions” (ver Figura 9.17,
painel da esquerda).
Como se pode observar no painel da direita 𝛾 = 0.54206 e 𝛿 = 0.945794 cuja soma é um.
Como podemos, ainda, observar os dois coeficientes são estatisticamente altamente significantes.
Modelo PARCH
O modelo power ARCH ou PARCH. Neste caso para ser mais percetível não utilizamos ℎ =
𝜎 .
𝜎 =𝛾 + 𝛿 𝜎 + 𝛾( 𝜇 −𝜑 𝜇 ) (9.27)
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 121
Exercícios Introdutórios de Análise Económica de Dados
Modelo CGARCH
O modelo “component GARCH” ou CGARCH.
A variância condicional dos resíduos do modelo GARCH(1, 1) reverte para 𝛾 (ver Eq. 9.28) que
é constante no tempo.
ℎ = 𝛾 + 𝛿 (ℎ − 𝛾 ) + 𝛾 (𝜇 −𝛾 ) (9.28)
O modelo CGARCH permite que a reversão da média dos resíduos (𝑚 ) possa ser modelizada de
acordo com a formulação da Eq. 9.29.
𝑚 = 𝛾 + 𝜌(𝑚 − 𝛾 ) + 𝜙(𝜇 −ℎ ) (9.29)
Um modelo assimétrico CGARCH pode ser estimado assinalando o espaço “Include threshold
Term”. Esta opção combina o modelo CGARCH com o modelo TARCH, introduzindo efeitos
assimétricos na equação “transitória”. São estimados modelos do tipo das Eqs, 9.30 – 9.32, que se
seguem.
𝑌 =∝ +𝛽 𝑋 + 𝜇 (9.30)
ℎ − 𝑚 = 𝛾 (𝜇 −𝑚 )+𝛾 (𝜇 −𝑚 )𝑑 + 𝛿 (ℎ −𝑚 ) + 𝜃 𝑧2 (9.32)
onde “z” são as variáveis exógenas e “d” é uma variável dummy indicando um choque negativo. Se 𝛾 >
0 isso suporta a presença de efeitos de alavancagem transitória na variância condicional.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 122
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 123
Exercícios Introdutórios de Análise Económica de Dados
Após a estimação do modelo, no menu View > Lag Structure > Lag Lenght criteria e coloca-se o
nº de desfasamentos (lags) máximo que queremos testar. Neste caso o programa sugere 8 e obtém-se o
output com 8 lags como mostra a Figura 10.2:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 124
Exercícios Introdutórios de Análise Económica de Dados
O output obtido mostra o número de desfasamentos ótimos para critérios de seleção. A legenda
dos critérios de informação está no próprio output na parte inferior. Com todo o leque de critérios é
possível escolher um critério mais ou menos restrito. Os resultados mostram que o 8º desfasamento é o
ótimo (depende do número de máximo de desfasamentos em análise). O número ótimo é o menor valor
de cada coluna, no EViews aparece com “*”. Apenas o critério de informação Schwarz aponta para 2
desfasamentos, usando o princípio da parcimónia, será o número de desfasamentos escolhidos.
10.1. Endogeneidade
No caso dos modelos VAR e também nos VEC, a endogeneidade não é um problema, pois estes
modelos são robustos na presença deste fenómeno. O Estes dois modelos também permitem o uso de
variáveis exógenas (só independentes). Para testar a exogeneidade das variáveis é necessário recorrer
aos blocos de exogeneidade. Para os executar (tendo em conta os dados do passo anterior) basta seguir
a Figura 10.3.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 125
Exercícios Introdutórios de Análise Económica de Dados
A figura anterior (painel à direita) mostra o resultado dos Blocos de Exogeneidade. Os Blocos de
Exogeneidade são analisados na linha do “All”, em que é apresentada a probabilidade do 𝜒 . O teste
tem como hipótese nula a variável ser exógena e, portanto, no output apresentado, a variável z1 será
exógena, uma vez que H0 não é rejeitado.
10.2. Causalidade
Em termos econométricos a causalidade das variáveis é verificada quando os valores passados de
uma variável explicam (causam) os valores presentes de outra. Para tal recorre-se ao teste de Causalidade
de Granger, em são testadas relações bidirecionais entre as variáveis. Este teste é executado da mesma
forma que os Blocos de Exogeneidade, o output é até comum. Analisando o output da figura anterior (à
direita), observa-se para cada variável a relação causal das outras. Por exemplo, a hipótese nula do teste
de causalidade de Granger para a relação de z2 para z1 é: a variável z2 não Granger causa a variável z1.
Neste exemplo a H0 é rejeitada, pois a probabilidade é de 0,2874. O mesmo acontece para a variável z3
(Prob. 0,3070). Para testar a relação contrária é necessário verificar nos resultados da variável z2 e z3.
Neste caso a variável z1 causa z2 e também z3. Note que existe um outro teste de causalidade, o teste
de causalidade Pairwise Granger, que é baseado numa estatística F. A forma de interpretação é a mesma.
10.3. Estimação
Após verificar a exogeneidade das variáveis é possível verificar que as variáveis z2 e z3 são
endógenas e que a variável z1 é exógena uma vez que causa duas variáveis. No caso de a variável z1
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 126
Exercícios Introdutórios de Análise Económica de Dados
não causar nem fosse causada teria de ser removida do modelo. Para efeitos de exemplificação, e para
não reduzir drasticamente os graus de liberdade do modelo, as variáveis z1, z2 e z3 serão consideradas
todas endógenas.
Para estimar o modelo com as características desejadas (nº de desfasamentos ótimos) é necessário
seguir os passos: Quick > Estimate VAR. A janela da Figura 10.4 é obtida no campo da variáveis
exógenas é possível especificar uma constante, bem como possíveis variáveis dummy e ainda as
variáveis exógenas desfasadas acompanhando o desfazamento ótimo. Estimando o modelo especificado
anteriormente obtém-se o seguinte output:
(continuação)
Na figura anterior é possível observar os coeficientes do modelo VAR, bem como os seus desvios
padrões e a estatística t. Os coeficientes são obtidos através do método OLS, pelo que não têm
interpretação direta, pois neste método as outras equações não são tidas em conta. Também é possível
observar a o R2 e o R2 ajustado aos graus de liberdade. Este output serve sobretudo de base a à análise
que se irá realizar nos passos seguintes.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 127
Exercícios Introdutórios de Análise Económica de Dados
Para executar os testes de diagnósticos aos resíduos é seguir o caminho (dentro do outrput do
modelo VAR): View > Residual Tests. Começando por testar a normalidade dos resíduos em: View >
Residual Tests > Normality test obtém-se o seguinte outpu:
A hipótese nula do teste de Jarque-Bera é: os resíduos seguem uma distribuição normal. No output
do teste é possível observar o deslocamento (skewness) dos resíduos em relação à distribuição normal,
bem como o achatamento (kurtosis) em relação à distribuição normal. Observando o valor da
probabilidade a hipótese nula do teste Jarque-Bera é rejeitada para qualquer nível de significância
estatística. No output as componentes dizem respeito às variáveis exógenas por orem, ou seja, a
componente 1, 2 e 3 correspondem às variáveis z1, z2 e z3, respetivamente.
O teste de heterocedasticidade é obtido através: View > Residual Tests > White
Heteroskedasticity (No Cross Terms). O output do teste de heterocedasticidade está representado na
Figura 10.6.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 128
Exercícios Introdutórios de Análise Económica de Dados
A hipótese nula do teste de autocorrelação dos erros é: os erros não estão autocorrelacionados. A
hipótese nula do teste também é apresentada no output do EViews. No output são apresentados dois
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 129
Exercícios Introdutórios de Análise Económica de Dados
Neste menu é possível escolher o número de períodos para o qual irão ser calculadas as FIR, bem
como o número de repetições da Simulação Monte Carlo, para observar a evolução das IRF ao longo
dos períodos. Na Figura 10.9 são apresentadas as FIR para as variáveis endógenas.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 130
Exercícios Introdutórios de Análise Económica de Dados
É importante relembrar que a base de dados utilizada neste exemplo tem frequência mensal, pelo
que um período de tempos nas FIR corresponde a um mês. De uma forma geral, todas as respostas
regressão ao equilíbrio após 10 meses, este resultado é expectável uma vez que as variáveis são
estacionárias. Quanto à resposta individual de cada variável, a resposta é diferente. No caso de um
impulso na variável z1, a variável z2 responde negativamente e regressão ao equilíbrio após 5 períodos.
Um idêntico semelhante é observado na resposta na resposta da variável z3 a um impulso na variável
z1. A resposta de z1 a um impulso em z2 é muito reduzida, contrariamente à resposta de z3 a um impulso
em z2, neste caso o choque é positivo e bem pronunciado. Quando às respostas de z1 e z2 em impulsos
na z3, são positivos e pouco pronunciados, regressão ao equilíbrio rapidamente. A análise de casa FIR
é feita tendo em conta que tudo o resto se mantém constante (ceteris paribus).
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 131
Exercícios Introdutórios de Análise Económica de Dados
(continuação)
Começando pela decomposição da variância da previsão do erro de z1, após 1 período a variância
da previsão do erro é explicada em 100% por ela própria. Após 10 períodos a variância da previsão do
erro é explicada em 98,99 % por z1, e em 0,40% e 0,60% por z2 e z3, respetivamente. A interpretação
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 132
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 133
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 134
Exercícios Introdutórios de Análise Económica de Dados
Através do output do teste é possível ver o pressuposto ótimo segundo os critérios de informação.
O critério de informação Akaike indica uma tendência quadrático e o critério Schwarz indica a não
existência de uma tendência determinística e com constante. Ambos os critérios indicam dois vetores de
cointegração. Como a amostra têm bastantes observações, pode-se seguir um critério menos restrito
como o Akaike. Para uma análise mais detalhada ao teste regressamos ao menu da Figura 11.1 e
selecionamos a opção 5), em que se obtém o output a seguir apresentado.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 135
Exercícios Introdutórios de Análise Económica de Dados
Neste output mais detalhado do teste de cointegração é possível verificar que o ”trace test” e o
“Max-eigenvalue test” indicam 2 vetores de cointegração para um nível de significância estatística de
5%.
11.2. Estimação
Para a estimação no modelo VEC é necessário ter em conta os resultados do teste de
cointegração de Johansen. Para estimar o modelo VEC é seguir os passos: Quick > Estimate VAR, em
VAR type selecionamos a opção ”Vector Error Correction” e colocamos as variáveis tal como mostra
a Figura 11.4 (painel à esquerda).
Tal como mostra a figura anterior (painel à direita), no separador “Cointegration” é necessário
selecionar as opções de acordo com o teste de cointegração de Johansen, bem como o número de
vetores de cointegração. Após realizados os passos da especificação, estima-se o modelo que é
apresentado na figura seguinte.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 136
Exercícios Introdutórios de Análise Económica de Dados
(continuação)
Tal como nos modelos VAR, o modelo VEC não tem interpretação direta, é necessário obter as
funções impulso resposta e a decomposição da variância. A obtenção das Funções Impulso Resposta e
da Decomposição da Variância é obtida da mesma forma que no modelo VAR (ver capítulo anterior).
Para uma análise correta do modelo VEC é necessário testar a exogeneidade das variáveis, bem como
testar qualidade da estimação (normalidade, autocorrelação e heterocedasticidade). Todos estes testes
foram executados no capítulo do modelo VAR, aqui sã executados e interpretados da mesma forma.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 137
Exercícios Introdutórios de Análise Económica de Dados
Falando das vantagens do uso de modelos com dados de painel, podemos dizer que estes são
capazes de controlar a heterogeneidade individual, isto é, controlam variáveis que mudam com o tempo,
mas não entre entidades, dão-nos mais informação, mais variabilidade, menos colinearidade, mais graus
de liberdade, e são capazes de identificar e medir efeitos que não são detetados através de dados de
séries temporais ou dados transversais (fatores culturais por exemplo).
Um modelo linear simples com dados de painel pode ser representado pelo seguinte exemplo:
𝑌 = 𝛼 + 𝛽𝑋 + 𝜇 (12.1)
onde Y é a variável dependente e X é a variável explicativa, contendo ambos os subscritos i e t que
representam o número de entidades e o número de períodos de tempo em estudo, respetivamente, com i
= 1, 2, 3, …, N; t = 1, 2, 3, …, T. O parâmetro α representa a constante e o parâmetro β representa o
coeficiente da variável explicativa X, sendo que neste caso supõe-se que ambos os parâmetros sejam
iguais para todas as entidades e para todo o tempo (suposição que, como veremos posteriormente, pode
ser alterada). Por fim, o parâmetro 𝜇 representa o termo de erro.
Depois de explicados todos estes pequenos detalhes à cerca deste tipo de modelos, podemos então
passar para os diferentes métodos que podemos adotar na estimação de modelos lineares simples com
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 138
Exercícios Introdutórios de Análise Económica de Dados
dados de painel. Normalmente, podemos utilizar três métodos para este efeito: modelo de dados
empilhados, modelo de efeitos fixos e modelo de efeitos aleatórios. Seguidamente, explicaremos de
forma breve o conceito por trás de cada um destes modelos e a forma como os podemos estimar com
exemplos práticos efetuados no STATA. Os dados deste tópico encontram-se disponíveis na folha 3 do
anexo Excel-Stata.
Para verificar se a base foi bem importada e se a estrutura corresponde à do exemplo podemos
selecionar uma das duas opções do editor de dados (Data Editor), presente na barra de ferramentas do
programa.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 139
Exercícios Introdutórios de Análise Económica de Dados
Antes de começar a estimação em si, devemos dizer ao programa que os nossos dados são dados
de painel. Para isso criamos um ficheiro “do” (ver ponto 5.2) ou escrevemos diretamente o seguinte
comando:
xtset panelvar timevar
Onde “panelvar” e “timevar” correspondem, respetivamente, às variáveis representativas das
diferentes entidades incluídas no painel e do horizonte temporal deste. Sendo assim, de acordo com
exemplo da Figura 12.4, seria:
xtset id time
Depois de inserido este comando, o STATA irá responder com a seguinte mensagem:
Neste caso a mensagem corresponde à que se obtém quando se dá o caso de termos um painel
balanceado (situação já falada anteriormente). De qualquer forma, se nenhuma mensagem de erro
aparecer, então é sinal que podemos prosseguir com a estimação.
Para estimar uma regressão em painel na sua forma mais simples utilizamos o seguinte comando
(mais uma vez no ficheiro “do” ou diretamente na janela para comandos do STATA):
regress depvar indepvars, options
Com “depvar” e “indepvars” a representar a variável dependente e a(s) variável(eis)
independente(s), respetivamente. Voltando ao modelo de dados empilhados, para estimar este tipo de
modelo no STATA devemos utilizar o comando anterior, sem definir nenhuma opção (deixamos em
branco). No caso do nosso exemplo será então:
regress y x
Como resultado irá aparecer no STATA a seguinte tabela:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 140
Exercícios Introdutórios de Análise Económica de Dados
De seguida apresentamos uma tabela com informação mais pormenorizada e com indicações das
várias estatísticas apresentadas.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 141
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 142
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 143
Exercícios Introdutórios de Análise Económica de Dados
Antes de apresentar esta tabela com informação mais pormenorizada, devemos ainda referir que
existem outras duas maneiras alternativas de estimar um modelo de efeitos fixos. Uma delas é usando o
comando “areg” e absorvendo a variável correspondente às entidades (panelvar) através da opção
“absorb”. Desta maneira, recorrendo ao nosso exemplo, fica:
areg y x, absorb(id)
Outra maneira, seria usar o comando “regress”. Com o nosso exemplo ficaria:
xi: regress y x i.id
Neste comando “xi:” é uma expansão de interação que cria variáveis mudas automaticamente e o
prefixo “i.” denota a variável categórica para a qual as variáveis mudas vão ser criadas. Se não existirem
erros, os três comandos aqui apresentados deverão fornecer os mesmos resultados.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 144
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 145
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 146
Exercícios Introdutórios de Análise Económica de Dados
Mais uma vez, na página seguinte, apresentamos uma tabela com informação mais
pormenorizada.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 147
Exercícios Introdutórios de Análise Económica de Dados
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 148
Exercícios Introdutórios de Análise Económica de Dados
Hausman Test
O primeiro teste de que vamos falar é o teste de Hausman. A aplicação deste teste é essencial nas
estimações de modelos com dados de painel, isto porque este nos permite decidir entre o uso do modelo
de efeitos fixos ou o uso do modelo de efeitos aleatórios. A hipótese nula do teste é:
Contudo, a hipótese nula deste teste também pode ser dita como sendo a de que o melhor modelo
é o de efeitos aleatórios, ou a de que os erros não são correlacionados com os regressores.
Passando à prática, para se efetuar este teste no STATA começa-se por estimar a regressão com
efeitos fixos:
xtreg y x, fe
Guardando de seguida a estimação com o seguinte comando:
estimates store fixed
Depois estima-se a mesma regressão, mas desta feita, recorrendo ao modelo de efeitos aleatórios
(nota: não trocar esta ordem):
xtreg y x, re
Mais uma vez, guarda-se a estimação:
estimates store random
E finalmente confrontam-se as duas estimações através do seguinte comando:
hausman fixed random
Depois de “correr” o comando, o STATA irá apresentar a seguinte tabela:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 149
Exercícios Introdutórios de Análise Económica de Dados
Depois da tabela gerada, devemos agora perceber se devemos aceitar ou rejeitar a hipótese nula
do teste. Para isso iremos observar o valor da Prob>chi2 (realçado na Figura 12.11). Se este for < 0.05
então rejeitamos a hipótese nula do teste e devemos usar o modelo de efeitos fixos na nossa estimação.
Se, pelo contrário, este valor for > 0.05 então não rejeitamos a hipótese nula e o modelo de efeitos
aleatórios deve ser adotado na nossa estimação. No caso do nosso exemplo, deveríamos optar por
estimar este modelo recorrendo ao estimador de efeitos fixos.
Isto quer dizer, não existem diferenças significantes entre as unidades, não existe efeito de painel,
uma regressão OLS simples é o mais apropriado.
Para realizar este teste, primeiro estimamos o modelo de efeitos aleatórios:
xtreg y x, re
Logo de seguida, depois da estimação, digitamos o seguinte comando:
xttest0
Como resultado, o STATA irá apresentar a seguinte tabela:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 150
Exercícios Introdutórios de Análise Económica de Dados
Para aceitar ou rejeitar a hipótese nula, devemos olhar para o valor da Prob>chibar2. Se o valor
for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula do teste a 10%, se
for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do nosso exemplo, vemos que o valor
é < 0.01, logo, rejeitamos a hipótese nula a 1%, o que quer dizer que o melhor estimador a utilizar será
o de efeitos aleatórios. Como nota, devemos ainda dizer que se obtermos este resultado (efeitos
aleatórios), o passo seguinte será a realização do teste de Hausman que confirmará se realmente devemos
usar os efeitos aleatórios ou, se por outro lado, o estimador de efeitos fixos é o mais apropriado.
Teste de Pesaran CD
Este teste é usado para averiguar se os resíduos são correlacionados entre as entidades, sendo que
a sua hipótese nula é:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 151
Exercícios Introdutórios de Análise Económica de Dados
Para perceber se existe ou não dependência seccional devemos olhar para o valor de Pr. Mais
uma vez se o valor for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula
do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No nosso exemplo, vemos
que o valor é < 0.01, logo, rejeitamos a hipótese nula a 1%, o que quer dizer que foi detetada a presença
de dependência seccional.
Antes de avançar, podemos ainda dizer que este mesmo teste (Pesaran CD) pode ser feito somente
às variáveis (ou aos resíduos), o que ajuda na análise pré-estimação. Para isso escrevemos o seguinte
comando:
xtcd varlist
Onde “varlist” representa a lista de variáveis que queremos analisar (nota: existe um máximo
de variáveis que podem ser analisadas ao mesmo tempo, se o número de variáveis passar o máximo deve
partir-se a análise em mais do que um grupo. Exemplo:
xtcd y x
Como podemos verificar ambas as variáveis apresentam valores estatísticos com p-value < 0.01,
o que quer dizer que rejeitamos a hipótese nula (pode ler-se por baixo da tabela), existem indícios de
dependência seccional em ambas as variáveis.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 152
Exercícios Introdutórios de Análise Económica de Dados
Teste de Friedman
xtreg y x, fe
xtcsd, friedman
Depois de digitarmos estes comandos, o STATA produz a seguinte estatística:
Teste de Frees
xtreg y x, fe
xtcsd, frees
No caso deste teste, a leitura é um pouco diferente das anteriores, vejamos:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 153
Exercícios Introdutórios de Análise Económica de Dados
Também os passos para a realização deste teste são semelhantes aos anteriores, primeiro estima-
se a regressão:
xtreg y x, fe
E depois utiliza-se o seguinte comando:
xttest2
Tal como no caso dos testes anteriores devemos olhar para o valor de Pr, sendo que se o valor for
> 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a hipótese nula do teste a 10%, se for <
0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. Por vezes não é possível a realização deste teste pois
este é sensível ao facto de o número de entidades ser maior que o número de anos em estudo, o que faz
com que os vetores das entidades não sejam linearmente independentes.
H0: Homocedasticidade.
Mais uma vez, tal como nos casos anteriormente descritos, começamos por estimar o modelo:
xtreg y x, fe
Usando de seguida o comando:
xttest3
Depois de efetuados estes passos o STATA apresentará a seguinte estatística:
Se o valor da Prob>chi2 for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a
hipótese nula do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 154
Exercícios Introdutórios de Análise Económica de Dados
nosso exemplo rejeitamos claramente a hipótese nula a 1%, o que se traduz na presença de
heterocedasticidade.
Neste caso, para realizarmos o teste só temos de escrever o seguinte comando no STATA:
xtserial depvar indepvars
Onde “depvar” e “indepvars” representam variável dependente e variáveis independentes,
respetivamente. No caso do nosso exemplo fica:
xtserial y x
Depois de “corrermos” o comando, o STATA mostra o seguinte:
Se o valor da Prob>F for > 0.1 aceitamos a hipótese nula do teste, se for < 0.1 rejeitamos a
hipótese nula do teste a 10%, se for < 0.05, rejeitamos a 5%, se < 0.01 rejeitamos a 1%. No caso do
nosso exemplo rejeitamos a hipótese nula a 1%, ou seja, existe autocorrelação.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 155
Exercícios Introdutórios de Análise Económica de Dados
estão explicados no capítulo 7. Contudo, se necessário, o utilizador pode usar o comando “help
xtunitroot” para saber mais à cerca dos testes anteriormente enunciados.
Um aspeto importante, para o qual devemos alertar é que os testes de raiz unitária de 1º geração
são baseados na hipótese de que não existe dependência seccional entre as entidades, o que em muitos
casos não acontece, e por isso, estes testes deixam de ser eficientes. Deste modo, testes de raiz unitária
de 2º geração foram desenvolvidos de forma a lidar com a presença do fenómeno de dependência
seccional nos painéis.
Um exemplo de um teste de 2º geração que é normalmente usado é o CIPS (cross-sectionally
augmented Im-Pesaran-Shin). Este teste pode ser realizado no STATA recorrendo ao comando
“multipurt”, sendo que a sua hipótese nula é a de que a variável é I(1) ou de que não é estacionária.
Para realizar este teste usamos então o seguinte comando:
multipurt varname, lags(numlist)
Como podemos verificar, depois do “multipurt” devemos especificar as variáveis que queremos
testar tal como o número de desfasamentos (lags) a ser aplicados no teste. Normalmente começa-se por
utilizar a opção “lags(0)”, aumentando depois este número nos ensaios seguintes. Como é obvio, o
número de desfasamentos deve ser escolhido tendo como base o sentido económico, por exemplo, com
dados anuais usar um máximo de até 3 desfasamentos deverá ser o suficiente.
Exemplificando, escrevemos então o comando com as variáveis a ser testadas e especificamos
um determinado número de desfasamentos:
multipurt y x, lags(3)
De seguida o STATA apresta-nos a seguinte tabela:
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 156
Exercícios Introdutórios de Análise Económica de Dados
Antes de iniciar a explicação à cerca dos resultados deste teste, devemos referir que além desta
tabela (B), o comando “multipurt” também nos dá uma tabela referente à estimação do teste de Maddala
e Wu (A), teste esse que é de 1º geração. Neste caso como o que nos interessa é o teste CIPS, a tabela
(A) não foi apresentada.
Centrando-nos agora nos resultados da Figura 12.19, vemos que a tabela é dividida em duas
partes, uma primeira em que a especificação não contém uma tendência e uma segunda em que uma
tendência está presente na especificação. Este facto pode ajudar-nos a perceber se será necessário incluir
uma tendência no modelo de forma a tornar as variáveis estacionárias. Para avaliar a estacionariedade
da série recorremos conjuntamente aos valores de Zt-bar e do seu respetivo p-value. Dada a hipótese
nula do teste, se o p-value for > 0.1 aceitamos a hipótese nula, se for < 0.1 rejeitamos a hipótese nula a
10%, se for < 0.05, rejeitamos a 5%, e se < 0.01 rejeitamos a 1%.
No caso do nosso exemplo, percebemos que a variável “y” é claramente I(1), ou não é
estacionária, pois através das suas estatísticas percebemos que não é possível rejeitar a hipótese nula do
teste CIPS em qualquer das especificações apresentadas, isto é, com e sem tendência e com qualquer
número de desfasamentos (neste caso 0, 1, 2, 3), pois o p-value é sempre superior a 10%. Já no que toca
à variável “x”, a inferência já não é assim tão simples. Como pode ser verificado na Figura 12.19, sem
tendência, a variável “x” parece ser sempre I(1) – não estacionária – à exceção da especificação com um
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 157
Exercícios Introdutórios de Análise Económica de Dados
desfasamento, em que esta parece rejeitar a hipótese nula. Com tendência, o cenário mantém-se idêntico,
mas desta feita a hipótese nula também se rejeita na especificação que contem três desfasamentos.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 158
Exercícios Introdutórios de Análise Económica de Dados
13. Referências
Asteriou, D., & Hall, S. G. (2011). Applied econometrics. Palgrave Macmillan. (pp. 1-492). ISBN: 978-
0-230-27182-1.
Fuinhas, J. A., Marques, A. C. & Belucio, M. (2017). O impacto das peregrinações no turismo religioso.
Análise e previsão do fenómeno Mariano de Fátima. In: F. Matias, José António C. Santos, C.
Afonso, C. Baptista, C. M. Q. Ramos, & M. C. Santos (Eds.), Estudos de Gestão e
Empreendedorismo (pp. 605-626). Faro: Universidade do Algarve.
Wooldridge, J.M. (2006). Introductory Econometrics: A Modern Approach. 3rd Edition,
Thomson/South-Western, Mason.
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 159
View publication stats
Sobre os autores:
Tiago Afonso é mestre em Economia pela Universidade da Beira Interior e assistente no Departamento
de Gestão e Economia da Faculdade de Ciências Sociais e Humanas da Universidade da Beira Interior.
E-mail: tiago.afonso@ubi.pt
José Alberto Fuinhas | Matheus Belucio | Renato Santiago | Tiago Afonso 160