Você está na página 1de 61

UNIVERSIDADE FEDERAL DE SANTA MARIA

CENTRO DE CINCIAS NATURAIS E EXATAS


PROGRAMA DE PS-GRADUAO EM ESTATSTICA E MODELAGEM
QUANTITATIVA












NMERO DE NEGCIOS E VOLUME FINANCEIRO
NA PREVISIBILIDADE DO IBOVESPA:
UMA APLICAO DE REDES NEURAIS ARTIFICIAIS









MONOGRAFIA DE ESPECIALIZAO







Paulo Sergio Ceretta








Santa Maria, RS, Brasil
2008

NMERO DE NEGCIOS E VOLUME FINANCEIRO
NA PREVISIBILIDADE DO IBOVESPA:
UMA APLICAO DE REDES NEURAIS ARTIFICIAIS




por




Paulo Sergio Ceretta



Monografia apresentada ao Curso de Especializao do Programa de Ps-
Graduao em Estatstica e Modelagem Quantitativa,
da Universidade Federal de Santa Maria (UFSM, RS),
como requisito parcial para obteno do grau de
Especialista em Estatstica e Modelagem Quantitativa



Orientador: Prof. Dr. Ivanor Mller



Santa Maria, RS, Brasil
2008


Universidade Federal de Santa Maria
Centro de Cincias Naturais e Exatas
Programa de Ps-Graduao em Estatstica e Modelagem
Quantitativa


A Comisso Examinadora, abaixo assinada,
aprova a Monografia de Especializao


NMERO DE NEGCIOS E VOLUME FINANCEIRO NA
PREVISIBILIDADE DO IBOVESPA: UMA APLICAO DE REDES
NEURAIS ARTIFICIAIS


elaborada por


Paulo Sergio Ceretta


como requisito parcial para obteno do grau de
Especialista em Estatstica e Modelagem Quantitativa


COMISSO EXAMINADORA:


Ivanor Mller, Dr.
(Presidente/Orientador)



Luis Felipe Dias Lopes, Dr. (UFSM)



Fernando Hepp Pulgati, Dr. (UFSM)




Santa Maria, Outubro de 2008.

AGRADECIMENTOS

Utilizo este espao para transmitir meus sinceros agradecimentos ao meu orientador, Ivanor
Mller, pelo conhecimento, transparncia, dedicao e acompanhamento. Agradeo tambm a
todos os professores do Programa de Ps-Graduao em Estatstica e Modelagem Quantitativa
pelo empenho e competncia na conduo do ensino; a secretria Sandra, pela simpatia,
simplicidade e disponibilidade para ajudar alunos e professores; aos colegas, que de uma
forma ou de outra contriburam significativamente para meu processo de aprendizado;
minha famlia, pelo afeto, confiana e apoio, meu muito obrigado. Agradecimento especial a
Graciele, pelo acompanhamento ao longo do curso. Por fim, agradeo Universidade Federal
de Santa Maria, por disponibilizar aos seus alunos um ensino gratuito e de qualidade.







RESUMO
Monografia de Especializao
Programa de Ps-Graduao em Estatstica e Modelagem Quantitativa
Universidade Federal de Santa Maria, RS, Brasil


NMERO DE NEGCIOS E VOLUME FINANCEIRO NA
PREVISIBILIDADE DO IBOVESPA: UMA APLICAO DE REDES
NEURAIS ARTIFICIAIS



Autor: Paulo Sergio Ceretta
Orientador: Dr. Ivanor Mller
Data e Local de Defesa: Santa Maria, Dezembro de 2008.


Este estudo tem por objetivo investigar a utilizao de informaes sobre o nmero de
negcios e o volume financeiro negociado como variveis explanatrias que melhoram o
desempenho na previsibilidade do retorno do Ibovespa. So utilizadas informaes dirias da
carteira terica do Ibovespa no perodo compreendido entre 23/01/2006 at 18/04/2008. So
aplicados trs modelos de previso baseados em Redes Neurais Artificiais com duas camadas
intermedirias e funes de ativao sigmides. Na fase de treinamento, as RNAs so
ajustadas automaticamente seguindo um critrio de erro pr-definido tendo como base uma
amostra de 758 observaes. Na fase de previso, as RNAs so acompanhas 50 passos a
frente para verificao de desempenho. Os resultados obtidos permitem afirmar que a incluso
de informaes sobre nmero de negcios e volume de negcio melhora o ajuste da RNAs na
fase de treinamento, mas a melhoria no se mantm na fase de previso.

Palavras-chave: Mercado de aes; Eficincia de mercado; Redes neurais artificiais.

ABSTRACT
Monografia de Especializao
Programa de Ps-Graduao em Estatstica e Modelagem Quantitativa
Universidade Federal de Santa Maria, RS, Brasil



NUMBER OF BUSINESS AND FINANCIAL VOLUME
IN PREDICTABILITY OF IBOVESPA:
AN APPLICATION OF ARTIFICIAL NEURAL NETWORKS




Author: Paulo Sergio Ceretta
Advisor: Dr. Ivanor Muller
Date and Place of Defense: Santa Maria, December, 2008.


This study focused on the use of information on the number of business and financial volume
traded as explanatory variables that improve the performance in the predictability of Ibovespa
return index. They are used daily information from the Ibovespa theoretical portfolio during
the period from 23/01/2006 until 18/04/2008. Three models are applied to forecast based on
Artificial Neural Networks with two layers of features and intermediate sigmoid activation. At
training, the ANNs are adjusted automatically according to a criterion of error pre-defined
based on a sample of 758 points. At the time of the forecast, the tracks ANNs are 50 steps
ahead for verification of performance. The results show that the inclusion of information on
number of business and volume of business improves the fit of ANNs in the phase of training,
but the improvement was not maintained during the forecast.


Key-words: Stock markets; Market efficiency; Artificial neural networks.


LISTA DE ILUSTRAES



FIGURA 1 Sries rudo branco 23
FIGURA 2 Representao do neurnio humano 26
FIGURA 3 Representao do neurnio artificial 26
FIGURA 4 RNA feedforward (2:2:1) 29
FIGURA 5 RNA feedforward (2:2:2:1) 29
FIGURA 6 RNA recorrente (2:2:1) 30
FIGURA 7 Srie temporal dos preos da carteira terica da Bovespa 32
FIGURA 8 Srie temporal do nmero de negcios 33
FIGURA 9 Srie temporal do volume financeiro 33
FIGURA 10 Estrutura das RNAs a serem aplicadas 35
FIGURA 11 Estrutura da RNA com 5 variveis de entrada 40
FIGURA 12 Treinamento da RNA(5:3:3:1) 41
FIGURA 13 Estrutura da RNA com 10 variveis de entrada (10:3:3:1) 43
FIGURA 14 Treinamento da RNA (10:3:3:1) 45
FIGURA 15 Estrutura da RNA com 15 variveis de entrada (15:3:3:1) 47
FIGURA 16 Treinamento da RNA (15:3:3:1) 48




LISTA DE TABELAS



TABELA 1 Estatsticas descritivas das variveis 38
TABELA 2 Pesos sinpticos da RNA (5:3:3:1) 39
TABELA 3 Resultados da RNA (5:3:3:1) 40
TABELA 4 Pesos sinpticos da RNA (10:3:3:1) 42
TABELA 5 Resultados da RNA (10:3:3:1) 44
TABELA 6 Pesos sinpticos da RNA (15:3:3:1) 46
TABELA 7 Resultados da RNA (15:3:3:1) 48







LISTA DE ANEXOS



ANEXO A - Programao do modelo RNA com cinco variveis de entrada 55
ANEXO B - Programao do modelo RNA com dez variveis de entrada 57
ANEXO C - Programao do modelo RNA com quinze variveis de entrada 59









SUMRIO


1 INTRODUO
11
1.1 Preliminares 11
1.2 Objetivos 13
1.2.1 Objetivo Geral 13
1.2.2 Objetivos Especficos 13
1.3 Justificativa 13

2 PREVISIBILIDADE, SERIES TEMPORAIS E REDES NEURAIS
15
2.1 Previsibilidade no mercado financeiro 15
2.2 Sries temporais 16
2.2.1 Estacionariedade 17
2.2.1.1 Coeficiente de correlao 19
2.2.1.2 Funo de autocorrelao 19
2.2.1.3 Teste de Ljung e Box 21
2.2.2 Rudo branco 22
2.3 Redes neurais artificiais 24
2.3.1 Arquitetura de rede 28
2.3.1.1 Redes neurais alimentadas adiante com camada nica 28
2.3.1.2 Redes neurais alimentadas adiante com mltiplas camadas 29
2.3.1.3 Redes recorrentes 30

3 ASPECTOS METODOLGICOS
32
3.1 Amostra e dados 32
3.2 Modelagem 34
3.3 Treinamento e teste 36
3.4 Software 36

12
4 RESULTADOS OBTIDOS 38
4.1 Modelo com informaes sobre os retornos 39
4.2 Modelo com informaes sobre os retornos e nmero de negcios 42
4.3 Modelo com informaes sobre os retornos, nmero de negcios e volume
Financeiro

45

5 CONCLUSO
50

REFERNCIAS BIBLIOGRFICAS
52


ANEXOS
55

13



1 INTRODUO

No estudo de sries temporais financeiras, diversos aspectos podem ser analisados,
mas a questo central a possibilidade de adquirir conhecimento sobre padres que se
desenvolvem na passagem do tempo.
Esses padres so identificados atravs de ajustes de modelos economtricos aos
eventos ao longo do tempo. Posteriormente, os modelos economtricos ajustados so
utilizados para realizar uma estimativa de resultados que provavelmente devero ocorrer no
futuro. De forma geral, as estimativas dos modelos economtricos tem por objetivo extrapolar
o domnio temporal conhecido.


1.1 Preliminares

Em Finanas, o conhecimento prvio do comportamento de valores em uma srie
temporal algo que torna possvel a formulao de estratgias operacionais mais consistentes
e coerentes ao risco do negcio.
O reconhecimento prvio da existncia de padres no comportamento da volatilidade
de um ativo, por exemplo, possibilita que se estabelea um contrato de hedging impedindo
que a empresa ou investidor fique exposto a elevada instabilidade do mercado. Uma
conseqncia direta dessa proteo impedir perdas de riqueza devido oscilao excessiva
de preos.
Uma prtica comum, nos estudos de sries temporais financeiras, tem sido a aplicao
de modelos estatsticos de regresso. Os modelos de previso se sries temporais mais
amplamente utilizados so os autoregressivos (AR), mdias mveis (MA) e autoregressivos
com mdias mveis (ARMA).
Redes Neurais Artificiais (RNAs), do ingls Artificial Neural Networks (ANNs) tem
recebido ateno crescente, tanto no campo terico como no prtico, ver, por exemplo, Kuan
e White (1994) e Qi (1996). Avanos no poder de processamento de computadores associado
14
ao desenvolvimento de uma ampla variedade de softwares de aplicao especializada
contribuem de maneira decisiva para o aprimoramento das RNAs.
Redes Neurais Artificiais tm sido aplicadas na soluo de problemas complexos que
anteriormente eram enfrentados com abordagens mais simples e menos abrangentes.
Como resultado desse cenrio tem-se, hoje, uma ampla variedade de formulaes
baseadas em RNAs aplicada em diversas reas. O sucesso dessas aplicaes tem levado a um
grande crescimento de literatura disponvel na rea de administrao, como exemplo pode-se
citar: Franses e Dijk (2003) onde so apresentados modelos de sries temporais no lineares
em finanas; Zhang (2004) que se constitui como uma das principais referncias em
aplicaes de Redes Neurais Artificiais em previso de negcios; McNelis (2005) onde
focado Redes Neurais Artificiais em finanas e Kamruzzaman e Sarker (2006) que
apresentam diversas aplicaes de Redes Neurais Artificiais em finanas e manufatura.
A essncia desta investigao repousa sobre o aspecto da estimao de valores futuros
da srie de retornos do Ibovespa com base em informaes passadas. A dependncia de uma
varivel endgena no tempo t em relao a outras variveis exgenas no tempo t-i (i=1, ...T)
chamado de dependncia nas defasagens em tempo discreto.
A utilizao de informaes defasadas para a obteno de estimativas futuras
bastante bvio, visto que se est procurando antever o comportamento de uma varivel no
tempo t com base em informaes j ocorridas, no tempo t-i. A parte da questo cronolgica,
existem alguns aspectos relevantes que sustentam a idia de observar o passado para estimar o
futuro, so motivos psicolgicos, motivos associados a incerteza e motivos institucionais,
dentre outros.
Os motivos associados a aspectos psicolgicos so baseados no fato de que as pessoas
no conseguem alterar instantaneamente seus padres de comportamento. Por exemplo,
pessoas que se tornam milionrias de forma rpida, continuam mantendo diversos padres de
comportamento, pois no possvel assimilar um novo padro de comportamento dado que
esse novo padro no era conhecido, tambm difcil abandonar estilos de deciso
desenvolvidos e solidificados ao longo de muito tempo.
A incerteza outro aspecto que pode interferir na deciso no tempo t. Por exemplo, o
aumento de preo de um ativo, do ponto de vista de um investidor pode ser uma incerteza,
pois este no consegue assimilar de imediato se a elevao do preo ser considerada normal
pelo mercado ou tender a reverter nos prximos dias.
15
Por fim, existem aspectos institucionais que impedem um perfeito compasso dos
eventos. Por exemplo, aps a queda do preo de um ativo, ele se torna uma opo muito
atraente no mercado, porm quando os investidores decidem por sua aquisio precisam se
desfazer de parte de seus investimentos atuais. O processo de converso de parte dos
investimentos atuais em recursos de liquidez imediata para aplicao no ativo subavaliado,
geralmente requer um perodo de um ou dois dias. Nesse perodo os recursos ficam presos,
mas ao serem liberados seguiro um comportamento ocorrido em t-i.


1.2 Objetivos

O propsito da aplicao de RNAs em sries temporais financeiras advm da
necessidade de se verificar se a estrutura mais flexvel das redes neurais possibilita que se
tenha uma estimativa mais consistente para estimativas futuras das variaes de preo do
ndice da BOVESPA.
Embora muitas tenham sido as pesquisas desenvolvidas sobre a possibilidade de
previso do comportamento das variaes de preo da carteira do Ibovespa, pouco tem sido o
consenso sobre como e quais as variveis a serem utilizadas nesse processo. Dentro do
contexto do mercado financeiro, este estudo tem por objetivo analisar a utilidade da incluso
de informaes sobre nmero de negcios e volume financeiro na previso das variaes do
Ibovespa atravs das Redes Neurais Artificiais.


1.2.1 Objetivo Geral

Verificar se a incluso de informaes sobre o nmero de negcios e o volume
financeiro capaz de possibilitar melhorias nos modelos de estimao do futuro
comportamento das variaes do ndice Ibovespa, alm das estimativas fornecidas pela
anlise padro que se utiliza apenas das informaes das prprias variaes de preo em
perodos de tempo defasados.


1.2.2 Objetivos Especficos
16

De forma mais restrita, este estudo apresenta os seguintes objetivos especficos:

Verificar a adequao do uso de informaes sobre o comportamento passado
das variaes de preo do Ibovespa para estimativas de valores futuros atravs
da aplicao da metodologia das redes neurais artificiais;
Verificar a adequao do uso de informaes adicionais referentes ao nmero
de negcios e ao volume financeiro, alm das informaes sobre variaes de
preos passados nas estimativas de valores futuros do Ibovespa.


1.3 Justificativa

Mcnelis (2005) destaca que a principal motivao para o uso da metodologia de redes
neurais artificiais na modelagem das variaes do Ibovespa advm de que em mercados
financeiros, variaes lentas seguidas de bruscas oscilaes nos preos so comuns de
ocorrer. Principalmente, em perodos de instabilidade econmica. Nesse ambiente, modelos
no lineares de maior flexibilidade pode ser uma opo mais eficiente na representao da
srie de dados.

Esse captulo procurou destacar a relevncia do conhecimento prvio das variaes de
preos no mercado de uma forma geral, o surgimento das RNAs como uma metodologia
alternativa de previso e os objetivos do estudo. Aps essa breve introduo, o restante da
monografia est assim estruturado: na segunda seo apresentada uma sucinta reviso sobre
previsibilidade no mercado financeiro, na terceira seo so descritos aspectos sobre RNAs e
suas semelhanas com o crebro humano, na quarta seo so detalhados os aspectos
metodolgicos e, na quinta seo so apresentados os resultados obtidos. Por ltimo
realizada a concluso do estudo.

17



2 PREVISIBILIDADE, SRIES TEMPORAIS E REDES NEURAIS


2.1 Previsibilidade no mercado financeiro

A possibilidade de realizar previses com elevada taxa de sucesso um tpico que
instiga a mente de muitos estudiosos em Finanas. Inicialmente, Bachelier (1900) props o
modelo de caminho aleatrio para explicar como evolua a oscilao dos preos no mercado.
Posteriormente, Kendall (1953) ganhou notoriedade sobre o tema ao investigar o
comportamento das variaes dos preos de aes e mercadorias na Bolsa de Valores de
Londres. A concluso foi de que as variaes dos preos eram errticas, ou seja, no havia
nenhuma informao nos retornos passados que ajudasse a prever o seu comportamento
futuro. Dessa forma, os retornos ocorriam de maneira completamente aleatria.
Procurando sintetizar a idia sobre o comportamento das flutuaes dos preos,
Samuelson (1965) desenvolveu a idia de que em um mercado informacionalmente eficiente,
os preos mudam, mas so imprevisveis. A idia bsica de que os preos incorporam as
expectativas e informaes de todos os participantes do mercado. Sendo a informao
disponvel a todos, variaes de preos para os prximos perodos sero reflexos de
informaes associadas a esses perodos. medida que as informaes chegam de forma
aleatria ao mercado, as variaes de preos deveram seguir o mesmo caminho.
A hiptese de que as variaes dos preos se comportam de maneira aleatria
fortemente questionada em 1988 com a publicao de trs artigos clssicos em Finanas, so
dos estudos de Fama e French (1988), Lo e MacKinlay (1988) e de Poterba e Summer (1988).
Fama e French (1988) analisaram os retornos mensais no mercado norte-americano e
evidenciaram a presena de autocorrelao serial negativa, afirmando que de 25% a 40% das
variaes de preos poderiam ser previsveis no longo prazo, a partir de retornos passados.
Lo e McKinlay (1988), tambm encontraram evidncias de autocorrelao positiva
para retornos semanais em portfolios formados por aes de pequenas empresas no mercado
norte-americano. Poterba e Summers (1988), por sua vez, utilizando o teste de quociente de
varincia, encontraram evidncias de autocorrelao positiva no curto prazo e autocorrelao
18
negativa no longo prazo, tanto no mercado norte-americano quanto em outros mercados
desenvolvidos.
Posteriormente, diversos estudos empregando uma ampla variedade de testes
apresentaram resultados conflitantes, uns aceitando e outros rejeitando a hiptese de
aleatoriedade nas variaes de preo no mercado financeiro. A divergncia, na maioria dos
casos, devido s caractersticas especficas de cada estudo, por exemplo, perodo da amostra
mais longo ou mais curto, a situao dominante do mercado financeiro no momento do estudo
era de recesso, crescimento ordenado ou euforia. O tipo de teste aplicado, tambm, um
fator que contribui muito para aceitar ou rejeitar a presena de comportamento aleatrio nos
dados (variaes imprevisveis).
No Brasil, Ceretta e Costa Jr. (2002) apresentaram uma reviso, sntese e novos
resultados sobre o caminho aleatrio nos mercados de capitais da Amrica Latina no perodo
de 1990 at 1999. Nesse estudo, os autores analisaram os retornos semanais de ndices de
mercado da Argentina, Brasil, Chile, Colmbia, Mxico e Venezuela. Os resultados indicaram
um comportamento distinto para os diversos mercados. Os mercados da Argentina e do Brasil
se mostraram perfeitamente de acordo com a hiptese do caminho aleatrio, os mercados do
Chile e da Colmbia rejeitaram a aleatoriedade e, para os mercados do Mxico e da
Venezuela no foi possvel fazer uma afirmao conclusiva sobre a aleatoriedade ou no das
variaes de preos.
No contexto de previsibilidade no mercado financeiro, mais recentemente, Oliveira,
Montini e Bergmann (2007) empregaram comparativamente modelos autoregressivos
integrados de mdias mveis com heteroscedasticidade condicional autoregressiva
generalizada ARIMA-GARCH e Redes Neurais Artificiais. Nesse estudo foram analisadas
sries de preos de aes de diversos setores. A partir dos resultados obtidos, os autores
concluram que nenhuma das duas modelagens se mostrou dominante, em alguns casos o
modelo ARIMA-GARCH apresentou melhor desempenho e em outros, as Redes Neurais
Artificiais apresentaram melhor desempenho. Na concluso, os autores sugeriram que as duas
tcnicas sejam utilizadas de forma complementar par melhorar a capacidade de deciso do
analista.




19
2.2 Series temporais

Sries temporais univariadas so classificadas como modelos especficos onde o foco
a estimao de valores futuros de uma srie utilizando-se somente informaes contidas em
seus prprios valores passados e de um componente de erro. Brooks (2008) enfatiza que
modelos de sries temporais so considerados desprovidos de uma construo terica
fundamentada, ou seja, so utilizados para capturar aspectos empricos relevantes que podem
ser oriundos da influncia de muitos eventos estruturais no observados ou de difcil
mensurao.
Uma srie temporal pode ser entendida como um conjunto de valores que esto
dispostos em ordem cronolgica, assumindo-se que, na maioria dos casos, o tempo uma
varivel discreta. Kirchgassner e Wolters (2008) afirmam que as sries temporais so
consideradas muito importantes desde os primrdios da cincia natural, afirmando que
astrnomos da Babilnia se utilizavam de sries temporais do posicionamento relativo de
estrelas e planetas para antever eventos astronmicos.


2.2.1 Estacionariedade

Uma srie temporal parte de um processo observado na seqncia do tempo, t=1,...,
T. Para identificar a dependncia no tempo, ser utilizado o subscrito t para identificar uma
observao individual e T para identificar o nmero de observaes do processo observado.
A fundamentao bsica para estudo de sries temporais a estacionariedade. Uma
srie {r
t
} dita ser fracamente estacionria (estacionria de segunda ordem, estacionria em
covarincia) se a mdia de r
t
e a covarincia entre r
t
e r
t-k
so invariantes no tempo. Se a srie
{r
t
} fracamente estacionria, tem-se que:

Mdia = , ) ( ) ( = =
k t t
r E r E [1]

Varincia = , ] ) [( ] ) [(
2 2 2
= =
k t t
r E r E [2]

Covarincia = , )] )( [( )] )( [(
k k j t j t k t t
r r E r r E = =

ou [3]
20

Autocovarincia = . ) , ( ) , (
k k j t j t k t t
r r Cov r r Cov = =

[4]

Conseqentemente, a covarincia entre as observaes na srie {r
t
} um funo que
depende da distncia intervalar entre t e k e no do tempo t ou k em que ocorrem. Em termos
prticos, se uma srie de retornos {r
t
| t=1, ..., T} fracamente estacionria se o grfico dos
retornos ao longo de T identificar valores flutuantes com variaes constantes ao redor de um
nvel fixo. A estacionariedade fraca torna possvel que se realize inferncias sobre valores
futuros dos retornos.
Na condio de estacionariedade fraca, assume-se implicitamente que os dois
primeiros momentos, mdia e varincia de {r
t
} so finitos (no explosivos, flutuantes ao redor
de um valor esperado). Assim, se a srie temporal {r
t
} tem distribuio normal, ento satisfaz
a condio de estacionariedade fraca, mas a recproca no verdadeira. importante destacar
que
k
comumente referenciado como autocovarincia de r
t
na defasagem k, portanto:

Para k = 0 tem-se que ) ( ) , ( ] ) [( )] )( [(
2
0 0 t t t t t t k
r Var r r Cov r E r r E = = = =
=
[5]

Para k =-1 tem-se que ) , ( )] )( [(
1 1 1 =
= =
t r t t k
r r Cov r r E [6]

Para k =+1 tem-se que ) , ( )] )( [(
1 1 1 + + + =
= =
t r t t k
r r Cov r r E . [7]

Dado a definio de que a covarincia depende apenas do espaamento entre as
defasagens pode-se afirmar que
1 1 + = =
=
k k
, pois o espaamento o mesmo, ou seja, |k| = 1.


2.2.1.1 Coeficiente de correlao

O coeficiente de correlao entre duas variveis X e Y mede a dependncia linear entre
ambas e pode assumir valores de 1 1 , tal que
x y y x , ,
= . O coeficiente de correlao
definido como:

21
) ( ) (
) , (
,
Y Var X Var
Y X Cov
y x
= , [8]

2 2
,
) ( ) (
)] )( [(
y x
y x
Y X
Y E X E
Y X E



= , [8.1]


onde
x
e
y
so as mdias de X e Y, respectivamente. Se X e Y so independentes 0
,
=
y x
,
mas se 0
,
=
y x
no se pode afirmar que exista ausncia de dependncia entre X e Y. Quando
a anlise realizada para dados de uma amostra {(x
t
, y
t
)}, t=1,..., T, o coeficiente de
correlao definido por:

= =
=


=
T
t
T
t
t t
T
t
t t
y x
y y x x
y y x x
1 1
2 2
1
,
) ( ) (
) )( (
, [9]

onde x e y so as mdias amostrais de X e Y, dadas por

=
=
T
t
t
x x
1
e

=
=
T
t
t
y y
1
,
respectivamente.


2.2.1.2 Funo de autocorrelao

Autocorrelao uma extenso do conceito de correlao, nesse caso, aplicado sobre
as defasagens da varivel analisada. Assim, o coeficiente de correlao entre r
t
e r
t-1

chamado de autocorrelao da primeira defasagem. Na forma geral, o coeficiente de
autocorrelao obtido por:

) ( ) (
) , (
k t t
k t t
k
r Var r Var
r r Cov

= , [10]


22

) (
) , (
t
k t t
k
r Var
r r Cov

= , [10.1]

0

k
k
= . [10.2]

Observe que, por definio, quando k=0, 1
0
= , pois ) ( / ) , (
0 t t t
r Var r r Cov

=
) ( / ) (
t t
r Var r Var . Uma srie r
t
, fracamente estacionria, ser no correlacionada serialmente
se, e somente se, 0 =
k
para todo k>0. Para dados de uma amostra {r
t
}, t=1,..., T, sendo x
mdia aritmtica de { r
t
}, obtm-se o coeficiente de autocorrelao amostral relativo a t-1 por:

=
+ +
+


=
T
t
t
T
k t
k t t
k
r r
r r r r
1
2
1
1
) (
) )( (
, [11]

=
=


=
T
t
t
T
t
t t
r r
r r r r
1
2
2
1
1
) (
) )( (
. [11.1]


Dispondo diversos valores de
k
, com ) 1 0 ( < T k , na forma grfica, tem-se o
chamado correlograma amostral ou autocorrelation function ACF. Mills (1999) destaca que
a ACF de grande importncia na modelagem das dependncias e juntamente com a mdia e
a varincia descrevem a evoluo de r
t
. A ACF evidencia como r
t
est relacionado (no tempo)
com seus valores anteriores, construindo uma idia de extenso e grau de memria do
processo.




23
2.2.1.3 Teste de Ljung e Box

Aps a obteno de diversos valores de coeficientes de autocorrelao , geralmente,
prefervel verificar a significncia conjunta desses coeficientes. Para tal, aplica-se a estatstica
portmanteau (geral) proposta por Box e Pierce (1970) que dada por:

=
=
m
k
k m
T Q
1
) (
* . [12]

As hipteses verificadas pela estatstica Q
(m)
so:
H
0
: 0 ...
1
= = =
m
,
H
1
: 0
k
para pelo menos algum } ,..., 1 { m k .

Para amostras grandes, Q*
(m)
segue uma distribuio qui-quadrado com m graus de
liberdade. Se o valor calculado exceder o valor crtico de Q*
(m)
na distribuio
2
ao nvel
especfico de significncia, rejeita-se a hiptese nula de que todos os coeficientes so iguais a
zero.
Posteriormente, com objetivo de aumentar o poder do teste associado estatstica
Q*
(m)
frente a pequenas amostras, Ljung e Box (1978) prepuseram alteraes na formulao
de Box e Pierce (1970). Agora o teste obtido por:

=

+ =
m
k
k
m
k T
T T Q
1
2
) (

) 2 (

, [13]


( )
2
,
1
2 1
~ ) ( ) 2 (
m
m
k
k m
k T T T Q

+ = . [13.1]

Para dados amostrais Q
(m)
segue uma distribuio qui-quadrado com m graus de
liberdade. As hipteses do teste so as mesmas do teste original de Box e Pierce (1970). H
0

ser rejeitada se
2
, ) ( m m
Q

> , onde representa o nvel de significncia e m os graus de
24
liberdade, ou se p-value for menor ou igual ao nvel de significncia (geralmente de 1% a
5%).
Analisando-se [13 e 13.1] , constata-se que, assintoticamente (quando o tamanho da
amostra tende ao infinito), os termos (T + 2) e (T k) tendem a se cancelar e a estatstica de
Ljung-Box converge para Box-Pierce.
Em termos prticos, pode-se perceber que o resultado do teste afetado pela escolha
do valor de m. Na literatura de Finanas h sugestes para que se utilizem valores pequenos
para m, ou seja, T m ln . Com esse artifcio, consegue-se um aumento no poder do teste.


2.2.2 Rudo branco

A terminologia rudo branco (white noise), derivada de sinal branco, muito utilizada
na literatura de Finanas. Lathi (2007) destaca que um sinal um conjunto de dados ou
informao com certas propriedades. Sinais podem ser modificados e modelados a fim de se
extrair informaes adicionais.
O adjetivo branco utilizado para fazer referncia a ptica, onde a cor branca tem um
espectro mais largo e constante se comparado com o espectro da luz colorida. Isso se deve ao
fato da luz branca ser obtida por meio da combinao simultnea de diversas freqncias
cromticas. Por exemplo, ao girar velozmente um disco colorido sobre um eixo fixo, as
diversas cores convergem para o branco impossibilitando que se identifiquem quais as reais
cores presentes no disco. Dessa forma, o termo sinal (conjunto de dados) passa a ser chamado
de rudo (conjunto de dados que no permitem informaes adicionais), um chiado
indecifrvel.
Embora no seja objetivo deste estudo, interessante destacar que existem diversos
tipos de rudos brancos. Por exemplo, algumas dessas seqncias so: i) rudo branco
uniforme, oscilao segundo uma distribuio uniforme [-2,5;...; 2,5] no correlacionada em
torno de zero; ii) rudo branco gaussiano, oscilao segundo uma distribuio gaussiana
[mdia = 0 e desvio padro = 1] no correlacionada em torno de zero e, iii) rudo branco
Cauchy, oscilao segundo uma distribuio Cauchy (0, 1) no correlacionada em torno de
zero.
A Figura 1 ilustra graficamente essas trs formas distintas de rudo branco.

25

Uniforme runif(n=1000, 2.5, 2.5)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
2
0
1
2
Histogram of s
s
F
r
e
q
u
e
n
c
y
-2 -1 0 1 2
0
2
0
4
0
Normal rnorm(n=1000, 0, 1)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
3
-
1
1
3
Histogram of w
w
F
r
e
q
u
e
n
c
y
-3 -2 -1 0 1 2 3
0
5
0
1
5
0
Cauchy rcauchy(n=1000, 0, 1)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
2
0
0
0
2
0
0
Histogram of k
k
F
r
e
q
u
e
n
c
y
-200 -100 0 100 200
0
2
0
0
4
0
0


FIGURA 1 Sries rudo branco.




Na primeira linha da Figura 1 tem-se uma srie rudo branco uniforme e ao lado o seu
histograma de freqncia; na segunda linha, uma srie ruindo branco gaussiano e seu
respectivo histograma; na terceira linha, uma srie cauchy e seu histograma.
Em termos formais, uma srie de retornos r
t
( + = ,..., t ) chamada de rudo
branco se a seqncia for constituda de variveis aleatrias. Nessa definio, tem-se que:

26

= ) (
t
r E para t ; [14]

2 2
) [( =
t
r E para t ; [14.1]


=
=

. 0 quando para 0
0 se
) (
2
k t
k
r r E
k t t

[14.2]


Ento, se uma srie rudo branco dever ter mdia e varincia constante, com
autocovarincia igual a zero, exceto na defasagem zero, ou seja, as observaes no so
correlacionadas com os outros valores da seqncia.
Brooks (2008) enfatiza que adicionando a restrio de que r
t
distribudo
normalmente, ento o coeficiente de autocorrelao amostral deve repousar entre os limites da
distribuio normal ) / 1 , 0 ( ~ T N . Onde T identifica o tamanho da amostra. Com base nessa
definio, pode-se conduzir um teste de significncia para o coeficiente de autocorrelao
construindo-se uma regio de no-rejeio (intervalo de confiana) para qualquer coeficiente
estimado, determinando se ele estatisticamente diferente de zero. Por exemplo, para 95%, a
regio de no rejeio dada por ) / 1 ( 96 , 1 T .
Mais precisamente, uma srie rudo branco dever ter a autocorrelation function
ACF for igual zero. Em termos prticos, se todas as ACFs forem consideradas zero, ento a
srie rudo branco. Para verificar tal situao, aplica-se o teste de Ljung e Box (1978).


2.3 Redes neurais artificiais

O desenvolvimento de trabalhos sobre Redes Neurais Artificiais (RNAs) tem como
marco inicial os estudos de McCulloch e Pitts (1943). Psiclogo e neurofisiologista,
McCulloch desenvolveu diversos estudos procurando representar e modelar eventos no
sistema nervoso e em parceria com o matemtico Pitts apresentou ensaios a respeito de redes
lgicas de neurnios artificiais chamados de neurnio.
27
O foco inicial desses estudos estava direcionado na descrio de um modelo artificial
de neurnio, ou seja, uma simplificao sobre o neurnio biolgico com base no
conhecimento da poca sobre o mesmo. Posteriormente, Hebb (1949) demonstrou como o
processo de aprendizagem ocorre em redes artificiais atravs da variao de pesos de entrada
do neurnio.
Desde os pioneiros estudos de McCulloch e Pitts (1943) at meados de 1980 houve
importantes avanos em RNAs, porm grande parte do desenvolvimento foi de lento
crescimento. A lenta evoluo foi devido a maior exigncia de tempo para a soluo de
problemas no lineares.
Os problemas no lineares eram considerados difceis de aprender. Aps meados de
1980 ocorreu um rpido crescimento no interesse pelas RNAs, muito provavelmente
estimulado pelo avano da tecnologia de microcomputadores.
Para um melhor entendimento das RNAs deve-se fazer um paralelo com o
processamento que ocorre no crebro humano. O crebro humano contm aproximadamente
100 bilhes de neurnios e 100 trilhes de sinapses.
Conforme a Figura 2, neurnio a clula do sistema nervoso responsvel pela
conduo do impulso nervoso (sinal) para outros nervos ou clulas. Um neurnio recebe um
sinal atravs dos seus dendritos que so numerosos prolongamentos especializados na
recepo de estmulos nervosos. Aps o recebimento do sinal, o mesmo repassado a outra
clula atravs do axnio.
Os neurnios recebem de forma contnua impulsos de neurnios prximos ou de
outras clulas atravs das sinapses nervosas localizadas nas extremidades dos dendritos. O
contato fsico entre dendritos no ocorre, o espao entre eles chamado de fenda sinptica.
Dos axnios so liberados os neurotransmissores que atravessam a fenda sinptica e
estimulam receptores nos dendritos, ocorrendo, dessa forma, o impulso nervoso de um
neurnio para outro.

28




FIGURA 2 Representao do neurnio humano.
Fonte: Imagem de domnio pblico.
http://commons.wikimedia.org/wiki/Image:Complete_neuron_cell_diagram_pt.svg



Haykin (2001) descreve que, de forma anloga ao neurnio humano, o modelo de
neurnio artificial composto por trs elementos principais: i) elos, ii) omador e, iii) funo
de ativao.
Os elos conduzem os sinais de entrada, cada sinal x
j
(j = 1,..., n) ponderado com peso
sinptico especfico w
j
. Como pode ser observado na Figura 3, o conjunto de sinais de entrada
ponderados por pesos sinpticos combinado e, dependendo das aes inibidoras ou
excitatrias de cada sinapse, poder disparar uma sada de sinal. O sinal de sada do neurnio
limitado a valores finitos por uma funo de ativao linear ou no linear.













FIGURA 3 Representao do neurnio artificial.
Fonte: Adaptado de Haykin (2001).
n
j
x
x
M
j
w
n
w
M
0


( )
j
x f
y
Sinais de Pesos Soma Funo de ativao Sada
entrada sinpticos ponderada no linear
29

Analisando-se a Figura 3, pode-se constatar que uma RNA um conjunto de
neurnios artificiais. Um neurnio artificial uma forma simplificada de representao
matemtica de um neurnio biolgico e, por sua vez, neurnio biolgico entendido como
unidades elementares de processamento de informaes (sinais) em qualquer organismo vivo.
Sem nenhuma pretenso de validade neurofisiolgica, pode-se descrever o funcionamento do
neurnio artificial da seguinte maneira:

1 Neurnios so unidades elementares na qual ocorre o processamento da
informao;
2 A entrada de informao ocorre atravs de sinais que so transmitidos at os
neurnios por meio de conexes, as quais tm a propriedade de ponderar os sinais
ao transmiti-los;
3 Em cada neurnio ocorre o processamento interno onde atua uma funo de
ativao (geralmente no linear) ponderando e transformando os sinais em sada.

Haykin (2001) enfatiza que em cada neurnio artificial, representado na Figura 3, est
presente uma constante (
0
) que tem por objetivo aumentar (se de sinal positivo) ou diminuir
(se de sinal negativo) o valor da funo de ativao. Essa constante, geralmente,
referenciada como bias. Na RNA a funo de ativao ( )
j
x f a responsvel pelo
processamento de informaes e pela gerao de uma sada do neurnio. As RNAs,
geralmente se utilizam de funes de ativao no lineares. As funes de ativao no
lineares distribuem a no lineariedade em paralelo e se comunicam por meio de conexes
sinpticas. As funes de ativao mais utilizadas so as do tipo sigmide.
A funo sigmide mais amplamente utilizada como funo de ativao em RNAs a
funo logstica ( ) [ ] Exp f + = 1 / 1 sendo

=
+ =
n
i
i i
w x
1
0
, onde
i
x so as variveis de
entrada e
i
w as ponderaes da funo de ativao com i = 1,..., n. A sada gerada pela funo
de ativao vai oscilar de forma contnua no intervalo entre 0 e 1. Sendo desejvel que a
funo de ativao estenda a sada entre valores no intervalo de -1 a 1, deve-se utilizar a
funo tangente hiperblica definida por ) tanh(
i
x f = .
Haykin (2001) enfatiza que uma RNA um sistema de processamento de informao
em paralelo e, semelhante ao crebro humano, trabalha com processos no lineares de
30
natureza complexa. A partir da forma como a RNA estruturada e operacionalizada pode-se
destacar dois aspectos bsicos de semelhana ao crebro humano: i) A RNA adquire
conhecimento num exaustivo processo de treinamento-aprendizagem atravs de anlises de
variveis em seu ambiente e, ii) O conhecimento adquirido fica armazenado nos neurnios
artificiais na forma de pesos sinpticos que so formados do relacionamento entre os
neurnios e as informaes de entrada.
Braga, Carvalho e Ludermir (2007) destacam que uma das caractersticas mais
importantes das RNAs a sua capacidade de aprender por meio de exemplos. Nesse contexto,
tem-se que o conhecimento adquirido atravs do relacionamento entre neurnios que,
paralelamente, ajustam importncia de certas informaes atravs de conexes sinpticas. O
ajuste das conexes ocorre em vista a melhorar o desempenho da rede conforme algum
critrio pr-estabelecido. A raiz do erro quadrtico mdio (REQM) fornecido pela RNA no
processo de treinamento frente a um conjunto de dados um exemplo de um critrio de
desempenho a ser melhorado, gerando, com isso, aprendizagem.


2.3.1 Arquitetura de rede

A arquitetura da rede neural artificial diz respeito a forma como so estruturados os
neurnios nas camadas intermedirias, ligando os valores de entrada (x) com os valores de
sada (y). Haykin (2001) classifica as arquiteturas de rede em trs diferentes tipos: i) redes
alimentadas adiante com camada nica, ii) rede alimentadas adiante com mltiplas camadas e,
iii) redes recorrentes.


2.3.1.1 Redes neurais alimentadas adiante com camada nica

Um exemplo da arquitetura de uma RNA alimentada adiante de camada nica
apresentado na Figura 4, onde so ilustrados dois neurnios na camada intermediria unindo
os valores de entrada aos valores de sada.
O modelo representado pela Figura 4 dado pela formulao [15].

t t t t t t
x x g x x g x f + + + + + + + = ) ( ) ( ) , (
2 22 1 21 20 2 2 12 1 11 10 1 0
. [15]
31
Em [15], x
t
o vetor representativo dos valores de entrada x
1t
, x
2t
(t = 1,..., n);
22 21 20 12 11 10
, , , , , so os coeficientes da primeira e da segunda funo de ativao,
2 1 0
, , so o intercepto e os coeficientes de inclinao.








FIGURA 4 RNA feedforward (2:2:1).

Este exemplo demonstra como uma simples RNA feedforward pode ser vista como um
flexvel modelo de regresso no linear, facilmente estimado com ferramentas de otimizao
padro.


2.3.1.2 Redes neurais alimentadas adiante com mltiplas camadas

Como alternativa para modelagem de problemas mais complicados, tem-se as RNAs
feedforward com duas ou mais camadas intermedirias. Haykin (2001) descreve que o fato de
adicionar mais camadas ocultas, torna a rede capaz de extrair estatsticas de ordem mais
elevada. A Figura 5 apresenta uma RNA feedforward com duas camadas intermedirias.








FIGURA 5 RNA feedforward (2:2:2:1).
1
y


X
1
X
2
Camada de Camada Camada de
Entrada Intermediria Sada
1
y


X
1
X
2
Camada de 1 Camada 2 Camada Camada de
Entrada Intermediria Intermediria Sada


32

O modelo de RNA alimentada adiante com mltiplas camadas intermedirias dado
pelas formulaes [16, 17].

t
q
i
t i i t
h s y +
|
|

\
|
+ =

=1
, 0
, [16]
|
|

\
|
+ =

=
n
j
j i ij i t i
x g h
1
, 0 ,
, [17]

onde s e g so conhecidos como funes de ativao e
t
o termo de erro com ) , 0 (
2
,
representa os parmetros a serem estimados seguindo um critrio de ajuste especificado.


2.3.1.3 Redes recorrentes

Genay, Seluk e Whicher (2002) destacam que a literatura de RNAs tem sido
dominada pelos modelos feedforward. Uma rede recorrente se distingue de uma rede
feedforward pela presena de no mnimo uma conexo de feedback. Uma tpica representao
de rede recorrente ilustrada na Figura 6.










FIGURA 6 RNA recorrente (2:2:1).


1
y


X
1
X
2
Camada de Camada Camada de
Entrada Intermediria Sada

t-k
feedback
33
O modelo recorrente descrito pelas formulaes [18, 19].

t
q
i
t i i t
h s y +
|
|

\
|
+ =

=1
, 0
, [18]
|
|

\
|
+ + =

= =

n
j
k
p
p t p i j i ij i t i
x g h
1 1
, , 0 ,
. [19]

Onde
p t
o componente de feedback do tempo t-p. Agora, a melhoria temporal do
output pode ser expresa por . ) , , , (
, 2 , 1 t p t t t t
x x f y + =

Modelos de RNAs recorrentes
tambm podem ser vistos como modelos no lineares autoregressivos de mdias mveis
NARMA(p, q).
O presente captulo focou sobre os aspectos tericos bsicos relativos previsibilidade
no mercado financeiro, sries temporais e redes neurais. A seguir ser realizado um
detalhamento dos aspectos metodolgicos que nortearam o estudo.
34



3 ASPECTOS METODOLGICOS


3.1 Amostra e dados

Os dados considerados para o desenvolvimento desse estudo abrangem o perodo de
23/01/2006 at 18/04/2008. Os valores so relativos freqncia temporal diria e esto em
moeda local. Os preos considerados referente carteira terica da Bovespa so relativos ao
fechamento do dia. Para o nmero de negcios e volume financeiro, foi considerada a
totalizao diria.

9.40
9.60
9.80
10.00
10.20
10.40
10.60
10.80
11.00
11.20
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o

d
o

p
r
e

o

(
p
a
d
r

o

1
0
)


FIGURA 7 Srie temporal dos preos da carteira terica da Bovespa


35
0.00
2.00
4.00
6.00
8.00
10.00
12.00
14.00
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o

d
o

n

m
e
r
o

d
e

n
e
g

c
i
o
s

(
p
a
d
r

o

1
0
)

FIGURA 8 Srie temporal do nmero de negcios

0.00
2.00
4.00
6.00
8.00
10.00
12.00
14.00
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o

d
o

v
o
l
u
m
e

f
i
n
a
n
c
e
i
r
o

(
p
a
d
r

o

1
0
)

FIGURA 9 Srie temporal do volume financeiro


A taxa de retorno foi calculada pela diferena do logaritmo do preo de fechamento do
ndice conforme a seguinte equao:

36
) ln( ) ln(
1 , , ,
=
t i t i t i
P P r , [20]

onde
t i
r
,
o retorno do ndice i no tempo t,
t i
P
,
e
1 , t i
P so os preos de fechamento no tempo
t e no perodo imediatamente anterior. Para o clculo foram considerados os ajustes relativos a
dividendos, bonificaes e outros ocorridos no perodo. Procedimento semelhante foi adotado
para a variao do nmero de negcio e variao do volume financeiro.
Procurando melhorar o processo de ajuste pelo mtodo dos mnimos quadrados no
linear, as variveis (retorno, variao do nmero de negcios e variao no volume
financeiro) foram padronizadas no intervalo [0,1]. A padronizao no afeta as caractersticas
dos dados e torna bem mais rpido a obteno de uma soluo computacional. A
padronizao adotada foi obtida pela aplicao da frmula:

)] min( ) [max( )] min( [
,
*
, i i i t i t i
r r r r r = . [21]

onde
*
,t i
r a varivel padronizada, ) min(
i
r o valor mnimo e ) max(
i
r o valor mximo da
srie temporal das variveis.


3.2 Modelagem

As formulaes [21, 22 e 23] detalham, de maneira genrica, o modelo de RNAs
utilizada para identificar a influncia das variveis nmeros de negcios e volume financeiro
na previsibilidade do retorno do Ibovespa.

1
3
1
0
1 ) , , (

=
(

\
|
+ + =

k
k k
g Exp x RNA ; [21]

1
3
1
, 0 ,
1 ) (

=
(

\
|
+ + =

k
kj j k j k k
f Exp f g , para j = 1, 2, 3; [22]


37

1
, ,
1
0
1 ) (

=
(

|
|

\
|
+ + =

p s r
k
ij ij ij j
x Exp x f , para j = 1, 2, 3; e r = 5, s = 10 e p = 15. [23]

No primeiro modelo de RNA, composto pela combinao das formulaes [21, 22,
23], ser considerado como relevantes para a previsibilidade do retorno do Ibovespa apenas
suas informaes defasadas em at (t-5). Nesse caso, h cinco variveis de entrada na RNA.
Na primeira e na segunda camada intermediria sero utilizadas trs funes
sigmides escolhidas de forma arbitrria.
O procedimento de duas camadas intermedirias com trs funes sigmides ser
utilizado nos trs modelos de RNA com objetivo de facilitar a comparao de desempenho
pela raiz do erro quadrtico mdio.
A Figura 10 ilustra as RNAs a serem aplicadas.










FIGURA 10 Estrutura das RNAs a serem aplicadas.


No segundo modelo so considerados informaes defasadas em at (t-5) das
variaes do nmero de negcios alm das variveis do primeiro modelo. No terceiro modelo
so acrescidas informaes defasadas do volume financeiro em at (t-5) alm das variveis do
segundo modelo, totalizando 15 variveis de entrada.



1
y

X
1
X
...
Camada de 1 Camada 2 Camada Camada de
Entrada Intermediria Intermediria Sada


X
r,s,p

38
3.3 Treinamento e teste

Aps a padronizao dos dados de entrada, o processo de aplicao da RNA envolve
mais dois estgios: i) treinamento e, ii) teste. O treinamento um procedimento no qual a rede
vai aprender as relaes que governam a variao dos dados de sada. No treinamento, os
coeficientes (pesos) da rede so modificados de forma a minimizar a raiz do erro quadrtico
mdio entre os valores de sada observados e os estimados dos primeiros 758 valores.
Na prtica no se pode determinar se um modelo bom ou no com base em apenas
uma realizao. Portanto, na fase de teste, um conjunto de dados separados, composto de 50
valores, no utilizados pela rede na fase de treinamento ser considerado para avaliar o
desempenho levando-se em considerao os coeficientes estimados.
Na fase de teste, a rede ser avaliada com base nos valores da raiz do erro quadrtico
mdio que so gerados do confronto entre os 50 valores realizados e suas estimativas. A raiz
do erro quadrtico mdio definida pela formulao [23].

=
=
T
t
t t
y y
T
REQM
1
2
) (
1
. [23]

Em [23] T o nmero total de observaes,
t
y (t = 1, ..., T) so os valores observados
e
t
y os valores estimados pela rede neural artificial. Um modelo ser melhor do que outro
quando o seu REQM for menor.


3.4 Software

O software utilizado foi o software denominado de R. O software R uma linguagem e
ambiente para computao estatstica e grfica. R fornece uma ampla variedade de estatsticas
tais como modelagem linear e no-linear, testes estatsticos clssicos, anlise de sries
temporais, clustering, anlise multivariada, redes neurais entre outras.
O R disponibilizado como software livre sob os termos da Free Software
Foundations GNU (General Public License) em forma de cdigo fonte. A operacionalidade
od R se concretiza atravs de pequenos pacotes. Atualmente, janeiro de 2009, h
39
aproximadamente 1.600 pacotes disponveis para serem livremente utilizados no R. O pacote
especfico utilizado no presente estudo foi o AMORE verso 0.29. AMORE um sistema de
redes neural artificial altamente flexvel. O pacote permite formar uma rede fedforward
multicamadas com um mnimo de programao. A programao elaborado para os trs
modelos analisados encontra-se nos Anexos A, B e C .
40



4 RESULTADOS OBTIDOS


Inicialmente so apresentados, na Tabela 1, os valores das estatsticas descritivas para
as trs sries de dados. Na primeira coluna de valores tem-se as estatsticas relativas a varivel
retorno (diferena do logaritmo do preo), na segunda coluna as estatsticas da variao do
nmero de negcio (diferena do logaritmo do nmero de negcios) e na ltima coluna as
estatsticas da variao do volume financeiro (diferena do logaritmo do volume financeiro).

Tabela 1 Estatsticas descritivas das variveis

Estatsticas Retorno Negcio Volume

Perodo de treinamento
Mdia 0.0012 0.0019 0.0017
Mediana 0.0019 -0.0138 -0.0127
Desvio padro 0.0166 0.2826 0.2922
Excesso de Curtose 0.9062 1.7226 1.4501
Assimetria -0.3204 0.1465 0.1198
Mnimo -0.0686 -0.9973 -1.2242
Mximo 0.0578 1.0854 1.2757
Observaes 758 758 758

Perodo de teste
Mdia 0.0019 0.0019 0.0044
Mediana 0.0029 -0.0023 -0.0112
Desvio padro 0.0180 0.2123 0.2115
Excesso de Curtose 0.6792 0.3066 0.1031
Assimetria -0.5447 0.3978 0.4197
Mnimo -0.0514 -0.4675 -0.3931
Mximo 0.0387 0.5287 0.5809
Observaes 50 50 50


Observa-se na parte superior da Tabela 1, que a srie de retorno se caracteriza com
excesso de curtose o que lhe confere uma aparncia da curva de distribuio de freqncia
mais elevada e caudas mais longas que a de uma distribuio normal. A assimetria negativa
caracterizada pela mediana maior que a mdia induz a possibilidade de uma maior ocorrncia
41
de valores extremos negativos. De uma forma geral, para todas as variveis, as caractersticas
do perodo de treinamento so semelhantes aos do perodo de teste.
Os resultados obtidos atravs da aplicao dos trs modelos de RNAs so
apresentados a seguir. O primeiro modelo procurou o melhor ajuste s variaes do Ibovespa
considerando apenas seus valores defasados (t-1,..., t-5) como sendo relevantes. O segundo
modelo acrescenta as informaes defasadas (t-1,..., t-5) do nmero de negcios. Por fim, o
terceiro modelo acrescenta as informaes defasadas (t-1,..., t-5) do volume financeiro.


4.1 Modelo com informaes sobre os retornos

Os resultados da RNA que considera apenas as informaes defasadas dos retornos
so apresentados na Tabela 2 e ilustrada na Figura 11. Deve-se salientar que os resultados da
Tabela 2, so relativos ao perodo de treinamento da RNA, ou seja, o perodo utilizado como
amostra para que a rede aprenda os padres e possa, posteriormente, realizar a previso. Na
fase de treinamento foram consideradas as primeiras 758 observaes e, aps, foram
realizadas 50 previses fora da amostra.

Tabela 2 Pesos sinpticos da RNA (5:3:3:1)

F1 F2 F3 G1 G2 G3 K1
Bias -0,1099 0,0230 -0,0503
1 t
r
-0,0134 -0,1340 0,0096
2 t
r
-0,1448 0,2966 -0,1785
3 t
r
0,1949 0,1129 0,2635
4 t
r
0,1710 -0,0507 -0,2114
5 t
r
0,0510 0,0913 0,1084
Bias -0,0175 -0,0499 0,2161
F1 0,0007 -0,0242 -0,0472
F2 0,1441 0,2517 0,0434
F3 0,1442 -0,1949 -0,0739
Bias 0,1418
G1 0,0866
G2 -0,1631
G3 0,1180
Os valores relativos a F1, F2 e F3 so da primeira camada intermediria;
Os valores relativos G1, G2 e G3 so da segunda camada intermediria.

42
A Figura 11 ilustra o desempenho da RNA (5:3:3:1) onde fica evidente as ligaes
entre os valores de entrada (imputs) com a primeira camadas intermediria, essa com a
segunda camada intermediria e, por fim com os valores de sada (outputs).


FIGURA 11 Estrutura da RNA com 5 variveis de entrada.



Tabela 3 Resultados da RNA (5:3:3:1)
Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1264 0,1422
Correlao linear
(p-valor)
0,2674
(0,000)
0,0996
(0,4914)
R
2
ajustado 0,0690 -0,0322
Teste de Ljung-Box
(p-valor)
4,6143
(0,9154)

Teste de Jarque-Bera
(p-valor)
46,3010
(0,000)

Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.



output
43
Na Tabela 3, tem-se algumas estatsticas para anlise do desempenho da RNA
(5:3:3:1), tanto na fase de treinamento quanto na fase de previso. Na fase de treinamento, a
raiz do erro quadrtico mdio foi de 0,1264 com uma correlao linear significativa de
0,2674. Esses valores garantiram um coeficiente de determinao ajustado de 6,9%. O resduo
da rede se mostra sem dependncia serial, porm distinto dos padres de uma distribuio
normal.
A Figura 12 apresenta um diagnstico visual da RNA (5:3:3:1), atravs da anlise
visual constata-se que os valores estimados do retorno do Ibovespa no perodo de treinamento
ficam bem concentrados em torno da mdia, identificando poucos perodos de instabilidade.
Isto, de certa forma, subestima o risco de mercado.

retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
5
0
.
7
0
.
9
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos

-0.6 -0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0


FIGURA 12 Treinamento da RNA(5:3:3:1).



A funo de autocorrelao dos resduos ACF e o histograma de freqncia
evidenciam uma srie no autocorrelacionada, mas distinta dos padres de uma distribuio
normal.
44


4.2 Modelo com informaes sobre os retornos e nmero de negcios

Os resultados da RNA que considera informaes defasadas dos retornos e do nmero
de negcios so apresentados na Tabela 4. Sua estrutura ilustrada na Figura 13. Nesse
modelo foram consideradas 10 variveis de entrada com trs funes sigmides de ativao
na primeira camada intermediria e trs funes sigmides de ativao na segunda camada
intermediria.

Tabela 4 Pesos sinpticos da RNA (10:3:3:1)

F1 F2 F3 G1 G2 G3 K1
Bias -0,0798 -0,1208 0,1359
1 t
r
-0,1663 0,1310 -0,1654
2 t
r
-0,1912 0,1735 0,0077
3 t
r
0,2463 -0,2443 0,1031
4 t
r
-0,0668 0,0469 -0,0239
5 t
r
-0,2081 0,0113 -0,1320
1 t
neg
-0,0880 -0,0046 -0,2108
2 t
neg
-0,0497 0,1901 -0,0720
3 t
neg
-0,1623 -0,1818 -0,0777
4 t
neg
-0,0346 -0,0294 0,0357
5 t
neg
0,1611 -0,0690 0,0496
Bias -0,0191 -0,1155 0,0798
F1 -0,1238 -0,1323 0,2421
F2 -0,1387 0,2220 -0,1153
F3 -0,2372 -0,2258 -0,0150
Bias -0,1313
G1 -0,0921
G2 0,1706
G3 0,2169
Os valores relativos a F1, F2 e F3 so da primeira camada intermediria;
Os valores relativos G1, G2 e G3 so da segunda camada intermediria.








45



FIGURA 13 Estrutura da RNA com 10 variveis de entrada (10:3:3:1).


Na Tabela 5, tem-se os resultados da RNA (10:3:3:1). Na fase de treinamento o erro
quadrtico mdio de 0,1192 aumentando para 0,1449 na fase de previso fora da amostra. A
correlao linear de 0,4167 passa a ser negativa na ordem de -0,0791. O coeficiente de
determinao, de 0,1715 na fase de treinamento passa para -0,0360 na fase de previso.

output
46

Nesse ponto importante destacar que a incluso de um maior nmero de variveis de
entrada (informaes sobre as variaes do nmero de negcios) torna possvel uma reduo
do critrio de ajuste (raiz do erro quadrtico mdio) e um aumento do coeficiente de
correlao linear e coeficiente de determinao ajustado em relao do modelo que utiliza
apenas informao dos retornos passados.
Poder-se-ia pensar que essa melhora significa um ganho de previsibilidade, mas no o
. Fica evidente que, tanto o a raiz do erro quadrtico mdio quanto correlao linear e o
coeficiente de determinao no conseguem manter o bom desempenho na fase de teste
(previso). O diagnstico visual do modelo da RNA (10:3:3:1) ilustrado na Figura 14.

Tabela 5 Resultados da RNA (10:3:3:1)

Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1192 0,1449
Correlao linear
(p-valor)
0,4167
(0,000)
0,0791
(0,5849)
R
2
ajustado 0,1715 -0,0360
Teste de Ljung-Box
(p-valor)
8,0310
(0,6258)

Teste de Jarque-Bera
(p-valor)
32,2480
(0,000)

Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.




Em termos ilustrativos, a Figura 14 permite uma anlise visual da RNA (10:3:3:1).
Pode-se constatar que a srie estimada de retorno do Ibovespa apresenta-se com maior
oscilao torno da mdia se comparado com a estimativa da RNA (5:3:3:1).
Com uma maior disperso, tem-se uma expectativa mais realista do risco associado ao
mercado financeiro. A funo de autocorrelao dos resduos (ACF) identifica um
comportamento no autocorrelacionado serialmente. O histograma de freqncia identifica
um comportamento mais prximode um formato de sino, porm ainda muito distinto dos
padres de uma curva normal.
47
retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
2
0
.
4
0
.
6
0
.
8
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos

-0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0


FIGURA 14 Treinamento da RNA (10:3:3:1).



At o momento, pode-se destacar que acrescentando informaes sobre o nmero de
negcios tem-se um ajuste mais preciso na fase de treinamento, mas que no se mantm na
fase de teste.



4.3 Modelo com informaes sobre os retornos, nmero de negcios e volume
financeiro


O terceiro modelo de RNA aplicado envolve a utilizao de informaes defasadas do
retorno, variao do nmero de negcios e variao do volume financeiro como variveis
explanatrias das variaes do Ibovespa. Os resultados dos pesos sinpticos so apresentados
na Tabela 6.
48

Tabela 6 Pesos sinpticos da RNA (15:3:3:1)

F1 F2 F3 G1 G2 G3 K1
Bias -0,0860 -0,0963 -0,0365
1 t
r
0,1001 0,1433 -0,0789
2 t
r
-0,1978 -0,0921 0,1854
3 t
r
0,1219 -0,0941 0,1741
4 t
r
0,0544 -0,0940 -0,0706
5 t
r
0,1435 -0,0551 -0,1235
1 t
neg
-0,0793 -0,0561 0,0865
2 t
neg
-0,0563 -0,0690 0,1398
3 t
neg
0,0710 0,0360 0,0914
4 t
neg
-0,2018 -0,0860 -0,1555
5 t
neg
0,1833 0,1404 0,0387
1 t
vol
0,1743 0,0441 0,0671
2 t
vol
-0,0295 -0,0558 -0,1354
3 t
vol
-0,1578 0,1277 0,2006
4 t
vol
0,1847 0,1564 -0,0752
5 t
vol
0,0302 0,0808 0,2000
Bias 0,0243 -0,2155 -0,0089
F1 -0,0092 0,0988 -0,0757
F2 0,1521 -0,1961 -0,1492
F3 0,1169 -0,0559 -0,1238
Bias 0,1136
G1 -0,0767
G2 -0,0700
G3 -0,0095



A estrutura da RNA estimada com 15 variveis de entrada, trs neurnios na primeira
camada intermediria e outros trs na segunda camanda intermediria ilustrada na Figura
15.
Na Tabela 7, tem-se os resultados da RNA (15:3:3:1) ajustada. A fase de treinamento
da RNA que considerou 15 variveis de entrada possibilitou a obteno de valores mais
ajustados do que os modelos anteriores. A raiz o erro quadrtico mdio foi reduzido para
0,1139. A correlao linear aumentou para 0,4992 e o coeficiente de determinao ajustado
indica que o modelo treinado prediz 24,30% das variaes do Ibovespa.
49


FIGURA 15 Estrutura da RNA com 15 variveis de entrada (15:3:3:1).
output
50

Tabela 7 Resultados da RNA(15:3:3:1)

Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1139 0,1432
Correlao linear
(p-valor)
0,4992
(0,000)
0,1660
(0,2475)
R
2
ajustado 0,2430 -0,0136
Teste de Ljung-Box
(p-valor)
10,4159
(0,4048)

Teste de Jarque-Bera
(p-valor)
50,0790
(0,000)

Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.


Em termos de mercado financeiro, os valores obtidos pela RNA (15:3:3:1) podem ser
considerados de boa performance. Porm, o modelo ajustado no consegue manter sua
qualidade na fase de previso. Dessa forma, parece que a boa qualidade do ajuste do modelo
no garantia de igual qualidade na fase de previso. A Figura 16 permite um diagnstico
visual desse ajuste.
retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
2
0
.
4
0
.
6
0
.
8
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos

-0.6 -0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0

FIGURA 16 Treinamento da RNA (15:3:3:1).
51

Observando-se a srie estimada pela RNA (15:3:3:1) pode-se perceber que ela
apresenta uma oscilao maior em torno da mdia do que as estimativas dos modelos
anteriores. Dessa forma tem-se uma noo ainda mais realista do risco de mercado. Como nos
modelos anteriores, a funo de autocorrelao dos resduos e seu histograma, tambm
identificam resduos no autocorrelacionados e distribudos de forma distinta de uma
distribuio normal.
Analisando os resultados da aplicao dos trs modelos de Redes Neurais Artificiais,
pode-se constatar que com o aumento do nmero de variveis de entrada, ou seja,
considerando dados sobre o nmero de negcios alm dos dados sobre as variaes de preos,
possvel melhorar o ajuste no perodo de treinamento.
Esse ajuste fica ainda melhor com acrscimo de dados sobre o volume financeiro, a
raiz do erro quadrtico mdio diminui e a correlao linear aumenta. Porm, a melhoria na
fase de treinamento no se mantm na fase de previso, indicando, dessa forma, que dados
sobre o nmero de negcios e volume financeiro no so relevantes para a previso das
variaes de preo do Ibovespa.


52



5 CONCLUSO



Este estudo foi desenvolvido com o objetivo de verificar a utilidade de se considerar
informaes sobre o nmero de negcios e o volume financeiro negociado em bolsa como
variveis explanatrias das variaes do Ibovespa. O que se est procurando tentar melhorar
um modelo de previso que se utiliza apenas dos dados das variaes de preos passados para
fornecer uma estimativa de variaes de preo no futuro. A investigao baseada na
aplicao da metodologia de Redes Neurais Artificiais com duas camadas intermedirias e
com funes de ativao sigmides.
So construdos trs modelos de redes neurais artificiais. Os modelos so estruturados
com duas camadas intermedirias. No primeiro modelo so utilizados apenas os dados sobre
as variaes nos preos dos ltimos cinco dias. No segundo modelo so acrescidas ao
primeiro modelos dados dos ltimos cinco dias do nmero de negcios realizados. No terceiro
modelo so acrescidos ao segundo modelo dados dos ltimos cinco dias do volume financeiro
movimentado pelos negcios na bolsa.
Aps o treinamento dos trs modelos, procedeu-se o clculo da raiz do erro quadrtico
mdio, coeficiente de determinao ajustado e grau de correlao. Tambm foram calculados
o teste de Ljung-Box e Jarque-Bera a fim de verificar se os modelos foram ajustados
adequadamente. Todos os testes aplicados identificaram que os resduos dos modelos no se
apresentaram como uma distribuio normal, mas no apresentaram dependncia, assim
podem ser considerado como sendo rudo branco.
Conclui-se que o terceiro modelo, a RNA que considerou informaes sobre o
nmero de ttulos e o volume financeiro negociado na bolsa de valores alm de informaes
sobre as variaes de preo, fornece um ajuste melhor do que o modelo que considera apenas
informaes de retornos passados. Essa afirmao valida para o perodo de treinamento.
Porm, na fase de previso a RNA que melhor se ajustou a srie do Ibovespa na fase
de treinamento no consegui manter as suas propriedades, oferecendo uma melhor estimativa,
ou seja, as propriedades de ajustes se deterioram no perodo fora da amostra.
53
Dessa forma, pode-se afirmar que as informaes defasadas sobre nmero de ttulos e
volume financeiro negociado em at cinco dias no so teis para previso de futuro
comportamento das oscilaes do mercado financeiro.
Esses resultados vm corroborar com a hiptese de eficincia na forma fraca do
mercado financeiro, ou seja, informaes passadas sobre preos so inteis para modelos de
previsibilidade com objetivos de ganhos anormais, visto que os preos j refletem totalmente
as informaes disponveis.
54



REFERNCIAS BIBLIOGRFICAS



BACHELIER, L. Theory of speculation (1900). In COOTNER, P. The random character of
stock market prices. Cambridge: MIT Press, pag. 17-78, 1964.
BOX, G. E. P.; PIERCE, D. A. Distributions of residual autocorrelations in autoregressive
integrated moving average models. Journal of the Americam Statistics Association, v. 65, p.
1509-1526, 1970.
BRAGA, A. P.; CARVALHO, A. P. L.; LUDERMIR, T. B. Redes neurais artificiais. Rio de
Janeiro: LTC, 2007.
BROOKS, C. Introductory econometrics for finance. Cambridge, 2008
CERETTA, P. S.; COSTA, JR., N. C. A. Caminho aleatrio: reviso, sntese e novos
resultados nos mercados de capitais da Amrica Latina. Revista de Administrao (RA-USP),
Vol. 37, n. 3, 2002.
FAMA, E. F.; FRENCH, K. R. Permanent and temporary components of stock prices.
Journal of Political Economics, Vol, 96, n. 2, pag. 246-273, 1988.
FRANSES, P. H.; DIJK, D. V. Non-linear time series models in empirical finance. New
York: Cambridge University Press, 2003.
GENAY, B.; SELUK, F.; WHITCHER, B. An introduction to wavelets and other filtering
methods in finance and economics. California: Elsevier, 2002.
HAYKIN, S. Redes neurais: princpios e prticas. Porto Alegre: Bookman, 2001.
HEBB, D. O. The organization of behavior. Wiley, 1949.
KAMRUZZAMAN, J.; BEGG, R.; SARKER, R. Artificial neural networks in finance and
55
manufacturing. London: Idea Group Publishing, 2006.
KENDALL, L. Theory analysis of economic time series Part I: Prices (1953). In
COOTNER, P. The random character of stock market prices. Cambridge: MIT Press, pag.
85-99, 1964.
KIRCHGASSNER, G.; WOLTERS, J. Introduction to modern time series analysis. Springer,
2008.
KUAN, C. M.; WHITE, H. Artificial networks: an econometric perspective (with
discussion). Econometric Reviews, Vol.13, p. 1-143, 1994.
LATHI, B. P. Sinais e sistemas lineares. Porto Alegre: Bookman, 2007.
LJUNG, G. M.; BOX, G. E. P. On a measure of lack of fit in time series models. Biometrika,
v. 65(2), p. 297-303, 1978.
LO, A. W.; MACKINLAY, c. Stock market prices do not follow random walks: evidence
from a simple specification test. Review of Financial Studies, Vol. 1, n. 1, pag. 41-46, 1988.
MCCULLOCH, W.S.; PITTS, W. A logical calculus of the ideas immanent in nervous
activity. Bulletin of Mathematical Biophisycs, v. 5, p. 115-133, 1943.
McNELIS, P. D. Neural networks in finance. California: Elsevier Academic Press, 2005.
MILLS, T. C. The econometric modeling of financial time series. New york: Cambridge
University Press, 1999.
OLIVEIRA, M. A.; MONTINI, A. A.; BERGMANN, D. R. Previso de retornos de aes
de empresas dos setores financeiro, alimentos, industrial e de servios por meio de Redes
Neurais e modelos ARIMA-GARCH. Anais do Enanpad 2007. XXX Encontro da ANPAD.
Rio de Janeiro, 2007.
POTERBA, J.; SUMMER, L. Mean reversion in stock prices: evidences and implications.
Journal of Financial Economics, Vol. 22, pag. 27-59, 1988.
QI, M. Financial applications of artificial neural networks. In MADDALA, G. S.; RAO, C.
D. Handbook of statistics. Vol. 14: Statistical methods in finance. Amsterdam: Elsevier
56
Science, p. 529-552, 1996.
SAMUELSON, P. A. Proof that property anticipated prices fluctuate randomly. Industrial
Management Review, Vol. 6, pag. 41-49, 1965.
ZHANG, G. P. Neural networks in business forecasting. London: Idea Group Publishing,
2004.



57


ANEXO A


Programao do modelo RNA com cinco variveis de entrada




58
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6]),758, 5) # Imput treino
imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6]),50, 5) # Imput fora da amostra
net <- newff(n.neurons=c(5,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias




59

ANEXO B


Programao do modelo RNA com dez variveis de entrada



60
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6],
da[,7],da[,8],da[,9],da[,10],da[,11]),758, 10) # Imput treino

imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6],
daf[,7],daf[,8],daf[,9],daf[,10],daf[,11]),50, 10) # Imput fora da amostra
net <- newff(n.neurons=c(10,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias


61

ANEXO C


Programao do modelo RNA com quinze variveis de entrada

62
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6],
da[,7],da[,8],da[,9],da[,10],da[,11],
da[,12],da[,13],da[,14],da[,15],da[,16]),758, 15) # Imput treino

imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6],
daf[,7],daf[,8],daf[,9],daf[,10],daf[,11],
daf[,12],daf[,13],daf[,14],daf[,15],daf[,16]),50, 15) # Imput fora da amostra
net <- newff(n.neurons=c(15,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias

Você também pode gostar