Escolar Documentos
Profissional Documentos
Cultura Documentos
= , [8.1]
onde
x
e
y
so as mdias de X e Y, respectivamente. Se X e Y so independentes 0
,
=
y x
,
mas se 0
,
=
y x
no se pode afirmar que exista ausncia de dependncia entre X e Y. Quando
a anlise realizada para dados de uma amostra {(x
t
, y
t
)}, t=1,..., T, o coeficiente de
correlao definido por:
= =
=
=
T
t
T
t
t t
T
t
t t
y x
y y x x
y y x x
1 1
2 2
1
,
) ( ) (
) )( (
, [9]
onde x e y so as mdias amostrais de X e Y, dadas por
=
=
T
t
t
x x
1
e
=
=
T
t
t
y y
1
,
respectivamente.
2.2.1.2 Funo de autocorrelao
Autocorrelao uma extenso do conceito de correlao, nesse caso, aplicado sobre
as defasagens da varivel analisada. Assim, o coeficiente de correlao entre r
t
e r
t-1
chamado de autocorrelao da primeira defasagem. Na forma geral, o coeficiente de
autocorrelao obtido por:
) ( ) (
) , (
k t t
k t t
k
r Var r Var
r r Cov
= , [10]
22
) (
) , (
t
k t t
k
r Var
r r Cov
= , [10.1]
0
k
k
= . [10.2]
Observe que, por definio, quando k=0, 1
0
= , pois ) ( / ) , (
0 t t t
r Var r r Cov
=
) ( / ) (
t t
r Var r Var . Uma srie r
t
, fracamente estacionria, ser no correlacionada serialmente
se, e somente se, 0 =
k
para todo k>0. Para dados de uma amostra {r
t
}, t=1,..., T, sendo x
mdia aritmtica de { r
t
}, obtm-se o coeficiente de autocorrelao amostral relativo a t-1 por:
=
+ +
+
=
T
t
t
T
k t
k t t
k
r r
r r r r
1
2
1
1
) (
) )( (
, [11]
=
=
=
T
t
t
T
t
t t
r r
r r r r
1
2
2
1
1
) (
) )( (
. [11.1]
Dispondo diversos valores de
k
, com ) 1 0 ( < T k , na forma grfica, tem-se o
chamado correlograma amostral ou autocorrelation function ACF. Mills (1999) destaca que
a ACF de grande importncia na modelagem das dependncias e juntamente com a mdia e
a varincia descrevem a evoluo de r
t
. A ACF evidencia como r
t
est relacionado (no tempo)
com seus valores anteriores, construindo uma idia de extenso e grau de memria do
processo.
23
2.2.1.3 Teste de Ljung e Box
Aps a obteno de diversos valores de coeficientes de autocorrelao , geralmente,
prefervel verificar a significncia conjunta desses coeficientes. Para tal, aplica-se a estatstica
portmanteau (geral) proposta por Box e Pierce (1970) que dada por:
=
=
m
k
k m
T Q
1
) (
* . [12]
As hipteses verificadas pela estatstica Q
(m)
so:
H
0
: 0 ...
1
= = =
m
,
H
1
: 0
k
para pelo menos algum } ,..., 1 { m k .
Para amostras grandes, Q*
(m)
segue uma distribuio qui-quadrado com m graus de
liberdade. Se o valor calculado exceder o valor crtico de Q*
(m)
na distribuio
2
ao nvel
especfico de significncia, rejeita-se a hiptese nula de que todos os coeficientes so iguais a
zero.
Posteriormente, com objetivo de aumentar o poder do teste associado estatstica
Q*
(m)
frente a pequenas amostras, Ljung e Box (1978) prepuseram alteraes na formulao
de Box e Pierce (1970). Agora o teste obtido por:
=
+ =
m
k
k
m
k T
T T Q
1
2
) (
) 2 (
, [13]
( )
2
,
1
2 1
~ ) ( ) 2 (
m
m
k
k m
k T T T Q
+ = . [13.1]
Para dados amostrais Q
(m)
segue uma distribuio qui-quadrado com m graus de
liberdade. As hipteses do teste so as mesmas do teste original de Box e Pierce (1970). H
0
ser rejeitada se
2
, ) ( m m
Q
> , onde representa o nvel de significncia e m os graus de
24
liberdade, ou se p-value for menor ou igual ao nvel de significncia (geralmente de 1% a
5%).
Analisando-se [13 e 13.1] , constata-se que, assintoticamente (quando o tamanho da
amostra tende ao infinito), os termos (T + 2) e (T k) tendem a se cancelar e a estatstica de
Ljung-Box converge para Box-Pierce.
Em termos prticos, pode-se perceber que o resultado do teste afetado pela escolha
do valor de m. Na literatura de Finanas h sugestes para que se utilizem valores pequenos
para m, ou seja, T m ln . Com esse artifcio, consegue-se um aumento no poder do teste.
2.2.2 Rudo branco
A terminologia rudo branco (white noise), derivada de sinal branco, muito utilizada
na literatura de Finanas. Lathi (2007) destaca que um sinal um conjunto de dados ou
informao com certas propriedades. Sinais podem ser modificados e modelados a fim de se
extrair informaes adicionais.
O adjetivo branco utilizado para fazer referncia a ptica, onde a cor branca tem um
espectro mais largo e constante se comparado com o espectro da luz colorida. Isso se deve ao
fato da luz branca ser obtida por meio da combinao simultnea de diversas freqncias
cromticas. Por exemplo, ao girar velozmente um disco colorido sobre um eixo fixo, as
diversas cores convergem para o branco impossibilitando que se identifiquem quais as reais
cores presentes no disco. Dessa forma, o termo sinal (conjunto de dados) passa a ser chamado
de rudo (conjunto de dados que no permitem informaes adicionais), um chiado
indecifrvel.
Embora no seja objetivo deste estudo, interessante destacar que existem diversos
tipos de rudos brancos. Por exemplo, algumas dessas seqncias so: i) rudo branco
uniforme, oscilao segundo uma distribuio uniforme [-2,5;...; 2,5] no correlacionada em
torno de zero; ii) rudo branco gaussiano, oscilao segundo uma distribuio gaussiana
[mdia = 0 e desvio padro = 1] no correlacionada em torno de zero e, iii) rudo branco
Cauchy, oscilao segundo uma distribuio Cauchy (0, 1) no correlacionada em torno de
zero.
A Figura 1 ilustra graficamente essas trs formas distintas de rudo branco.
25
Uniforme runif(n=1000, 2.5, 2.5)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
2
0
1
2
Histogram of s
s
F
r
e
q
u
e
n
c
y
-2 -1 0 1 2
0
2
0
4
0
Normal rnorm(n=1000, 0, 1)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
3
-
1
1
3
Histogram of w
w
F
r
e
q
u
e
n
c
y
-3 -2 -1 0 1 2 3
0
5
0
1
5
0
Cauchy rcauchy(n=1000, 0, 1)
Observaes
I
n
t
e
r
v
a
l
o
0 200 400 600 800 1000
-
2
0
0
0
2
0
0
Histogram of k
k
F
r
e
q
u
e
n
c
y
-200 -100 0 100 200
0
2
0
0
4
0
0
FIGURA 1 Sries rudo branco.
Na primeira linha da Figura 1 tem-se uma srie rudo branco uniforme e ao lado o seu
histograma de freqncia; na segunda linha, uma srie ruindo branco gaussiano e seu
respectivo histograma; na terceira linha, uma srie cauchy e seu histograma.
Em termos formais, uma srie de retornos r
t
( + = ,..., t ) chamada de rudo
branco se a seqncia for constituda de variveis aleatrias. Nessa definio, tem-se que:
26
= ) (
t
r E para t ; [14]
2 2
) [( =
t
r E para t ; [14.1]
=
=
. 0 quando para 0
0 se
) (
2
k t
k
r r E
k t t
[14.2]
Ento, se uma srie rudo branco dever ter mdia e varincia constante, com
autocovarincia igual a zero, exceto na defasagem zero, ou seja, as observaes no so
correlacionadas com os outros valores da seqncia.
Brooks (2008) enfatiza que adicionando a restrio de que r
t
distribudo
normalmente, ento o coeficiente de autocorrelao amostral deve repousar entre os limites da
distribuio normal ) / 1 , 0 ( ~ T N . Onde T identifica o tamanho da amostra. Com base nessa
definio, pode-se conduzir um teste de significncia para o coeficiente de autocorrelao
construindo-se uma regio de no-rejeio (intervalo de confiana) para qualquer coeficiente
estimado, determinando se ele estatisticamente diferente de zero. Por exemplo, para 95%, a
regio de no rejeio dada por ) / 1 ( 96 , 1 T .
Mais precisamente, uma srie rudo branco dever ter a autocorrelation function
ACF for igual zero. Em termos prticos, se todas as ACFs forem consideradas zero, ento a
srie rudo branco. Para verificar tal situao, aplica-se o teste de Ljung e Box (1978).
2.3 Redes neurais artificiais
O desenvolvimento de trabalhos sobre Redes Neurais Artificiais (RNAs) tem como
marco inicial os estudos de McCulloch e Pitts (1943). Psiclogo e neurofisiologista,
McCulloch desenvolveu diversos estudos procurando representar e modelar eventos no
sistema nervoso e em parceria com o matemtico Pitts apresentou ensaios a respeito de redes
lgicas de neurnios artificiais chamados de neurnio.
27
O foco inicial desses estudos estava direcionado na descrio de um modelo artificial
de neurnio, ou seja, uma simplificao sobre o neurnio biolgico com base no
conhecimento da poca sobre o mesmo. Posteriormente, Hebb (1949) demonstrou como o
processo de aprendizagem ocorre em redes artificiais atravs da variao de pesos de entrada
do neurnio.
Desde os pioneiros estudos de McCulloch e Pitts (1943) at meados de 1980 houve
importantes avanos em RNAs, porm grande parte do desenvolvimento foi de lento
crescimento. A lenta evoluo foi devido a maior exigncia de tempo para a soluo de
problemas no lineares.
Os problemas no lineares eram considerados difceis de aprender. Aps meados de
1980 ocorreu um rpido crescimento no interesse pelas RNAs, muito provavelmente
estimulado pelo avano da tecnologia de microcomputadores.
Para um melhor entendimento das RNAs deve-se fazer um paralelo com o
processamento que ocorre no crebro humano. O crebro humano contm aproximadamente
100 bilhes de neurnios e 100 trilhes de sinapses.
Conforme a Figura 2, neurnio a clula do sistema nervoso responsvel pela
conduo do impulso nervoso (sinal) para outros nervos ou clulas. Um neurnio recebe um
sinal atravs dos seus dendritos que so numerosos prolongamentos especializados na
recepo de estmulos nervosos. Aps o recebimento do sinal, o mesmo repassado a outra
clula atravs do axnio.
Os neurnios recebem de forma contnua impulsos de neurnios prximos ou de
outras clulas atravs das sinapses nervosas localizadas nas extremidades dos dendritos. O
contato fsico entre dendritos no ocorre, o espao entre eles chamado de fenda sinptica.
Dos axnios so liberados os neurotransmissores que atravessam a fenda sinptica e
estimulam receptores nos dendritos, ocorrendo, dessa forma, o impulso nervoso de um
neurnio para outro.
28
FIGURA 2 Representao do neurnio humano.
Fonte: Imagem de domnio pblico.
http://commons.wikimedia.org/wiki/Image:Complete_neuron_cell_diagram_pt.svg
Haykin (2001) descreve que, de forma anloga ao neurnio humano, o modelo de
neurnio artificial composto por trs elementos principais: i) elos, ii) omador e, iii) funo
de ativao.
Os elos conduzem os sinais de entrada, cada sinal x
j
(j = 1,..., n) ponderado com peso
sinptico especfico w
j
. Como pode ser observado na Figura 3, o conjunto de sinais de entrada
ponderados por pesos sinpticos combinado e, dependendo das aes inibidoras ou
excitatrias de cada sinapse, poder disparar uma sada de sinal. O sinal de sada do neurnio
limitado a valores finitos por uma funo de ativao linear ou no linear.
FIGURA 3 Representao do neurnio artificial.
Fonte: Adaptado de Haykin (2001).
n
j
x
x
M
j
w
n
w
M
0
( )
j
x f
y
Sinais de Pesos Soma Funo de ativao Sada
entrada sinpticos ponderada no linear
29
Analisando-se a Figura 3, pode-se constatar que uma RNA um conjunto de
neurnios artificiais. Um neurnio artificial uma forma simplificada de representao
matemtica de um neurnio biolgico e, por sua vez, neurnio biolgico entendido como
unidades elementares de processamento de informaes (sinais) em qualquer organismo vivo.
Sem nenhuma pretenso de validade neurofisiolgica, pode-se descrever o funcionamento do
neurnio artificial da seguinte maneira:
1 Neurnios so unidades elementares na qual ocorre o processamento da
informao;
2 A entrada de informao ocorre atravs de sinais que so transmitidos at os
neurnios por meio de conexes, as quais tm a propriedade de ponderar os sinais
ao transmiti-los;
3 Em cada neurnio ocorre o processamento interno onde atua uma funo de
ativao (geralmente no linear) ponderando e transformando os sinais em sada.
Haykin (2001) enfatiza que em cada neurnio artificial, representado na Figura 3, est
presente uma constante (
0
) que tem por objetivo aumentar (se de sinal positivo) ou diminuir
(se de sinal negativo) o valor da funo de ativao. Essa constante, geralmente,
referenciada como bias. Na RNA a funo de ativao ( )
j
x f a responsvel pelo
processamento de informaes e pela gerao de uma sada do neurnio. As RNAs,
geralmente se utilizam de funes de ativao no lineares. As funes de ativao no
lineares distribuem a no lineariedade em paralelo e se comunicam por meio de conexes
sinpticas. As funes de ativao mais utilizadas so as do tipo sigmide.
A funo sigmide mais amplamente utilizada como funo de ativao em RNAs a
funo logstica ( ) [ ] Exp f + = 1 / 1 sendo
=
+ =
n
i
i i
w x
1
0
, onde
i
x so as variveis de
entrada e
i
w as ponderaes da funo de ativao com i = 1,..., n. A sada gerada pela funo
de ativao vai oscilar de forma contnua no intervalo entre 0 e 1. Sendo desejvel que a
funo de ativao estenda a sada entre valores no intervalo de -1 a 1, deve-se utilizar a
funo tangente hiperblica definida por ) tanh(
i
x f = .
Haykin (2001) enfatiza que uma RNA um sistema de processamento de informao
em paralelo e, semelhante ao crebro humano, trabalha com processos no lineares de
30
natureza complexa. A partir da forma como a RNA estruturada e operacionalizada pode-se
destacar dois aspectos bsicos de semelhana ao crebro humano: i) A RNA adquire
conhecimento num exaustivo processo de treinamento-aprendizagem atravs de anlises de
variveis em seu ambiente e, ii) O conhecimento adquirido fica armazenado nos neurnios
artificiais na forma de pesos sinpticos que so formados do relacionamento entre os
neurnios e as informaes de entrada.
Braga, Carvalho e Ludermir (2007) destacam que uma das caractersticas mais
importantes das RNAs a sua capacidade de aprender por meio de exemplos. Nesse contexto,
tem-se que o conhecimento adquirido atravs do relacionamento entre neurnios que,
paralelamente, ajustam importncia de certas informaes atravs de conexes sinpticas. O
ajuste das conexes ocorre em vista a melhorar o desempenho da rede conforme algum
critrio pr-estabelecido. A raiz do erro quadrtico mdio (REQM) fornecido pela RNA no
processo de treinamento frente a um conjunto de dados um exemplo de um critrio de
desempenho a ser melhorado, gerando, com isso, aprendizagem.
2.3.1 Arquitetura de rede
A arquitetura da rede neural artificial diz respeito a forma como so estruturados os
neurnios nas camadas intermedirias, ligando os valores de entrada (x) com os valores de
sada (y). Haykin (2001) classifica as arquiteturas de rede em trs diferentes tipos: i) redes
alimentadas adiante com camada nica, ii) rede alimentadas adiante com mltiplas camadas e,
iii) redes recorrentes.
2.3.1.1 Redes neurais alimentadas adiante com camada nica
Um exemplo da arquitetura de uma RNA alimentada adiante de camada nica
apresentado na Figura 4, onde so ilustrados dois neurnios na camada intermediria unindo
os valores de entrada aos valores de sada.
O modelo representado pela Figura 4 dado pela formulao [15].
t t t t t t
x x g x x g x f + + + + + + + = ) ( ) ( ) , (
2 22 1 21 20 2 2 12 1 11 10 1 0
. [15]
31
Em [15], x
t
o vetor representativo dos valores de entrada x
1t
, x
2t
(t = 1,..., n);
22 21 20 12 11 10
, , , , , so os coeficientes da primeira e da segunda funo de ativao,
2 1 0
, , so o intercepto e os coeficientes de inclinao.
FIGURA 4 RNA feedforward (2:2:1).
Este exemplo demonstra como uma simples RNA feedforward pode ser vista como um
flexvel modelo de regresso no linear, facilmente estimado com ferramentas de otimizao
padro.
2.3.1.2 Redes neurais alimentadas adiante com mltiplas camadas
Como alternativa para modelagem de problemas mais complicados, tem-se as RNAs
feedforward com duas ou mais camadas intermedirias. Haykin (2001) descreve que o fato de
adicionar mais camadas ocultas, torna a rede capaz de extrair estatsticas de ordem mais
elevada. A Figura 5 apresenta uma RNA feedforward com duas camadas intermedirias.
FIGURA 5 RNA feedforward (2:2:2:1).
1
y
X
1
X
2
Camada de Camada Camada de
Entrada Intermediria Sada
1
y
X
1
X
2
Camada de 1 Camada 2 Camada Camada de
Entrada Intermediria Intermediria Sada
32
O modelo de RNA alimentada adiante com mltiplas camadas intermedirias dado
pelas formulaes [16, 17].
t
q
i
t i i t
h s y +
|
|
\
|
+ =
=1
, 0
, [16]
|
|
\
|
+ =
=
n
j
j i ij i t i
x g h
1
, 0 ,
, [17]
onde s e g so conhecidos como funes de ativao e
t
o termo de erro com ) , 0 (
2
,
representa os parmetros a serem estimados seguindo um critrio de ajuste especificado.
2.3.1.3 Redes recorrentes
Genay, Seluk e Whicher (2002) destacam que a literatura de RNAs tem sido
dominada pelos modelos feedforward. Uma rede recorrente se distingue de uma rede
feedforward pela presena de no mnimo uma conexo de feedback. Uma tpica representao
de rede recorrente ilustrada na Figura 6.
FIGURA 6 RNA recorrente (2:2:1).
1
y
X
1
X
2
Camada de Camada Camada de
Entrada Intermediria Sada
t-k
feedback
33
O modelo recorrente descrito pelas formulaes [18, 19].
t
q
i
t i i t
h s y +
|
|
\
|
+ =
=1
, 0
, [18]
|
|
\
|
+ + =
= =
n
j
k
p
p t p i j i ij i t i
x g h
1 1
, , 0 ,
. [19]
Onde
p t
o componente de feedback do tempo t-p. Agora, a melhoria temporal do
output pode ser expresa por . ) , , , (
, 2 , 1 t p t t t t
x x f y + =
Modelos de RNAs recorrentes
tambm podem ser vistos como modelos no lineares autoregressivos de mdias mveis
NARMA(p, q).
O presente captulo focou sobre os aspectos tericos bsicos relativos previsibilidade
no mercado financeiro, sries temporais e redes neurais. A seguir ser realizado um
detalhamento dos aspectos metodolgicos que nortearam o estudo.
34
3 ASPECTOS METODOLGICOS
3.1 Amostra e dados
Os dados considerados para o desenvolvimento desse estudo abrangem o perodo de
23/01/2006 at 18/04/2008. Os valores so relativos freqncia temporal diria e esto em
moeda local. Os preos considerados referente carteira terica da Bovespa so relativos ao
fechamento do dia. Para o nmero de negcios e volume financeiro, foi considerada a
totalizao diria.
9.40
9.60
9.80
10.00
10.20
10.40
10.60
10.80
11.00
11.20
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o
d
o
p
r
e
o
(
p
a
d
r
o
1
0
)
FIGURA 7 Srie temporal dos preos da carteira terica da Bovespa
35
0.00
2.00
4.00
6.00
8.00
10.00
12.00
14.00
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o
d
o
n
m
e
r
o
d
e
n
e
g
c
i
o
s
(
p
a
d
r
o
1
0
)
FIGURA 8 Srie temporal do nmero de negcios
0.00
2.00
4.00
6.00
8.00
10.00
12.00
14.00
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751 801
Observaes
l
o
g
a
r
i
t
m
o
d
o
v
o
l
u
m
e
f
i
n
a
n
c
e
i
r
o
(
p
a
d
r
o
1
0
)
FIGURA 9 Srie temporal do volume financeiro
A taxa de retorno foi calculada pela diferena do logaritmo do preo de fechamento do
ndice conforme a seguinte equao:
36
) ln( ) ln(
1 , , ,
=
t i t i t i
P P r , [20]
onde
t i
r
,
o retorno do ndice i no tempo t,
t i
P
,
e
1 , t i
P so os preos de fechamento no tempo
t e no perodo imediatamente anterior. Para o clculo foram considerados os ajustes relativos a
dividendos, bonificaes e outros ocorridos no perodo. Procedimento semelhante foi adotado
para a variao do nmero de negcio e variao do volume financeiro.
Procurando melhorar o processo de ajuste pelo mtodo dos mnimos quadrados no
linear, as variveis (retorno, variao do nmero de negcios e variao no volume
financeiro) foram padronizadas no intervalo [0,1]. A padronizao no afeta as caractersticas
dos dados e torna bem mais rpido a obteno de uma soluo computacional. A
padronizao adotada foi obtida pela aplicao da frmula:
)] min( ) [max( )] min( [
,
*
, i i i t i t i
r r r r r = . [21]
onde
*
,t i
r a varivel padronizada, ) min(
i
r o valor mnimo e ) max(
i
r o valor mximo da
srie temporal das variveis.
3.2 Modelagem
As formulaes [21, 22 e 23] detalham, de maneira genrica, o modelo de RNAs
utilizada para identificar a influncia das variveis nmeros de negcios e volume financeiro
na previsibilidade do retorno do Ibovespa.
1
3
1
0
1 ) , , (
=
(
\
|
+ + =
k
k k
g Exp x RNA ; [21]
1
3
1
, 0 ,
1 ) (
=
(
\
|
+ + =
k
kj j k j k k
f Exp f g , para j = 1, 2, 3; [22]
37
1
, ,
1
0
1 ) (
=
(
|
|
\
|
+ + =
p s r
k
ij ij ij j
x Exp x f , para j = 1, 2, 3; e r = 5, s = 10 e p = 15. [23]
No primeiro modelo de RNA, composto pela combinao das formulaes [21, 22,
23], ser considerado como relevantes para a previsibilidade do retorno do Ibovespa apenas
suas informaes defasadas em at (t-5). Nesse caso, h cinco variveis de entrada na RNA.
Na primeira e na segunda camada intermediria sero utilizadas trs funes
sigmides escolhidas de forma arbitrria.
O procedimento de duas camadas intermedirias com trs funes sigmides ser
utilizado nos trs modelos de RNA com objetivo de facilitar a comparao de desempenho
pela raiz do erro quadrtico mdio.
A Figura 10 ilustra as RNAs a serem aplicadas.
FIGURA 10 Estrutura das RNAs a serem aplicadas.
No segundo modelo so considerados informaes defasadas em at (t-5) das
variaes do nmero de negcios alm das variveis do primeiro modelo. No terceiro modelo
so acrescidas informaes defasadas do volume financeiro em at (t-5) alm das variveis do
segundo modelo, totalizando 15 variveis de entrada.
1
y
X
1
X
...
Camada de 1 Camada 2 Camada Camada de
Entrada Intermediria Intermediria Sada
X
r,s,p
38
3.3 Treinamento e teste
Aps a padronizao dos dados de entrada, o processo de aplicao da RNA envolve
mais dois estgios: i) treinamento e, ii) teste. O treinamento um procedimento no qual a rede
vai aprender as relaes que governam a variao dos dados de sada. No treinamento, os
coeficientes (pesos) da rede so modificados de forma a minimizar a raiz do erro quadrtico
mdio entre os valores de sada observados e os estimados dos primeiros 758 valores.
Na prtica no se pode determinar se um modelo bom ou no com base em apenas
uma realizao. Portanto, na fase de teste, um conjunto de dados separados, composto de 50
valores, no utilizados pela rede na fase de treinamento ser considerado para avaliar o
desempenho levando-se em considerao os coeficientes estimados.
Na fase de teste, a rede ser avaliada com base nos valores da raiz do erro quadrtico
mdio que so gerados do confronto entre os 50 valores realizados e suas estimativas. A raiz
do erro quadrtico mdio definida pela formulao [23].
=
=
T
t
t t
y y
T
REQM
1
2
) (
1
. [23]
Em [23] T o nmero total de observaes,
t
y (t = 1, ..., T) so os valores observados
e
t
y os valores estimados pela rede neural artificial. Um modelo ser melhor do que outro
quando o seu REQM for menor.
3.4 Software
O software utilizado foi o software denominado de R. O software R uma linguagem e
ambiente para computao estatstica e grfica. R fornece uma ampla variedade de estatsticas
tais como modelagem linear e no-linear, testes estatsticos clssicos, anlise de sries
temporais, clustering, anlise multivariada, redes neurais entre outras.
O R disponibilizado como software livre sob os termos da Free Software
Foundations GNU (General Public License) em forma de cdigo fonte. A operacionalidade
od R se concretiza atravs de pequenos pacotes. Atualmente, janeiro de 2009, h
39
aproximadamente 1.600 pacotes disponveis para serem livremente utilizados no R. O pacote
especfico utilizado no presente estudo foi o AMORE verso 0.29. AMORE um sistema de
redes neural artificial altamente flexvel. O pacote permite formar uma rede fedforward
multicamadas com um mnimo de programao. A programao elaborado para os trs
modelos analisados encontra-se nos Anexos A, B e C .
40
4 RESULTADOS OBTIDOS
Inicialmente so apresentados, na Tabela 1, os valores das estatsticas descritivas para
as trs sries de dados. Na primeira coluna de valores tem-se as estatsticas relativas a varivel
retorno (diferena do logaritmo do preo), na segunda coluna as estatsticas da variao do
nmero de negcio (diferena do logaritmo do nmero de negcios) e na ltima coluna as
estatsticas da variao do volume financeiro (diferena do logaritmo do volume financeiro).
Tabela 1 Estatsticas descritivas das variveis
Estatsticas Retorno Negcio Volume
Perodo de treinamento
Mdia 0.0012 0.0019 0.0017
Mediana 0.0019 -0.0138 -0.0127
Desvio padro 0.0166 0.2826 0.2922
Excesso de Curtose 0.9062 1.7226 1.4501
Assimetria -0.3204 0.1465 0.1198
Mnimo -0.0686 -0.9973 -1.2242
Mximo 0.0578 1.0854 1.2757
Observaes 758 758 758
Perodo de teste
Mdia 0.0019 0.0019 0.0044
Mediana 0.0029 -0.0023 -0.0112
Desvio padro 0.0180 0.2123 0.2115
Excesso de Curtose 0.6792 0.3066 0.1031
Assimetria -0.5447 0.3978 0.4197
Mnimo -0.0514 -0.4675 -0.3931
Mximo 0.0387 0.5287 0.5809
Observaes 50 50 50
Observa-se na parte superior da Tabela 1, que a srie de retorno se caracteriza com
excesso de curtose o que lhe confere uma aparncia da curva de distribuio de freqncia
mais elevada e caudas mais longas que a de uma distribuio normal. A assimetria negativa
caracterizada pela mediana maior que a mdia induz a possibilidade de uma maior ocorrncia
41
de valores extremos negativos. De uma forma geral, para todas as variveis, as caractersticas
do perodo de treinamento so semelhantes aos do perodo de teste.
Os resultados obtidos atravs da aplicao dos trs modelos de RNAs so
apresentados a seguir. O primeiro modelo procurou o melhor ajuste s variaes do Ibovespa
considerando apenas seus valores defasados (t-1,..., t-5) como sendo relevantes. O segundo
modelo acrescenta as informaes defasadas (t-1,..., t-5) do nmero de negcios. Por fim, o
terceiro modelo acrescenta as informaes defasadas (t-1,..., t-5) do volume financeiro.
4.1 Modelo com informaes sobre os retornos
Os resultados da RNA que considera apenas as informaes defasadas dos retornos
so apresentados na Tabela 2 e ilustrada na Figura 11. Deve-se salientar que os resultados da
Tabela 2, so relativos ao perodo de treinamento da RNA, ou seja, o perodo utilizado como
amostra para que a rede aprenda os padres e possa, posteriormente, realizar a previso. Na
fase de treinamento foram consideradas as primeiras 758 observaes e, aps, foram
realizadas 50 previses fora da amostra.
Tabela 2 Pesos sinpticos da RNA (5:3:3:1)
F1 F2 F3 G1 G2 G3 K1
Bias -0,1099 0,0230 -0,0503
1 t
r
-0,0134 -0,1340 0,0096
2 t
r
-0,1448 0,2966 -0,1785
3 t
r
0,1949 0,1129 0,2635
4 t
r
0,1710 -0,0507 -0,2114
5 t
r
0,0510 0,0913 0,1084
Bias -0,0175 -0,0499 0,2161
F1 0,0007 -0,0242 -0,0472
F2 0,1441 0,2517 0,0434
F3 0,1442 -0,1949 -0,0739
Bias 0,1418
G1 0,0866
G2 -0,1631
G3 0,1180
Os valores relativos a F1, F2 e F3 so da primeira camada intermediria;
Os valores relativos G1, G2 e G3 so da segunda camada intermediria.
42
A Figura 11 ilustra o desempenho da RNA (5:3:3:1) onde fica evidente as ligaes
entre os valores de entrada (imputs) com a primeira camadas intermediria, essa com a
segunda camada intermediria e, por fim com os valores de sada (outputs).
FIGURA 11 Estrutura da RNA com 5 variveis de entrada.
Tabela 3 Resultados da RNA (5:3:3:1)
Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1264 0,1422
Correlao linear
(p-valor)
0,2674
(0,000)
0,0996
(0,4914)
R
2
ajustado 0,0690 -0,0322
Teste de Ljung-Box
(p-valor)
4,6143
(0,9154)
Teste de Jarque-Bera
(p-valor)
46,3010
(0,000)
Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.
output
43
Na Tabela 3, tem-se algumas estatsticas para anlise do desempenho da RNA
(5:3:3:1), tanto na fase de treinamento quanto na fase de previso. Na fase de treinamento, a
raiz do erro quadrtico mdio foi de 0,1264 com uma correlao linear significativa de
0,2674. Esses valores garantiram um coeficiente de determinao ajustado de 6,9%. O resduo
da rede se mostra sem dependncia serial, porm distinto dos padres de uma distribuio
normal.
A Figura 12 apresenta um diagnstico visual da RNA (5:3:3:1), atravs da anlise
visual constata-se que os valores estimados do retorno do Ibovespa no perodo de treinamento
ficam bem concentrados em torno da mdia, identificando poucos perodos de instabilidade.
Isto, de certa forma, subestima o risco de mercado.
retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
5
0
.
7
0
.
9
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos
-0.6 -0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0
FIGURA 12 Treinamento da RNA(5:3:3:1).
A funo de autocorrelao dos resduos ACF e o histograma de freqncia
evidenciam uma srie no autocorrelacionada, mas distinta dos padres de uma distribuio
normal.
44
4.2 Modelo com informaes sobre os retornos e nmero de negcios
Os resultados da RNA que considera informaes defasadas dos retornos e do nmero
de negcios so apresentados na Tabela 4. Sua estrutura ilustrada na Figura 13. Nesse
modelo foram consideradas 10 variveis de entrada com trs funes sigmides de ativao
na primeira camada intermediria e trs funes sigmides de ativao na segunda camada
intermediria.
Tabela 4 Pesos sinpticos da RNA (10:3:3:1)
F1 F2 F3 G1 G2 G3 K1
Bias -0,0798 -0,1208 0,1359
1 t
r
-0,1663 0,1310 -0,1654
2 t
r
-0,1912 0,1735 0,0077
3 t
r
0,2463 -0,2443 0,1031
4 t
r
-0,0668 0,0469 -0,0239
5 t
r
-0,2081 0,0113 -0,1320
1 t
neg
-0,0880 -0,0046 -0,2108
2 t
neg
-0,0497 0,1901 -0,0720
3 t
neg
-0,1623 -0,1818 -0,0777
4 t
neg
-0,0346 -0,0294 0,0357
5 t
neg
0,1611 -0,0690 0,0496
Bias -0,0191 -0,1155 0,0798
F1 -0,1238 -0,1323 0,2421
F2 -0,1387 0,2220 -0,1153
F3 -0,2372 -0,2258 -0,0150
Bias -0,1313
G1 -0,0921
G2 0,1706
G3 0,2169
Os valores relativos a F1, F2 e F3 so da primeira camada intermediria;
Os valores relativos G1, G2 e G3 so da segunda camada intermediria.
45
FIGURA 13 Estrutura da RNA com 10 variveis de entrada (10:3:3:1).
Na Tabela 5, tem-se os resultados da RNA (10:3:3:1). Na fase de treinamento o erro
quadrtico mdio de 0,1192 aumentando para 0,1449 na fase de previso fora da amostra. A
correlao linear de 0,4167 passa a ser negativa na ordem de -0,0791. O coeficiente de
determinao, de 0,1715 na fase de treinamento passa para -0,0360 na fase de previso.
output
46
Nesse ponto importante destacar que a incluso de um maior nmero de variveis de
entrada (informaes sobre as variaes do nmero de negcios) torna possvel uma reduo
do critrio de ajuste (raiz do erro quadrtico mdio) e um aumento do coeficiente de
correlao linear e coeficiente de determinao ajustado em relao do modelo que utiliza
apenas informao dos retornos passados.
Poder-se-ia pensar que essa melhora significa um ganho de previsibilidade, mas no o
. Fica evidente que, tanto o a raiz do erro quadrtico mdio quanto correlao linear e o
coeficiente de determinao no conseguem manter o bom desempenho na fase de teste
(previso). O diagnstico visual do modelo da RNA (10:3:3:1) ilustrado na Figura 14.
Tabela 5 Resultados da RNA (10:3:3:1)
Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1192 0,1449
Correlao linear
(p-valor)
0,4167
(0,000)
0,0791
(0,5849)
R
2
ajustado 0,1715 -0,0360
Teste de Ljung-Box
(p-valor)
8,0310
(0,6258)
Teste de Jarque-Bera
(p-valor)
32,2480
(0,000)
Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.
Em termos ilustrativos, a Figura 14 permite uma anlise visual da RNA (10:3:3:1).
Pode-se constatar que a srie estimada de retorno do Ibovespa apresenta-se com maior
oscilao torno da mdia se comparado com a estimativa da RNA (5:3:3:1).
Com uma maior disperso, tem-se uma expectativa mais realista do risco associado ao
mercado financeiro. A funo de autocorrelao dos resduos (ACF) identifica um
comportamento no autocorrelacionado serialmente. O histograma de freqncia identifica
um comportamento mais prximode um formato de sino, porm ainda muito distinto dos
padres de uma curva normal.
47
retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
2
0
.
4
0
.
6
0
.
8
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos
-0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0
FIGURA 14 Treinamento da RNA (10:3:3:1).
At o momento, pode-se destacar que acrescentando informaes sobre o nmero de
negcios tem-se um ajuste mais preciso na fase de treinamento, mas que no se mantm na
fase de teste.
4.3 Modelo com informaes sobre os retornos, nmero de negcios e volume
financeiro
O terceiro modelo de RNA aplicado envolve a utilizao de informaes defasadas do
retorno, variao do nmero de negcios e variao do volume financeiro como variveis
explanatrias das variaes do Ibovespa. Os resultados dos pesos sinpticos so apresentados
na Tabela 6.
48
Tabela 6 Pesos sinpticos da RNA (15:3:3:1)
F1 F2 F3 G1 G2 G3 K1
Bias -0,0860 -0,0963 -0,0365
1 t
r
0,1001 0,1433 -0,0789
2 t
r
-0,1978 -0,0921 0,1854
3 t
r
0,1219 -0,0941 0,1741
4 t
r
0,0544 -0,0940 -0,0706
5 t
r
0,1435 -0,0551 -0,1235
1 t
neg
-0,0793 -0,0561 0,0865
2 t
neg
-0,0563 -0,0690 0,1398
3 t
neg
0,0710 0,0360 0,0914
4 t
neg
-0,2018 -0,0860 -0,1555
5 t
neg
0,1833 0,1404 0,0387
1 t
vol
0,1743 0,0441 0,0671
2 t
vol
-0,0295 -0,0558 -0,1354
3 t
vol
-0,1578 0,1277 0,2006
4 t
vol
0,1847 0,1564 -0,0752
5 t
vol
0,0302 0,0808 0,2000
Bias 0,0243 -0,2155 -0,0089
F1 -0,0092 0,0988 -0,0757
F2 0,1521 -0,1961 -0,1492
F3 0,1169 -0,0559 -0,1238
Bias 0,1136
G1 -0,0767
G2 -0,0700
G3 -0,0095
A estrutura da RNA estimada com 15 variveis de entrada, trs neurnios na primeira
camada intermediria e outros trs na segunda camanda intermediria ilustrada na Figura
15.
Na Tabela 7, tem-se os resultados da RNA (15:3:3:1) ajustada. A fase de treinamento
da RNA que considerou 15 variveis de entrada possibilitou a obteno de valores mais
ajustados do que os modelos anteriores. A raiz o erro quadrtico mdio foi reduzido para
0,1139. A correlao linear aumentou para 0,4992 e o coeficiente de determinao ajustado
indica que o modelo treinado prediz 24,30% das variaes do Ibovespa.
49
FIGURA 15 Estrutura da RNA com 15 variveis de entrada (15:3:3:1).
output
50
Tabela 7 Resultados da RNA(15:3:3:1)
Fase Estatsticas
Treinamento Previso
Erro quadrtico mdio (raiz) 0,1139 0,1432
Correlao linear
(p-valor)
0,4992
(0,000)
0,1660
(0,2475)
R
2
ajustado 0,2430 -0,0136
Teste de Ljung-Box
(p-valor)
10,4159
(0,4048)
Teste de Jarque-Bera
(p-valor)
50,0790
(0,000)
Treinamento = primeiras 758 observaes;
Previso = 50 valores estimados aps o perodo de treinamento.
Em termos de mercado financeiro, os valores obtidos pela RNA (15:3:3:1) podem ser
considerados de boa performance. Porm, o modelo ajustado no consegue manter sua
qualidade na fase de previso. Dessa forma, parece que a boa qualidade do ajuste do modelo
no garantia de igual qualidade na fase de previso. A Figura 16 permite um diagnstico
visual desse ajuste.
retorno
observaes
0 200 400 600
0
.
0
0
.
4
0
.
8
estimado
observaes
0 200 400 600
0
.
2
0
.
4
0
.
6
0
.
8
0 5 10 15 20 25
-
0
.
0
5
0
.
0
0
0
.
0
5
defasagens
ACF dos resduos
Histograma dos resduos
resduos
-0.6 -0.4 -0.2 0.0 0.2 0.4
0
5
0
1
5
0
2
5
0
FIGURA 16 Treinamento da RNA (15:3:3:1).
51
Observando-se a srie estimada pela RNA (15:3:3:1) pode-se perceber que ela
apresenta uma oscilao maior em torno da mdia do que as estimativas dos modelos
anteriores. Dessa forma tem-se uma noo ainda mais realista do risco de mercado. Como nos
modelos anteriores, a funo de autocorrelao dos resduos e seu histograma, tambm
identificam resduos no autocorrelacionados e distribudos de forma distinta de uma
distribuio normal.
Analisando os resultados da aplicao dos trs modelos de Redes Neurais Artificiais,
pode-se constatar que com o aumento do nmero de variveis de entrada, ou seja,
considerando dados sobre o nmero de negcios alm dos dados sobre as variaes de preos,
possvel melhorar o ajuste no perodo de treinamento.
Esse ajuste fica ainda melhor com acrscimo de dados sobre o volume financeiro, a
raiz do erro quadrtico mdio diminui e a correlao linear aumenta. Porm, a melhoria na
fase de treinamento no se mantm na fase de previso, indicando, dessa forma, que dados
sobre o nmero de negcios e volume financeiro no so relevantes para a previso das
variaes de preo do Ibovespa.
52
5 CONCLUSO
Este estudo foi desenvolvido com o objetivo de verificar a utilidade de se considerar
informaes sobre o nmero de negcios e o volume financeiro negociado em bolsa como
variveis explanatrias das variaes do Ibovespa. O que se est procurando tentar melhorar
um modelo de previso que se utiliza apenas dos dados das variaes de preos passados para
fornecer uma estimativa de variaes de preo no futuro. A investigao baseada na
aplicao da metodologia de Redes Neurais Artificiais com duas camadas intermedirias e
com funes de ativao sigmides.
So construdos trs modelos de redes neurais artificiais. Os modelos so estruturados
com duas camadas intermedirias. No primeiro modelo so utilizados apenas os dados sobre
as variaes nos preos dos ltimos cinco dias. No segundo modelo so acrescidas ao
primeiro modelos dados dos ltimos cinco dias do nmero de negcios realizados. No terceiro
modelo so acrescidos ao segundo modelo dados dos ltimos cinco dias do volume financeiro
movimentado pelos negcios na bolsa.
Aps o treinamento dos trs modelos, procedeu-se o clculo da raiz do erro quadrtico
mdio, coeficiente de determinao ajustado e grau de correlao. Tambm foram calculados
o teste de Ljung-Box e Jarque-Bera a fim de verificar se os modelos foram ajustados
adequadamente. Todos os testes aplicados identificaram que os resduos dos modelos no se
apresentaram como uma distribuio normal, mas no apresentaram dependncia, assim
podem ser considerado como sendo rudo branco.
Conclui-se que o terceiro modelo, a RNA que considerou informaes sobre o
nmero de ttulos e o volume financeiro negociado na bolsa de valores alm de informaes
sobre as variaes de preo, fornece um ajuste melhor do que o modelo que considera apenas
informaes de retornos passados. Essa afirmao valida para o perodo de treinamento.
Porm, na fase de previso a RNA que melhor se ajustou a srie do Ibovespa na fase
de treinamento no consegui manter as suas propriedades, oferecendo uma melhor estimativa,
ou seja, as propriedades de ajustes se deterioram no perodo fora da amostra.
53
Dessa forma, pode-se afirmar que as informaes defasadas sobre nmero de ttulos e
volume financeiro negociado em at cinco dias no so teis para previso de futuro
comportamento das oscilaes do mercado financeiro.
Esses resultados vm corroborar com a hiptese de eficincia na forma fraca do
mercado financeiro, ou seja, informaes passadas sobre preos so inteis para modelos de
previsibilidade com objetivos de ganhos anormais, visto que os preos j refletem totalmente
as informaes disponveis.
54
REFERNCIAS BIBLIOGRFICAS
BACHELIER, L. Theory of speculation (1900). In COOTNER, P. The random character of
stock market prices. Cambridge: MIT Press, pag. 17-78, 1964.
BOX, G. E. P.; PIERCE, D. A. Distributions of residual autocorrelations in autoregressive
integrated moving average models. Journal of the Americam Statistics Association, v. 65, p.
1509-1526, 1970.
BRAGA, A. P.; CARVALHO, A. P. L.; LUDERMIR, T. B. Redes neurais artificiais. Rio de
Janeiro: LTC, 2007.
BROOKS, C. Introductory econometrics for finance. Cambridge, 2008
CERETTA, P. S.; COSTA, JR., N. C. A. Caminho aleatrio: reviso, sntese e novos
resultados nos mercados de capitais da Amrica Latina. Revista de Administrao (RA-USP),
Vol. 37, n. 3, 2002.
FAMA, E. F.; FRENCH, K. R. Permanent and temporary components of stock prices.
Journal of Political Economics, Vol, 96, n. 2, pag. 246-273, 1988.
FRANSES, P. H.; DIJK, D. V. Non-linear time series models in empirical finance. New
York: Cambridge University Press, 2003.
GENAY, B.; SELUK, F.; WHITCHER, B. An introduction to wavelets and other filtering
methods in finance and economics. California: Elsevier, 2002.
HAYKIN, S. Redes neurais: princpios e prticas. Porto Alegre: Bookman, 2001.
HEBB, D. O. The organization of behavior. Wiley, 1949.
KAMRUZZAMAN, J.; BEGG, R.; SARKER, R. Artificial neural networks in finance and
55
manufacturing. London: Idea Group Publishing, 2006.
KENDALL, L. Theory analysis of economic time series Part I: Prices (1953). In
COOTNER, P. The random character of stock market prices. Cambridge: MIT Press, pag.
85-99, 1964.
KIRCHGASSNER, G.; WOLTERS, J. Introduction to modern time series analysis. Springer,
2008.
KUAN, C. M.; WHITE, H. Artificial networks: an econometric perspective (with
discussion). Econometric Reviews, Vol.13, p. 1-143, 1994.
LATHI, B. P. Sinais e sistemas lineares. Porto Alegre: Bookman, 2007.
LJUNG, G. M.; BOX, G. E. P. On a measure of lack of fit in time series models. Biometrika,
v. 65(2), p. 297-303, 1978.
LO, A. W.; MACKINLAY, c. Stock market prices do not follow random walks: evidence
from a simple specification test. Review of Financial Studies, Vol. 1, n. 1, pag. 41-46, 1988.
MCCULLOCH, W.S.; PITTS, W. A logical calculus of the ideas immanent in nervous
activity. Bulletin of Mathematical Biophisycs, v. 5, p. 115-133, 1943.
McNELIS, P. D. Neural networks in finance. California: Elsevier Academic Press, 2005.
MILLS, T. C. The econometric modeling of financial time series. New york: Cambridge
University Press, 1999.
OLIVEIRA, M. A.; MONTINI, A. A.; BERGMANN, D. R. Previso de retornos de aes
de empresas dos setores financeiro, alimentos, industrial e de servios por meio de Redes
Neurais e modelos ARIMA-GARCH. Anais do Enanpad 2007. XXX Encontro da ANPAD.
Rio de Janeiro, 2007.
POTERBA, J.; SUMMER, L. Mean reversion in stock prices: evidences and implications.
Journal of Financial Economics, Vol. 22, pag. 27-59, 1988.
QI, M. Financial applications of artificial neural networks. In MADDALA, G. S.; RAO, C.
D. Handbook of statistics. Vol. 14: Statistical methods in finance. Amsterdam: Elsevier
56
Science, p. 529-552, 1996.
SAMUELSON, P. A. Proof that property anticipated prices fluctuate randomly. Industrial
Management Review, Vol. 6, pag. 41-49, 1965.
ZHANG, G. P. Neural networks in business forecasting. London: Idea Group Publishing,
2004.
57
ANEXO A
Programao do modelo RNA com cinco variveis de entrada
58
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6]),758, 5) # Imput treino
imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6]),50, 5) # Imput fora da amostra
net <- newff(n.neurons=c(5,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias
59
ANEXO B
Programao do modelo RNA com dez variveis de entrada
60
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6],
da[,7],da[,8],da[,9],da[,10],da[,11]),758, 10) # Imput treino
imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6],
daf[,7],daf[,8],daf[,9],daf[,10],daf[,11]),50, 10) # Imput fora da amostra
net <- newff(n.neurons=c(10,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias
61
ANEXO C
Programao do modelo RNA com quinze variveis de entrada
62
setwd("F:/Monografia")
da=read.table("todosMONO.txt")
daf=read.table("todosforaMONO.txt")
library(AMORE)
target =da [,1] # y treinamento
targetf=daf[,1] # y fora da amostra
imput <- matrix(c(da[,2],da[,3],da[,4],da[,5],da[,6],
da[,7],da[,8],da[,9],da[,10],da[,11],
da[,12],da[,13],da[,14],da[,15],da[,16]),758, 15) # Imput treino
imputf <- matrix(c(daf[,2],daf[,3],daf[,4],daf[,5],daf[,6],
daf[,7],daf[,8],daf[,9],daf[,10],daf[,11],
daf[,12],daf[,13],daf[,14],daf[,15],daf[,16]),50, 15) # Imput fora da amostra
net <- newff(n.neurons=c(15,3,3,1),
learning.rate.global=1e-2, # Modelo
momentum.global=0.5,
error.criterium="LMS",
Stao=NA,
hidden.layer="sigmoid",
output.layer="sigmoid",
method="ADAPTgdwm")
result <- train(net, imput, target, error.criterium="LMS",
report=TRUE, show.step=1000, n.shows=1000)
treino <- sim(result$net, imput)
graphviz.MLPnet(net, 2)
eqm1=(mean((target-treino)^2))
reqm1=eqm1^0.5
reqm1
fora <- sim(result$net, imputf)
eqm2=(mean((targetf-fora)^2))
reqm2=eqm2^0.5
reqm2
cor.test(treino,target)
cor.test(fora,targetf)
r2ajustado=1-(((758-1)/(758-3))*(1-cor(treino, target)^2))
r2ajustado
r2ajustadof=1-(((50-1)/(50-3))*(1-cor(fora, targetf)^2))
r2ajustadof
Box.test((target-treino), lag=10, type="Ljung")
jbTest(target-treino)
par(mfrow=c(2,2))
plot.ts(target, main="retorno", xlab="observaes ",ylab="")
plot.ts(treino, main="estimado", xlab="observaes", ylab="")
acf(target-treino, main="ACF dos resduos", xlab="defasagens",ylab="")
hist(target-treino,main="Histograma dos resduos",xlab="resduos", ylab=" ")
net$neurons[[1]]$weight # Pesos
net$neurons[[2]]$weight
net$neurons[[3]]$weight
net$neurons[[4]]$weight
net$neurons[[5]]$weight
net$neurons[[6]]$weight
net$neurons[[7]]$weight
net$neurons[[1]]$bias # Constante
net$neurons[[2]]$bias
net$neurons[[3]]$bias
net$neurons[[4]]$bias
net$neurons[[5]]$bias
net$neurons[[6]]$bias
net$neurons[[7]]$bias