Escolar Documentos
Profissional Documentos
Cultura Documentos
Utilização de redes
neurais na
precificação de
opções
Sander Oliveira de Freitas
Antônio Artur de Souza
Hutchinson et al. (1994) Utilizaram redes neurais na precificação e no hedge de opções sobre futuro de índice
S&P 500, entre 1987 e 1991.
Lajbcygier et al. (1996) Aplicando-se ao mercado australiano de derivativos, compararam o modelo de
Hutchinson et al. (1994) com um de quatro parâmetros de entrada: S/X, T, r e σ.
Garcia e Gençay (2000) Propuseram variação do modelo de Hutchinson et al. (1994), dividindo a função de
precificação em duas partes: uma controlada pela razão S/X e outra, por uma função
do tempo até o vencimento.
Malliaris e Salchenberger (1996) Desenvolveram um modelo de redes neurais back-propagation para estimar a
volatilidade futura, aplicando-o ao mercado de opções sobre índice S&P 100.
Yao et al. (2000) Construíram modelos de redes neurais back-propagation para precificar opções sobre
futuro de índice Nikkei 225, em negociação no Singapore Exchange-Derivatives
Trading (SGX-DT).
QI et al. (1996) Por meio de rede MLP, precificaram opções de compra sobre índice S&P 500,
negociadas entre dezembro de 1994 e janeiro de 1995.
Ormoneit (1999) Utilizou modelo de rede neural MLP na precificação e no hedge de opções de compra
sobre DAX, índice alemão de ações.
Burgess e Refenes (1999) Empregaram redes neurais para estimar a volatilidade implícita de opções sobre o
índice Ibex35, que contém as 35 ações mais líquidas negociadas na bolsa de valores
espanhola por meio do sistema Cats.
conjunto de unidades de processamento conectadas en- determinar sua organização estrutural: número de cama-
tre si, chamadas de neurônios artificiais ou, simplesmen- das da rede e de neurônios em cada camada, e tipo de
te, de neurônios. conexão entre os neurônios e a topologia da rede (Braga,
A Figura 1 representa um neurônio artificial, em que Ludermir e Carvalho, 2000).
X1, X2 e X3 correspondem aos valores de entrada e Y Normalmente, as redes neurais são estruturadas em
equivale ao valor de saída do neurônio. Observa-se que, camadas, contendo um ou mais neurônios. Todas elas pos-
após a multiplicação dos valores de entrada pelos respec- suem camada de entrada, que recebe os sinais de entra-
tivos pesos W1, W2 e W3, os produtos obtidos são soma- da, e camada de saída, que armazena o resultado final da
dos, resultando no potencial de ativação ν. Posteriormen- rede. As camadas intermediárias localizam-se entre estas
te, o valor de ν é submetido a uma função de ativação, duas.
cujo resultado Y é o valor de saída do neurônio. A função Quanto ao tipo de conexão, as redes neurais podem
de ativação tem como objetivo limitar, dentro de uma es- ser feedforward (acíclica) ou recorrente (cíclica). A recor-
cala de valores, a amplitude do sinal de saída. Portanto, rente diferencia-se da acíclica por possuir pelo menos
matematicamente, tem-se: um link de realimentação (feedback), pelo qual a saída
de algum neurônio de uma camada i é utilizada como
entrada para um neurônio de camada de ordem menor
n
n
ν = ∑ Wi × X i e Y = ϕ( ν) ⇒ Y = ϕ ∑ Wi × X (1) ou igual a i.
i =1 i =1 As redes neurais podem ser completamente conec-
tadas, quando todos os neurônios estão conectados en-
A função de ativação, representada por ϕ(.), é apli- tre si, ou fracamente conectadas, quando pelo menos dois
cada ao potencial de ativação ν para a produção do valor neurônios não apresentam ligações entre si. A Figura 2
de saída Y do neurônio artificial. Segundo Haykin (1999), ilustra uma rede neural acíclica completamente conectada.
a função mais utilizada na construção de redes neurais
artificiais é a sigmoidal. Um exemplo desta é a função Processo de aprendizagem
tangente hiperbólica: Para que as redes neurais sejam capazes de fornecer
soluções a determinado problema, é necessário que pas-
ϕ(ν ) = tanh( ν ) (2) sem por processo de aprendizagem – durante o qual os
parâmetros da rede são automaticamente ajustados a cada
valor de entrada fornecido às redes neurais. O ajuste do
Arquitetura de redes neurais peso atribuído a cada conexão é mecanismo mais utili-
Definir a arquitetura de uma rede neural consiste em zado.
X1
X1
W1
X2
W2 ν X3
X2 Y Y
W3 X4
X3
X5
Três conceitos são importantes para compreender o to será interrompido. Isso evita que a rede neural seja trei-
processo de aprendizagem: nada excessivamente, resultando em over-fitting. A amos-
tra para avaliar se a rede é capaz de solucionar a questão
• algoritmo de treinamento ou algoritmo de aprendiza- é chamada de grupo de teste.
do: conjunto de procedimentos utilizados para ajustar
os parâmetros das redes neurais, de maneira que pos- Metodologia
sam realizar determinada função; Para construir o modelo de precificação de opções
• número de épocas: número de vezes que os padrões baseado em redes neurais e compará-lo ao de Black e
de treinamento serão apresentados às redes neurais, a Scholes, foram utilizados dados referentes às opções de
fim de que se faça a atualização dos pesos; compra européias sobre a ação Telebrás PN (preferencial
• taxa de aprendizado: controla a intensidade das altera- nominativa), negociada na Bolsa de Valores de São Paulo
ções dos pesos – uma alta taxa de aprendizado acelera (Bovespa) entre 1º de janeiro de 1995 e 20 de dezembro
o processo, mas pode reduzir a capacidade de genera- de 1999.
lização da rede neural. Ressalta-se que, a partir de 21 de setembro de 1998,
as informações estão relacionadas às opções sobre o reci-
Modelos de redes MLP bo representativo de carteira de ações Telebrás, instru-
As redes MLP (multilayer perceptron) são redes ací- mento criado pela Bovespa após a privatização dessa
clicas (feedforward) com uma ou mais camadas interme- empresa. As opções sobre ação Telebrás PN foram nego-
diárias, o que permite a solução de problemas mais com- ciadas até 19 de junho de 2000. No entanto, embora os
plexos. dados relativos a esse semestre estivessem disponíveis,
O algoritmo de treinamento mais popular aplicado às decidiu-se não utilizá-los por pertencerem a um período
redes MLP é o back-propagation – que segue o paradigma bastante atípico. Posteriormente, essa decisão foi justi-
de aprendizado supervisionado, no qual são fornecidos ficada pela constatação de erros de precificação significa-
valores de entrada às redes neurais com as respectivas tivos, quando se aplicou o modelo de Black e Scholes às
saídas desejadas. Por meio desse algoritmo, a aprendiza- opções desse período.
gem é realizada em duas etapas. Na primeira, a forward, Os dados foram organizados de acordo com as prin-
os valores de saída da rede são calculados a partir dos cipais variáveis que influenciam o preço das opções sobre
valores de entrada fornecidos. Na segunda, a backward, ações: o preço corrente da ação, o preço de exercício da
os pesos associados a cada conexão são atualizados con- opção, o tempo para o vencimento da opção, a volatilidade
forme as diferenças entre os valores de saída obtidos e do preço da ação e a taxa de juro livre de risco. Dessas
os valores desejados, da última camada à camada de variáveis somente a volatilidade não pôde ser diretamen-
entrada. te observada, precisando ser estimada. Para isso, utilizou-
Durante a fase de aprendizado das redes MLP, pode se como estimativa a volatilidade histórica, que foi calcu-
ocorrer overfitting; ou seja, a rede especializa-se nos pa- lada como sendo o desvio-padrão dos retornos diários
drões de treinamento e perde sua capacidade de genera- continuamente capitalizados da ação Telebrás PN, apura-
lização. Para contornar esse problema, pode ser utilizada, dos durante os 40 dias de negociação anteriores ao dia de
dentre outras, a técnica de early stopping – que consiste cálculo da volatilidade histórica.
em treinar a rede neural com determinada amostra (de- Destaca-se que, antes de 1998, a Bovespa ajustava as
nominada grupo de treinamento) e em validar seu de- séries de opções em decorrência de algum provento so-
sempenho periodicamente, empregando outra amostra mente no momento de exercício. Posteriormente, estas
(denominada grupo de validação). Se os dados obtidos eram ajustadas, no caso de dividendo e subscrição, no
com a validação atingirem nível satisfatório, o treinamen- momento em que o papel-objeto da opção passasse a ser
Nota: para outros parâmetros relacionados às funções de treinamento, foram utilizados os valores previamente definidos pelo Matlab. Para mais
detalhes, consultar Demuth e Beale (2000).
onde: M
Cm = preço de fechamento observado;
T
Ct = preço teórico obtido pelo modelo;
N = número total de observações. X c/S
cAnterior
Enquanto o EQRM está centrado no erro percentual,
o EQM capta a diferença em valores absolutos, que, nesta s anterior
pesquisa, equivale a valores em reais (R$).
Na comparação, foram utilizados os dados perten-
centes ao período de 1º de dezembro de 1996 a 20 de
dezembro de 1999, ordenados, seqüencialmente, pelo
tempo. Dessa amostra, foram extraídos os dados do gru- grupo 1 (M ≤ 0,95), grupo 2 (0,95 < M ≤ 1,05) e grupo 3
po de treinamento da rede neural e os correspondentes (M > 1,05). Portanto, pode-se dizer que, para cada série
ao grupo de teste. de opções, foram construídas três redes neurais com a
mesma arquitetura (número de camadas, neurônios etc.),
• Grupo de teste mas treinadas com diferentes subgrupos de dados classi-
Para compor o grupo de teste, foram escolhidas sé- ficados conforme o grau de moneyness. Isso significa que
ries de opções dos anos de 1998 e 1999. Estas foram a precificação de uma opção com grau de moneyness
classificadas conforme o grau de moneyness (M): fora do menor ou igual a 0,95 foi realizada por meio da rede cujo
preço (M ≤ 0,95), no preço (0,95 < M ≤ 1,05) e dentro do treinamento foi feito a partir de dados de opções perten-
preço (M > 1,05). Analisou-se cada série de opções e cal- centes ao grupo 1.
culou-se o grau de moneyness de cada uma de suas co-
tações no período. Dessa forma, para cada vencimento, Resultados e análise
selecionou-se a série que possuía mais de 29 cotações Para cada série de opções (grupo de teste), foram
e que mais tempo havia permanecido em um dos gru- comparados os preços teóricos das opções obtidos por
pos de moneyness: fora do preço, no preço ou dentro meio dos dois modelos e os preços realmente observados
do preço. no mercado. As Tabelas 5, 6 e 7 relacionam os EQRM,
A Tabela 4 relaciona essas séries, informando o ven- EQM e R2 resultantes da precificação das séries de opções
cimento, o preço de exercício e seu grau de pertencentes, respectivamente, aos grupos de opções no
representatividade (GR) no grupo de moneyness ao qual preço, fora do preço e dentro do preço.
foi relacionada. Por exemplo, verifica-se que 94% das Destaca-se que, na Tabela 5, estão os valores de EQRM,
cotações da série de opções com vencimento em 18 de EQM e R2 apurados para as séries de opções que estive-
outubro de 1999 e preço de exercício de R$150,00 per- ram a maior parte do tempo no preço. Constata-se o equi-
maneceram no preço. líbrio entre o desempenho dos dois modelos com base no
EQRM, já que cada um obteve melhor resultado em 50%
• Grupos de treinamento das séries. No entanto, esse equilíbrio não prevalece quan-
As amostras para treinamento foram formadas com do se analisam os resultados a partir do EQM e de R2. Para
dados relativos aos 12 meses anteriores ao mês da primei- nove das 12 séries de opções preci-ficadas, a aplicação do
ra cotação presente no grupo de dados da série a ser ana- modelo de redes neurais resultou em menores EQM. Além
lisada. Por exemplo, para precificar a série de opções com disso, a comparação com base em R2 demonstra a superi-
vencimento em 18 de fevereiro de 1998 e preço de exer- oridade desse método na precificação de 67% das séries
cício de R$130,00, a rede neural foi treinada com dados de opções. Portanto, esse modelo capta melhor o movi-
das cotações diárias das opções e das ações Telebrás PN mento dos preços das opções no preço e com erros abso-
de dezembro de 1996 a novembro de 1997, já que a co- lutos menores.
tação mais antiga, pertencente ao grupo de dados dessa A precificação da série de opções com vencimento em
série, é de 4 de dezembro de 1997. Para as demais, se- 21 de dezembro de 1998 e preço de exercício de R$100,00
guiu-se o mesmo procedimento. apresentou o maior EQRM quando se utilizou o modelo de
Procurando aprimorar o processo de aprendizagem, redes neurais. Na Tabela 5, percebe-se grande diferença
cada grupo de treinamento foi subdividido em três entre o EQRM da precificação dessa série pelo modelo de
subgrupos, de acordo com o grau de moneyness (M) : redes neurais (3,2723) e o EQRM da precificação via Black
e Scholes (0,8687). No entanto, o EQM apurado para o o comportamento do mercado. Nos últimos cinco dias
modelo de redes neurais (1,78) é significativamente menor de cotação, enquanto os resultados de Black e Scholes
do que o EQM calculado para o de Black e Scholes (5,33). continuam captando os movimentos dos preços de mer-
A Figura 4 descreve o movimento dos preços previs- cado, ocorre queda de desempenho do modelo de redes
tos pelo modelo de redes neurais (crn) e dos preços obti- neurais.
dos pelo modelo de Black e Scholes (cB&S) em comparação Ao longo de todo o período, pode-se verificar que,
com os preços de mercado (cm) apurados para a série com durante a maior parte, o modelo que demonstra preços
vencimento em 21 de dezembro de 1998 e preço de exer- teóricos mais próximos aos preços de mercado é o de re-
cício igual a R$100,00. des neurais, o que explicaria o fato de este possuir um
Analisando-se a Figura 4, observa-se, durante os 19 EQM (1,78) bem inferior ao calculado para o método de
primeiros dias de cotação, grande diferença entre os pre- Black e Scholes (5,33). Embora, pela própria visualização
ços. Os preços previstos pelas redes neurais são os que gráfica e comparação do EQM, possa ser constatado o
mais se aproximam dos preços de mercado. A partir do melhor desempenho do modelo de redes neurais, seu
20º dia, ambos os modelos passam a apresentar resulta- EQRM (3,2723) é bastante superior ao que foi apurado
dos semelhantes entre si, captando com boa qualidade para o de Black e Scholes (0,8657). Isso porque os maio-
opções mais fora do preço. Para as opções mais no mathworks.com; acesso em 12/11/2001.
preço e dentro do preço, verificou-se certo equilíbrio
FORESEE, F. D., HAGAN, M. T. Gauss-Newton Appro-
entre os dois modelos.
ximation to Bayesian Regularization. Proceedings of
A precificação de algumas opções, utilizando o mo-
the 1997 International Joint Conference on Neural
delo de redes neurais, resultou em altos EQRM. Esse fato
ocorreu devido à concentração de erros absolutos maio- Networks, pp. 1930–1935, 1997.
res nas cotações de preços mais baixos, o que elevou, con- GARCIA, R., GENÇAY, R. Pricing and Hedging Derivative
sideravelmente, os erros relativos. Atribuiu-se a esses des- Securities with Neural Networks and Homogeneity
vios a denominação de erro extremo em baixo valor – que Hint. Journal of Econometrics, v. 94, pp. 93–115, 2000.
pode estar associado à dificuldade de previsão em perío-
dos próximos ao vencimento da opção. Nesse caso, o com- HAYKIN, S. Neural Networks: A Comprehensive Foun-
portamento menos típico, aliado ao número reduzido de dation. EUA: Prentice Hall, 1999.
ocorrências, dificultaria a modelagem por meio das redes HUTCHINSON, J. M, LO, A.W., POGGIO, T. A
neurais. Nonparametric Approach To Pricing and Hedging
Um fato interessante observado, durante a análise das Derivative Securities Via Learning Networks. Journal
séries mais dentro do preço, foi a obtenção de um coefici- of Finance, vol. 49, n. 3, pp. 851–889, July 1994.
ente de determinação R2 maior entre os preços obtidos
pelos modelos do que entre os preços teóricos de cada LAJBCYGIER, P., BOEK, C., PALANISWAMI, M., FLITMAN,
modelo e os de mercado. Isso significa que as redes neurais A. Neural Network Pricing of All Ordinaries SPI
replicaram melhor os resultados do modelo de Black e Options on Futures. In: REFENES et al. Neural
Scholes do que o comportamento real do mercado. Esse Networks in Financial Engineering. Proceedings of
fato, embora não-conclusivo, pode indicar que o modelo 3rd International Conference On neural Networks in
de Black e Scholes capta, corretamente, o modo como the Capital Markets (Oct 1995), pp. 64–77. London:
estão relacionadas entre si algumas das variáveis que in- World Scientific, 1996.
fluenciam os preços das opções. No entanto, em ambos
LANARI, C. S., SOUZA, A. A. e DUQUE, J. C. Desvios em
os modelos, falta contemplar outras variáveis, ou carac-
terísticas, presentes no mercado. Relação ao Modelo de Black e Scholes: Estudos Re-
lacionados à Volatilidade dos Ativos Subjacentes Às
Bibliografia Opções. Anais, XIX ENEGEP. Rio de Janeiro, 1999.
ADLER, A. S., FARIA, H. B., SANTOS, L. F.; LEMGRUBER, E. MALLIARIS, M., SALCHENBERGER, L. Using Neural
F. Árvores Binomias Implícitas: Aplicação para as Op- Networks to Forecast The S&P 100 Implied Volatility.
ções de Telebrás no Exercício de Abril de 1999. Anais, Neurocomputing, v. 10, pp. 183–195, 1996.
XXIII ENANPAD. Foz do Iguaçu, 1999. ORMONEIT, D. A Regularization Approach to Continous
BLACK, F., SCHOLES, M. The Pricing of Options and Learning with an Application to Financial Derivati-
Corporate Liabilities. Journal of Political Economy 81, ves Pricing. Neural Networks, v. 12, pp. 1405–1412,
pp. 637–659, May–June 1973. 1999.
BRAGA, A., LUDERMIR, T., CARVALHO, A. Redes Neurais QI, M., MADDALA, G.S. Option Pricing Using Artificial
Artificiais: Teoria e Aplicações. Rio de Janeiro: Livros Neural Networks: The Case of S&P 500 Index Call
Técnicos e Científicos, 2000. Options. In: REFENES et al. Neural Networks in
Financial Engineering, Proceedings of 3rd Interna-
BURGESS, A. N., REFENES, N. Modelling Non-Linear Mo-
tional Conference On neural Networks in the Capi-
ving Average Processes Using Neural Networks with
tal Markets (Oct 1995), pp. 78–91. London: World
Error Feedback: An Application to Implied Volatility
Scientific, 1996.
Forecasting. Signal Processing, v.74, pp. 89–99, 1999.
YAO, J., LI, Y., TAN, C. L. Option Price Forecasting Using
DEMUTH, H., BEALE, M. Neural Network Toolbox for Use
Neural Networks. Omega, v. 28, pp. 455–466, 2000.
with Matlab. Disponível em http://www.