Você está na página 1de 15

Trabalho apresentado para obtenção do título de especialista em

Finanças e Controladoria – 2021

Uso de técnicas de deep learning para criação de uma nova abordagem para
otimização de carteiras

Laion Lima Boaventura¹*; Vinicius Medeiros Magnani2


1 Lendico Brasil. PhD candidate em Engenharia da Informação com ênfase em Inteligência Artificial, UFABC. Rua
Amparo, 365 - Vila Valparaiso; 09.060-100 Santo André, SP, Brasil
2 Fundação de Estudos Agrários Luiz de Queiroz [FEALQ – USP]. Doutor em Controladoria e Contabilidade pela

FEA-RP/USP. Avenida Centenário, nº 1080 - São Dimas; 13.416-000 Piracicaba, São Paulo, Brasil

1
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Uso de técnicas de deep learning para criação de uma nova abordagem para
otimização de carteiras

Resumo

A teoria moderna do portfólio, mais conhecida como teoria do portfólio ou Modelo de


Markowitz, explica como devem ser as tomadas de decisão dos investidores, de modo a
otimizarem suas carteiras de investimento, minimizando os riscos e precificando os ativos de
modo racional. Essa teoria é baseada na noção de que a diversificação de uma carteira de
investimento gera portfólios com uma melhor relação entre risco e retorno. Apesar de ser um
tema que surgiu na década de 1950, a busca dos gestores por ampliar a diversificação de
suas carteiras através do investimento em cotas de diferentes fundos de investimento, de uma
forma em que os riscos sejam controlados, vem resultando em um crescente interesse
acadêmico na seleção de carteiras formadas por fundos de investimento. Contudo, grande
parte desses trabalhos ainda vêm sendo desenvolvidos ainda abordam o uso de técnicas mais
tradicionais de modelagem, como por exemplo, Santos (2016) e Caldeira et al. (2014), que
utilizam um Garch Multivariado para otimizar a seleção de carteiras com modelos de
Correlações Condicionais e Fatoriais Heterocedásticos, respectivamente. Contudo, as
limitações estocásticas que os métodos mais tradicionais, bem como o próprio Modelo de
Markowitz trazem, fizeram com que a aplicação de técnicas de Machine Learning e Deep
Learning à seleção de portfólio ganhassem cada vez mais espaço. Trabalhos como os de Zhu
et al. (2011) e Li et al. (2019) são exemplos de resultados relevantes de como o uso de IA
pode otimizar a performance do Modelo de Markowitz para seleção de portfólio. Assim, esse
projeto tem o objetivo de avançar na área de IA aplicada à seleção de carteira, através da
proposta de apresentar para academia, um novo modelo baseado em uma rede neural
artificial de otimização de portfólio, que seja, em alguns cenários, competitiva ao Modelo de
Markowitz Multivariado quanto à redução dos riscos, ou maximização de retorno. Para
demonstrar a performance da solução proposta, realizamos uma aplicação prática aos
retornos históricos dos títulos e índices: S&P500, T. Bill, T.Bonds e Baa Corp Bonds, a fim de
traçar uma análise comparativa de previsão de alocação futura de carteira entre o modelo de
Markowtiz (1952) e o modelo proposto.
Palavras-chave: deep learnig, markowitz, otimização, portfólio, rede neural.

Using Deep Learning Techniques to Create a New Approach to Portfolio Optimization

Abstract

Modern portfolio theory, better known as portfolio theory or the Markowitz Model,
explains how investors should take decisions in order to optimize their investment portfolios,
minimizing risks and rationally pricing assets. This theory is based on the notion that
diversifying an investment portfolio generates portfolios with a better risk-return ratio. The
development of portfolio optimization models, as well as the Markowitz Model, originates in the
economic-financial area. Despite being a theme that emerged in the 1950s, the search by
managers to expand the diversification of their portfolios by investing in shares of different
investment funds, in a way that risks are controlled, has resulted in a growing interest academic
in the selection of portfolios formed by investment funds. It is true that most of these works that
have been developed still address the use of more traditional modeling techniques, such as
Santos (2016) and Caldeira et al. (2014), who use a Multivariate Garch to optimize portfolio
selection with Conditional and Heteroscedastic Factorial Correlation models, respectively.
However, the stochastic limitations that more traditional methods, as well as the Markowitz
Model itself, make the application of Machine Learning and Deep Learning techniques to
portfolio selection gain more and more space. Works such as those by Zhu et al. (2011) and

2
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Li et al. (2019) are examples of relevant results of how the use of AI can optimize the
performance of the Markowitz Model for portfolio selection. Thus, this project aims to advance
in the area of AI applied to portfolio selection, through the proposal to present to academia a
new model based on an artificial neural network for portfolio optimization, which is, in some
scenarios, competitive to the Multivariate Markowitz model for risk reduction, or return
maximization. To demonstrate the performance of the proposed solution, we carried out a
practical application to bonds and indices: SeP 500, T. Bill, T.Bonds and Baa Corp Bonds, in
order to draw comparative analyzes between traditional and proposed models.
Keywords: deep learnig, markowitz, neural network, optimization, portfolio.

Introdução

Os conceitos da Teoria Moderna de Carteiras, inicialmente formulados em H.


Markowitz, foram apresentados à literatura, pelo mesmo em 1952. Desde então, essa teoria
vem sendo utilizada para seleção e avaliação de carteiras de investimento em todo o mundo.
O trabalho de Markowitz instituiu uma nova abordagem para o conceito de risco dos
investimentos. Basicamente, Markowitz (1952) demonstra como os investidores podem utilizar
o princípio da diversificação para buscar melhorias na relação risco e retorno de suas carteiras
de investimentos. Contrapondo o pensamento dominante à época, de que a opção mais
benéfica para a composição da carteira consistia na concentração de investimentos em ativos
que ofereciam os maiores retornos, Markowitz (1952) propôs que o cenário ideal para os
investidores seria obter combinações mais eficientes de alocação de recursos por meio da
avaliação e compensação do risco dos ativos que compunham a carteira. Mas, para isso, foi
necessário a criação de duas premissas básicas: os investidores têm aversão ao risco e as
taxas de retorno têm distribuição normal.
Com essas premissas, Markowitz (1952) definiu que as variáveis de interesse ao
investidor na seleção de um portfólio seriam o retorno esperado e o risco. Retorno é o fator
desejável pelo investidor, enquanto o risco é a variabilidade associada a esse retorno.
Segundo Bodie e Merton (2002), entende-se risco como a incerteza que importa. Desta forma,
Markowitz entende que a melhor carteira é aquela na qual a variabilidade dos retornos é
minimizada e, para que isto ocorra, o investidor deve se valer da diversificação de ativos.
Para fundamentar seus conceitos, Markowitz acreditava que a correlação entre os
ativos era a chave para otimização da seleção de uma carteira. Ou seja, ele sustentava que
os investidores deveriam selecionar as carteiras não com base no desempenho individual dos
ativos, mas sim pelo desempenho de forma agregada. E esse desempenho passava pela
mensuração do risco e retorno.
Segundo Markowitz (1952), o retorno de uma carteira de investimentos é a média
ponderada dos retornos esperados dos ativos que compõem essa carteira. Ou seja, calcula-

3
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

se a média aritmética dos retornos esperados dos ativos ponderados pelas suas proporções
na carteira. Matematicamente, o retorno pode ser representado pela seguinte equação:

𝑅𝑝 = ∑𝑛𝑖=1 𝑅𝑖𝜔𝑖 (1)

onde, 𝑅𝑝: é o retorno da carteira, 𝑅𝑖 é o retorno esperado do i-ésimo ativo, n: é o número de


ativos na carteira e 𝜔𝑖: É o peso associado ao i-ésimo ativo.
Dado que uma das premissas de Markowitz é que os retornos dos ativos são variáveis
aleatórias que seguem distribuição normal, calcula-se o retorno esperado também a partir da
média ponderada dos retornos esperados sobre os ativos individuais, conforme a seguinte
expressão matemática:
𝑅𝑝 = 𝐸(𝑅𝑝) = 𝐸( ∑𝑛𝑖=1 𝑅𝑖𝜔𝑖 (2)

Para Markowitz, a definição do risco de uma carteira é mais complexa do que a simples
soma dos riscos dos ativos que a compõem. Para estimar a dimensão do risco, se faz
necessário uma avaliação da correlação existente entre os ativos da carteira. Seja o
coeficiente de correlação variando no intervalo de -1 a +1, segundo Markowitz (1952), quanto
mais próximo de -1 for o valor dessa correlação, maiores os indícios que os retornos dos
ativos movem-se em direções opostas e, vice-versa para situações em que a correlação for
próxima a +1. Em suma, o coeficiente de correlação terá valor positivo quando os rendimentos
positivos de um ativo estiverem associados aos rendimentos positivos de outro ativo, ou caso
os rendimentos negativos de um ativo estiverem associados aos rendimentos negativos de
outro, no mesmo período.
Assim, nesse conceito, o cálculo do risco envolve, além dos riscos individuais
ponderados pela participação de cada ativo na carteira, considerações acerca de um risco
conjunto, referente à correlação entre esses ativos, a covariância. Ou seja, assumindo Rp
como variável aleatória, sua variabilidade pode ser mensurada da seguinte forma:

𝑉𝑎𝑟(𝑅𝑝) = 𝐸(𝑅𝑝 − 𝑅𝑝)² (3)

Abrindo essa variância em uma demonstração para uma carteira de dois ativos é
possível particioná-la em três termos, referentes ao risco de cada ativo separadamente e ao
risco conjunto dos dois ativos. Observa-se na equação a seguir que o último termo, referente
ao risco conjunto dos dois ativos pode tomar tanto valores negativos quanto positivos, uma
vez que 𝜎1,2 representa a correlação entre eles. Já 𝜎𝑖 , para i = 1 ou 2, representa o desvio
padrão do retorno dos ativos, separadamente.

4
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

𝑉𝑎𝑟(𝑅𝑝) = 𝜔12 𝜎12 + 𝜔22 𝜎22 + 2𝜔1 𝜔2 𝜎1,2 (4)

Na equação abaixo, observa-se uma situação de uma carteira com $n$ ativos. Pode-
se entender que conforme cresce a carteira, os termos são adicionados à equação da
variância do retorno, de forma que seu cálculo se torne cada vez mais complexo, tornando
necessário o uso métodos números de otimização.

𝑉𝑎𝑟(𝑅𝑝) = 𝜔12 𝜎12 + 𝜔22 𝜎22 + . .. + 𝜔𝑛2 𝜎𝑛2 + 2𝜔1 𝜔2 𝜎1,2 + . . . + 2𝜔𝑛−1 𝜔𝑛 𝜎𝑛−1,𝑛 (5)

Contudo, somente a minimização do risco não é suficiente para a seleção de uma


carteira. A metodologia proposta por Markowitz propõe que as decisões relacionadas à
seleção de investimentos sejam tomadas com base no binômio risco-retorno. Esse binômio
consiste em um tradeoff entre risco e retorno. Ou seja, aumentar os ativos que apresentem
um maior retorno, dentro do mesmo patamar de risco desejado, substituindo os que tenham
menor retorno, ou substituir ativos que tenham maior risco por ativos que apresentem um
menor risco, dentro do mesmo patamar de retorno desejado. Em suam, expandindo-se este
raciocínio, é possível calcular a proporção ideal de cada ativo dentro da carteira, com base
em cada nível de risco, no risco conjunto e no patamar de retorno esperado.
O processo de tradeoff que envolve o binômio risco-retorno e define os pesos dos
ativos dentro da carteira recebe o nome de Fronteira Eficiente. Fronteira Eficiente é o conjunto
de carteiras simuladas pela variação dos pesos dos ativos, de forma a encontrar, para cada
patamar de risco, o melhor retorno possível e, para cada patamar de retorno, o menor risco
possível. Assim, segundo Markowitz (1952), ao considerar o binômio risco-retorno, existe uma
distribuição de pesos ideal entre os ativos, de forma que o retorno não pode ser mais
incrementado sem que se aumente o risco, ou que o risco não pode ser diminuído sem que
se diminua o retorno. O gráfico ilustrado na Figura 1, mostra uma hipotética fronteira eficiente,
na qual o ponto em vermelho marca a carteira de maior rentabilidade, ou seja, de melhor
tradeoff entre risco e retorno.

Figura 1. Fronteira eficiente


Fonte: Heaton et al. (2016)

5
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Contudo, apesar de amplamente utilizada em todo mundo, a Teoria Moderna de


Carteiras vem sofrendo críticas acerca da sua simplificação teórica. Segundo Vieira da Silva,
et al. (2009), o coeficiente de correlação entre dois ativos é uma medida estatística que indica
o grau de dependência linear entre as taxas de retorno desses ativos, porém esses ativos
podem não se relacionar linearmente entre si. Além disso, a proposta de segundo Markowitz
(1952), considera que as correlações entre os ativos são fixas e constantes, negligenciando
possíveis mudanças temporais, comuns no Mercado Financeiro. Por fim, outro vetor de
críticas é a premissa de normalidade na distribuição dos retornos. Discussões acerca da
distribuição de retornos têm sido recorrentes na academia, em que trabalhos como os
Ingersoll (1987) e Hamada (2004) trazem evidências que a suposição de normalidade dos
retornos pode ser altamente questionável, pois outras distribuições teóricas da família elíptica
apresentaram um nível superior de aderência aos dados empíricos.
Todas as críticas acerca das lacunas teóricas deixadas pela proposta de Markowitz
(1952), tem feito surgir novos nichos de pesquisa envolvendo seleção de carteiras. Primeiro,
surgiram os estudos ligando o tema à modelos de séries temporais mais robustos, como pode-
se observar nos trabalhos de Santos (2016) e Caldeira et al. (2014). Mais recentemente, esses
estudos passaram a ser acerca do uso de Inteligência Artificial [IA] à seleção de carteiras.
Segundo pesquisas particulares, Heaton et al. (2016), ao criar o “Deep Portfolio Theory”, foi,
por exemplo, o primeiro a propor o uso de Deep Learning em um sentido de seleção de
portfólio. Em Heaton et al. (2016), os autores propõem um processo de quatro etapas a fim
de incorporar "fatores profundos" de camadas ocultas no processo de seleção de portfólio,
visando fornecer um resultado mais assertivo que o modelo tradicional proposto por Markowitz
(1952). Foi no trabalho de Heaton et al. (2016) que nasceu o termo "Fronteira Profunda" (Deep
Frontier), que pode ser comparada à Fronteira Eficiente, criando espaço para uma discussão
se carteiras de menor risco, podem ser geradas para uma série de retornos. Foi também a
partir de Heaton et al. (2016), que diversos outros trabalhos surgiram ligando IA à seleção de
carteiras: Hu and Lin (2019), Rather et al. (2017) e Shen and Wang (2017) são alguns
trabalhos subsequentes ao de Heaton et al. (2016) que abordam essa mesma temática e
apresentaram situações nas quais as soluções foram superiores à proposta por Markowitz
(1952).
É com base na linha de pesquisa descrita na seção anterior que esse projeto irá propor
uma nova teoria para processos de seleção de portfólio, alternativa à proposta de Markowitz
(1952), competitiva às demais propostas recentes que envolvam IA aplicada à seleção de
carteira. O fato é que Heaton et al. (2016) criou, em teoria, um modelo de seleção de portfólio
que funciona com Deep Learning mas que, uma vez que se limitou a uma estrutura hierárquica
de funções de ativação univariadas de carteiras, pode ser melhorado.

6
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Ainda existem muitos algoritmos evolutivos a substituir algoritmos de otimização


clássicos para funções-alvo complexas e grandes portfólios, que ainda não foram abordados
na literatura. Estudos sobre a aplicação desses algoritmos ao Mercado de Crédito também é
uma possibilidade interessante que ainda não tem muitas aplicações em trabalhos, bem como
a utilização de outros multicritérios de otimização que possibilitem mais facilmente o equilíbrio
entre diferentes metas de otimização da carteira. A descoberta de uma nova teoria para
seleção de portfólio, capaz de processar carteiras com grande número de ativos
correlacionados de maneira não-linear entre si, pode aumentar a confiança do investidor em
aplicar seus recursos em ativos, uma vez que o risco de perda do poder aquisitivo estaria
mais controlado. Esse aumento na confiança muda o comportamento do mercado de capitais,
impactando positivamente no mercado de trabalho e consumidores.
Sendo assim, o principal objetivo desse projeto é propor uma nova metodologia de
otimização de carteiras, construída a partir de uma rede neural que permita trabalhar com
ativos em grandes dimensões, mas sem a necessidade de pressupostos probabilísticos,
sendo também, capaz de estimar projeções futuras de carteiras, de forma competitiva, quando
comparado à proposta de Markowitz (1952).

Materiais e Métodos

Para atingir o objetivo descrito na seção anterior, utilizaremos técnicas de construção


de redes neurais artificiais do tipo perceptron multicamadas [MLP]. introduzido pela primeira
vez por Rosenblatt (1958) e generalizado e popularizado por (Hornik et al. 1989), redes MLP
são algoritmos de Deep Learning estruturados semelhante à perceptron, mas com mais de
uma camada de neurônios em alimentação direta. Tal tipo de rede é composta por camadas
de neurônios ligadas entre si por sinapses com pesos. Uma vez que um MLP é uma rede
totalmente conectada, cada nó em uma camada se conecta, com um certo peso, em um nó
da camada seguinte. Matematicamente falando, uma rede MLP é um algoritmo de
aprendizado supervisionado que aprende uma função 𝑓(. ) = 𝑅 𝑚 → 𝑅 𝑜 treinando em um
conjunto de dados, onde m é o número de dimensões para entrada e o é o número de
dimensões para saída. Dado um conjunto de recursos 𝑋 = 𝑥1, 𝑥2, . . . , 𝑥𝑚 e um alvo y, ele pode
treinar um aproximador de função não linear para aprender com o objetivo de classificação ou
regressão. Diferente da proposta de Markowitz, a aplicação da MLP não traz pressuposição
de linearidade, pois entre a camada de entrada e a de saída pode haver uma ou mais camadas
não lineares, chamadas camadas ocultas.
Outro conceito importante para implementação do modelo proposto, é acerca das
funções de otimização do risco. A abordagem mais tradicional para construção de portfólios

7
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

é a otimização por média-variância. Essa metodologia, proposta por Markowitz (1952), traz
como suposição básica que as preferências de um investidor podem ser representadas por
uma função utilidade que relaciona o retorno esperado e a variância da carteira. Assim, os
investidores deveriam escolher a carteira de ativos com a menor variabilidade entre um infinito
número de portfólios que proporcionassem um determinado retorno ou, de forma equivalente,
para um determinado nível de risco, deveriam escolher o portfólio que resultasse no maior
retorno esperado. Contudo, existem outras funções de otimização do risco, derivadas da
função de média-variância ou não, que podem auxiliar na busca da alocação ótima da carteira.
Otimização de Mínima-variância, introduzido por Best e Grauer (1992), e Otimização Naive,
em que os pesos são equalizados igualmente entre os ativos, são exemplos muito usuais de
funções de otimização. Neste trabalho, adaptamos a função de média-variância de Markowitz
(1952), a fim de minimizar √𝑉𝑎𝑟(𝑅𝑝) através da correlação Spearman ao invés da correlação
de Pearson. Isso implica que, na equação:

𝑉𝑎𝑟(𝑅𝑝) = 𝜔12 𝜎12 + 𝜔22 𝜎22 + . .. + 𝜔𝑛2 𝜎𝑛2 + 2𝜔1 𝜔2 𝜎1,2 + . . . + 2𝜔𝑛−1 𝜔𝑛 𝜎𝑛−1,𝑛 , (6)

onde, 𝜎𝑖2 : é a variância o i-ésimo ativo em postos, bem como 𝜎𝑖−1,𝑖: é a covariância entre os

i-ésimo ativo e o ativo anterior a este, em postos. Ou seja, ao transformar a estatística 𝜎𝑖 em


não paramétrica, mensuramos a força e direção da associação entre dois ativos, sem a
necessidade de pressuposição de linearidade entre eles.
Contudo, quando falamos em modelos de Machine Learning e Deep Learning, uma
função de minimização não pode ser simplesmente minimizada sem restrições. Assim como
nos estudos da seleção de porfólio, em que a busca pela Fronteira Eficiente passa por um
tradeoff entre um indicador e sua variabilidade, encontrar o melhor modelo, ou modelo ótimo,
consiste em um tradeoff entre o viés e a variabilidade. Ou seja, espera-se encontrar o melhor
modelo possível com baixo viés e baixa variância. O problema é que estudos mostram que,
na maioria das vezes, viés e variabilidade caminham em direções opostas. Isto porque, quanto
maior a complexidade do algoritmo utilizado para construção do modelo, mais assertivo ele
será para determinada amostra. Assim, quanto mais assertivo para uma determinada amostra
de dados, mais viesado à essa amostra e, consequentemente, menos generalista,
aumentando assim sua variabilidade de resultados.
Em suma, quando um modelo estatístico se ajusta muito bem ao conjunto de dados
amostrais utilizados em sua construção (dados de treinamento) mas se mostra ineficaz para
prever novos resultados, temos o que chamamos de overfitting. Ou seja, o modelo “decorou”
o conjunto de dados de treino, mas não aprendeu de fato o que diferencia aqueles dados para
quando precisar enfrentar novos testes. Em contrapartida, quando o modelo não se adapta

8
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

bem sequer aos dados com os quais foi treinado, temos o chamado underfitting. Desta forma,
o que buscamos é o "balanço ótimo", o ponto no qual a complexidade da rede encontrada é
máxima possível para entregar um menor viés com uma variabilidade controlada. A Figura 2,
a seguir ilustra, teoricamente, esse conceito de busca pelo balanço ótimo.

Figura 2. Balanço ótimo: viés e variabilidade


Fonte: Dados originais da pesquisa

Além da rede MLP e da função de otimização não paramétrica, uma terceira importante
implementação teórica foi introduzida: a de combinação de modelos. Na teoria de combinação
de modelos de regressão, chamamos de modelos de modelos básicos aqueles que podem
ser usados como base para construção de modelos mais complexos. Na maioria das vezes,
esses modelos básicos não funcionam tão bem sozinhos porque têm um viés alto ou porque
têm alta variabilidade. Então, a ideia da combinação de modelos de regressão é tentar reduzir
o viés e/ou a variância de tais modelos básicos, combinando vários deles para criar um modelo
ensemble que obtenha melhores desempenhos. Esse modelo ensemble, também conhecido
como comitê de learners, tem três principais tipos de meta-algoritmos tradicionais de
combinação:
● Bagging, que muitas vezes considera modelos básicos homogêneos, os treina
independentemente uns dos outros em paralelo e os combina seguindo algum tipo de
processo determinístico de média ou mediana;

9
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

● Boosting, que muitas vezes considera modelos básicos homogêneos, os treina


sequencialmente de uma forma muito adaptativa (um modelo básico depende dos anteriores)
e os combina seguindo uma estratégia determinística também de média ou mediana;
● e Stacking, que muitas vezes considera modelos básicos heterogêneos, os treina em
paralelo e os combina treinando um meta-modelo para gerar uma previsão com base nas
previsões de diferentes modelos fracos.
Neste trabalho, fizemos uma adaptação de uma combinação do tipo Stacking, em que
cada ativo corresponde a uma rede MLP treinada em paralelo, a fim de predizer o retorno, a
partir de uma janela temporal, aplicada recursivamente, minimizando o risco. Para então, ter
as saídas individuais combinadas entre si, a fim de mais uma vez, minimizar o risco, mas
desta vez, o risco conjunto. A Figura 3, a seguir, ilustra essa estratégia para uma carteira
teórica de três ativos.

Figura 3. Aplicação da proposta em uma carteira com 3 ativos


Fonte: Dados originais da pesquisa

10
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Posto isso, a elaboração prática proposta nesse trabalho obedece ao seguinte script
de passo a passo:
1- Análise de linearidade e teste de aderência à distribuição normal nos retornos dos
ativos da carteira.
2- Simular as alocações de carteira mediante método de Markowitz (1952)
3- Estimar fronteira eficiente de Markowitz (1952)
4- Estimar fronteira eficiente através do ensamble MLP
5- Comparar fronteiras eficientes
A análise acerca da linearidade foi avaliada visualmente entre os ativos 2 a 2,
estabelecendo-se os coeficientes de correlação de Pearson (r). Para o teste de aderência à
distribuição normal, utilizamos o teste de Shapiro-Wilk. Este, testa hipótese nula que uma
amostra de retorno de ativos tem distribuição normal. Para maiores detalhes acerca desse
teste, ver por exemplo, Bolfarine, Heleno e Bussab (2005).
Ao que se refere ao modelo ensamble MLP, a estratégia adotada para
desenvolvimento e validação do algoritmo se deu através do método de leave-one-out
adaptado. O leave-one-out tradicional é uma técnica de validação e treinamento de modelos
que pode ser considerada um caso específico do método k-fold, com k igual ao número total
de dados N. Nesta abordagem são realizados N cálculos de erros, um para cada dado.
Basicamente, neste trabalho, para avaliarmos a capacidade de generalização das redes MLP,
particionamos o conjunto de dados em subconjuntos de treinamento e teste, de forma que o
conjunto de teste fosse uma previsão futura do retorno, dado os 4 últimos retornos
observados. Assim, ordenando a amostra de forma crescente no tempo, excetuando as 4
primeiras observações, todas constarão, em algum momento, no subconjunto de teste. Para
maiores detalhes acerca das principais técnicas de data splitting e validação cruzada, ver por
exemplo, T., Tibshirani, R., Friedman, J., e Franklin, J. (2009).
Para a aplicação do modelo proposto, fizemos uso da base de dados fornecida por
Aswath Damodaran, no seu portal online [2], acerca dos retornos históricos (1928 – 2020) dos
títulos e índices: SeP 500, T. Bill, T.Bonds e Baa Corp Bonds. A implementação de todo
trabalho foi realizada em linguagem de programação Pyhton, no ambiente do
Google Colaboratory. O uso do Python permite a utilização da biblioteca neuralnetwork para
construção do modelo MLP, assim como outras bibliotecas para construção das demais
etapas do algoritmo descrito acima, nesta seção. Os códigos desenvolvidos para construção
do trabalho foram disponibilizados através do link [1], da plataforma GitHub. Estando assim,
disponível para consulta pública.

11
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Resultados e Discussão

Conforme listado na seção anterior, a implantação do script deste trabalho iniciaria


com análises de linearidade e testes de aderência à distribuição normal dos retornos dos
ativos da base de dados. Isto porque, linearidade e normalidade são dois dos principais
pressupostos estocásticos para implementação do modelo de Markowitz (1952). Assim, a não
conformidade em uma dessas suposições a priori, indica que o modelo de Markowitz (1952)
não seria o melhor método para alocação desse portfólio. Posto isso, ao analisarmos a
suposição de normalidade acerca dos retornos, o valores levantados do T.Bonds não foram
aderentes ao pressuposto com uma significância de 5%. Já, no que se refere à linearidade,
colocando um corte de ±0,7 para a correlação de Pearson, nenhum ativo atendeu essa
pressuposição. Desta forma, como mencionado anteriormente, não teríamos indícios
estatísticos suficientes para implementar a metodologia de Markowitz (1952) da melhor
maneira possível.
Feito isso, o passo seguinte foi simular, via Markowitz (1952), todas as possíveis
alocações de portfólio, desenhando de maneira gráfica, o binômio retorno-risco. Assim, a
Figura 4, ilustrada abaixo, mostra o processo de simulação feita com 10 mil possíveis
alocações do portfólio mediante método de Markowitz (1952).

Figura 4. Plotagem das 10 mil carteiras simuladas via Markowitz (1952)


Fonte: Resultados originais da pesquisa

Conforme script da seção anterior, a etapa seguinte foi, mediante estimar a fronteira
eficiente de Markowitz (1952). Para isso, estipulamos alguns platôs de risco, minimizando-o
como o algoritmo de mínimos quadrados sequenciais, ou simplesmente SLSQP (do inglês,
sequential least squares programming algorithm). A escolha desse algoritmo foi por,

12
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

intuitivamente, ter mesma formulação matemática fechada que a aplicação de Markowitz, o


que se refletiu na prática, quando encontramos um erro residual entre os retornos na ordem
de grandeza de e-21. A Figura 5, a seguir, mostra a fronteira eficiente estimada através desse
método, bem como os binômios retorno-risco dados somente pela alocação univariada do
portfólio.

Figura 5. Fronteira eficiente estimada por SLSQP através da proposta de Markowitz (1952)
Fonte: Resultados originais da pesquisa

Por fim, estimamos a fronteira eficiente através do ensamble MLP. Conforme


mencionamos anteriormente, o modelo ensamble MLP proposto, seria aplicado em duas
etapas:
● na etapa inicial, construímos 4 redes neurais MLP para cada ativo da carteira a fim de
prever o retorno futuro, dado uma janela temporal de retornos anteriormente observados. Para
isso, simulamos janelas de 1 a 4 anos a fim de encontrar a melhor faixa temporal para
realização dessa etapa inicial. O melhor resultado médio, foi o com janela temporal de 4 anos,
em que obtivemos erro residual na ordem de e-4.
● Na etapa seguinte, combinamos as 4 saídas dos MLP construídos na etapa 1 e
calculamos o retorno combinado dessas saídas, minimizando o risco conjunto, adaptando a
função de média-variância à correlação de Spearman, conforme definimos na seção anterior.
Nesta etapa, encontramos um erro estimado médio na ordem de e-3, e uma fronteira eficiente
mais lucrativa que a encontrada mediante método de Markowitz (1952), isto é, encontramos
uma fronteira tal que esperamos retornos maiores assumindo riscos equivalentes. Esse
resultado pode ser visualizado conforme ilustração a seguir.

13
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Figura 6. Comparativo entre fronteiras eficientes de Markowitz (1952) e metodologia aqui


proposta
Fonte: Resultados originais da pesquisa

Considerações Finais

Como considerações finais, observamos que é possível selecionar uma carteira de


ativos com base no binômio retorno-risco projetado em redes neurais MLP. Destacamos
também, que apesar do Modelo de Markowitz de efetivamente procura identificar a melhor
combinação possível de ativos, quando os pressupostos estocásticos para sua aplicação não
são atendidos, métodos alternativos podem ser viáveis e mais vantajosos. Ou seja, antes de
aplicar o Modelo de Markowitz, faz-se necessário analisar todas as suposições matemáticas
e probabilísticas que o modelo carrega. Caso não sejam atendidas, como abordamos nesse
trabalho, existem outras possibilidades alternativas para construção de fronteiras eficientes,
entre essas, a aqui proposta.
Para estudos futuros, podemos buscar algoritmos mais complexos que uma MLP, bem
como substituir a aplicação recorrente em re-sampling por uma RNN convencional. Outra
análise futura seria incrementar a etapa 2 do MLP ensamble com fatores externos, que não
são considerados na proposta de Markowitz. Com isso, o modelo tende a ficar mais acurado
às situações de variações macroeconômicas.

Referências

Bodie, Z. R. C. 2002. Merton. International pension swaps.Boston University School of


Management Working Paper,(02-01)

Bolfarine, H.; Bussab, W. O. 2005. Elementos de amostragem. Editora Blucher.

Caldeira, J. F.; Moura, G. V.; Santos, A. A. P.; Tessari, C. 2014. Seleção de carteiras com
modelos fatoriais hetero-cedásticos: aplicação para fundos de fundos multimercados.RAM.
Revista de Administração Mackenzie, 15(2):127–161

14
Trabalho apresentado para obtenção do título de especialista em
Finanças e Controladoria – 2021

Hamada, M.; Valdez, E. et al. 2004. CAPM and option pricing with elliptical distributions.
School of Finance andEconomics, University of Technology, Sydney

Hastie, T.; Tibshirani, R; Friedman, J. 2009. "Linear methods for regression." The elements of
statistical learning. Springer, New York, NY, 43-99.

Heaton, J.; Polson, N. G.; Witte, J. 2016. Deep portfolio theory.arXiv preprint arXiv:1605.07230

Hu, Y -J.; Lin, S -J. 2019. Deep reinforcement learning for optimizing finance portfolio
management. In2019 AmityInternational Conference on Artificial Intelligence (AICAI), pages
14–20. IEEE

Ingersoll, J. E. 1987. Theory of financial decision making, volume 3. Rowman e Littlefield.

Markowitz, H. 1952. The utility of wealth.Journal of political Economy, 60(2):151–158.

Rather, A. M.; V. Sastry, V.; Agarwal, A. 2017. Stock market prediction and portfolio selection
models: a survey.Opsearch, 54(3):558–579, 2017

Santos, A. A. P. 2016. Otimização de carteiras baseada em modelos de correlações


condicionais.Análise Econômica, 34(65).

Shen, W.; Wang, J. 2017. Portfolio selection via subset resampling. InProceedings of the
Thirty-First AAAI Conferenceon Artificial Intelligence, pages 1517–1523

15

Você também pode gostar