Você está na página 1de 15

Risco da inovação –

como tomar decisões


melhores
Robert C. Merton

ABRIL 2013

Novos produtos e serviços são criados para que as pessoas possam


realizar algo de um jeito melhor do que antes, ou para fazer coisas
que até então não podiam. Mas a inovação também traz riscos. O
grau de risco de uma inovação depende, em grande medida, de
escolhas feitas pelas pessoas na hora de usá-la.

Responda à seguinte pergunta: se tivesse de ir de carro de Boston a


Nova York debaixo de neve, você se sentiria mais seguro num
veículo com tração nas quatro rodas ou só em duas? O leitor
provavelmente optaria pela tração nas quatro. Mas, se for analisar
estatísticas de acidentes nas estradas, você veria que a chegada da
tração nas quatro rodas não ajudou muito a reduzir o índice de
acidentes por quilômetro rodado em estradas durante nevascas — o
que talvez o levasse a concluir que a inovação não tornou o ato de
dirigir na neve mais seguro.

Obviamente, o problema não é que a inovação não tenha contribuído


para a segurança, mas sim que hábitos de motoristas ao volante
mudaram por se sentirem mais seguros. Hoje, há mais gente
encarando a estrada na neve do que antigamente — e,
provavelmente, dirigindo com menos cuidado. Se o leitor e todo
mundo mais fizesse o trecho de Boston a Nova York à mesma
velocidade, e se o total de veículos nas estradas tivesse permanecido
inalterado, a tração nas quatro rodas teria, sim, contribuído muito
para a segurança. Já se você e todos os demais resolvessem ir muito
mais rápido, o risco de dirigir na neve seria o mesmo de
antigamente. Na prática, a pessoa está fazendo uma escolha
(consciente ou não) entre reduzir o risco e melhorar o desempenho.

Se o grau de risco de uma inovação depende de escolhas feitas pelas


pessoas, quanto mais informadas e conscientes forem suas escolhas,
pela lógica menor devia ser o risco. Mas, ao ponderarem as
consequências de uma inovação — de que modo vai mudar os trade-
offs que as pessoas fazem e seu comportamento —, empresas e
governantes devem estar cientes das limitações dos modelos que
embasam decisões de um indivíduo sobre como usar a inovação.
Como veremos, certos modelos trazem falhas fundamentais e devem
ser descartados, enquanto outros podem ser aprimorados. Certos
modelos são adequados para situações específicas, enquanto outros
exigem usuários sofisticados para produzir bons resultados. E
mesmo quando a pessoa usa o modelo certo para decidir como usar
uma inovação — chegando ao justo equilíbrio entre risco e
desempenho —, a experiência mostra que é quase impossível prever
como esse novo comportamento irá influenciar o grau de risco de
outras escolhas e condutas (da pessoa e de outros indivíduos),
muitas vezes em áreas sem qualquer relação aparente. É a velha
história das consequências involuntárias. Quanto mais complexo o
sistema no qual a inovação se insere, mais prováveis e graves serão
essas consequências. Aliás, muitos dos riscos associados a uma
inovação decorrem não da inovação propriamente dita, mas da
infraestrutura na qual é inserida.
A moral da história é que toda inovação muda o equilíbrio entre
risco e retorno. Para minimizar riscos e consequências involuntárias,
usuários, empresas e governantes devem entender como fazer
escolhas embasadas em relação a novos produtos e serviços. Devem,
especificamente, respeitar cinco regrinhas gerais.

Entender que é preciso um modelo

Ao adotar um novo produto ou tecnologia, sua decisão sobre o risco


e o retorno é influenciada por aquilo que a ciência cognitiva chama
de modelo mental. No caso da viagem de carro entre Boston e Nova
York debaixo de neve, o leitor talvez raciocine que, embora não
possa controlar todo risco que o trajeto traz, pode, sim, definir o tipo
de carro que dirige e a velocidade à qual dirige. Um modelo mental
simples para avaliar trade-offs entre risco e desempenho, portanto,
pode ser representado por um gráfico que compara a segurança com
o modelo de carro e a velocidade.

Naturalmente, esse modelo é uma grande simplificação. A relação


entre segurança e velocidade vai depender de outras variáveis —
condições do tempo e da estrada, o volume de tráfego, a velocidade
de outros carros na via —, muitas delas fora de seu controle. Para
fazer as escolhas certas, é preciso entender exatamente qual a
relação entre todas essas variáveis e a velocidade à qual se dirige.
Obviamente, quanto mais fatores forem computados, mais
complicado é determinar os riscos associados a uma dada
velocidade. Para fazer uma avaliação precisa, é preciso reunir dados,
estimar parâmetros para todos os fatores e determinar de que modo
esses fatores podem interagir.

De modo geral, a maioria dos modelos aplicados a situações na vida


real existem de forma semiconsciente na mente das pessoas. Mesmo
hoje, ao dirigir um carro, automaticamente recorremos a modelos
mentais robustos, porém imprecisos, nos quais relações entre
fatores são inferidas com base na experiência. Mas, com o advento
da computação, mais e mais atividades que tradicionalmente
dependeram da cognição humana se provam aptas à modelagem
matemática formal. Em um voo comercial que cruza o Atlântico, por
exemplo, o avião será pilotado, em grande medida, por um
computador cujas “decisões” sobre velocidade, altitude e trajetória
são baseadas em modelos matemáticos que processam
continuamente dados sobre localização, pressão atmosférica, peso
da aeronave, tráfego aéreo, velocidade dos ventos e uma série de
outros fatores. Hoje, o piloto automático é tão sofisticado que pode
até fazer o pouso sozinho do avião.

E se na aviação é assim, no mercado financeiro também: a fórmula


Black-Scholes de avaliação de opções de ações, que ajudei a criar na
década de 1970, busca estabelecer até que ponto fatores externos
mensuráveis ou observáveis — para ser mais específico, o preço do
ativo subjacente, a volatilidade desse preço, taxas de juros e data de
expiração — podem estar ligados ao preço de uma opção de compra
desse ativo específico. Instituições financeiras usam modelos como o
Black-Scholes para permitir que computadores realizem operações.
É possível, por exemplo, programar um computador para lançar
uma ordem de compra ou venda de uma ação ou de uma opção se o
programa observar, com base em dados do mercado, que a cotação
real da ação ou da opção está se desviando do valor produzido pela
Black-Scholes ou algum outro modelo rigoroso de avaliação.

Parece sensato, portanto, supor que quanto mais fatores seu modelo
computar, melhor será a avaliação dos riscos assumidos ao decidir se
e como adotar uma determinada inovação. Isso explica, em grande
medida, a popularidade da modelagem matemática, especialmente
no caso de inovações tecnológicas e financeiras. E muitos desses
modelos produzem resultados bastante bons. A metodologia geral de
reprodução no cerne da Black-Scholes, por exemplo, já foi bem
fundamentada por evidências empíricas: o valor real de opções e de
outros derivativos parece corresponder ao valor p
ro
jetado pelo modelo, inclusive por versões simplificadas deste. Mas é
bem aí, quando se começa a achar que sua avaliação é infalível, que é
preciso redobrar as atenções.

Aceitar as limitações do modelo

Na hora de montar e utilizar um modelo — para precificar


instrumentos financeiros, para projetar o piloto automático de um
avião —, é fundamental entender a diferença entre um modelo
incorreto e um incompleto.

Num modelo incorreto, a lógica interna ou as premissas subjacentes


são evidentemente equivocadas. É o caso de um modelo matemático
que tente calcular a circunferência de um círculo usando um valor de
4,14 para o pi. Isso não significa, obviamente, que todo erro é
sempre fácil de identificar. Em um avião, por exemplo, um modelo
de navegação que situe o aeroporto de La Guardia em Boston em vez
de Nova York talvez não seja reconhecido como falho, a menos que o
avião que comanda tente chegar àquele aeroporto. Quando
constatado que um modelo se baseia em uma premissa basicamente
errada, a única coisa certa a fazer é deixar de usá-lo. Já a incompletude
é um problema muito distinto e é uma característica presente em todo modelo.
O matemático austríaco Kurt Gödel, naturalizado americano, provou que
nenhum modelo é “correto” se pensarmos na representação completa da
realidade. Como modelo para o número pi, 3,14 não é errado, mas é incompleto.
Um modelo de 3,14159 é menos incompleto. Observe que o modelo menos
incompleto é um avanço em relação à versão básica, não um total substituto.
Não é preciso descartar o modelo básico — apenas adicionar a ele.

A distinção entre incorreção e incompletude é importante para


cientistas. À medida que desenvolve modelos que descrevem nosso
mundo e permitem que façamos projeções, a ciência rejeita e deixa
de usar aqueles que constata serem incorretos, seja com a análise
formal do modo como operam ou com o teste de premissas
subjacentes. Em vez de errados, modelos que sobrevivem são
considerados incompletos; não podem, portanto, ser provados.
Voltemos ao Black-Scholes. Hoje, há um arsenal crescente de
modelos de precificação de opções que levam a mesma metodologia
subjacente além da fórmula básica, computando mais variáveis e
premissas mais robustas para fins específicos.
Em geral, até que seja descoberto algum erro fundamental de
matemática no modelo ou exposta alguma falha nas premissas que o
sustentam, o curso lógico é aprimorar em vez de rejeitar o modelo.
Aqui, contudo, é muito mais fácil falar do que fazer, o que nos leva
ao próximo desafio.

Esperar o inesperado

Por maiores que sejam o esforço e a perspicácia, certos fatores que


poderiam entrar num modelo ficarão de fora. Nenhum ser humano é
capaz de prever todas as consequências de uma inovação, por mais
óbvias que possam parecer em retrospecto. Isso vale especialmente
quando a inovação interage com mudanças sem qualquer relação no
ambiente — mudanças que, portanto, sequer são reconhecidas como
fatores de risco.

A crise financeira de 2007–2009 é um bom exemplo de


consequências involuntárias. Ao reduzir consideravelmente custos
de operações, inovações no mercado de crédito imobiliário
facilitaram não só a compra de imóveis, mas também o
refinanciamento de hipotecas ou o aumento do valor emprestado.
Nos Estados Unidos, qualquer um podia usar a casa como garantia
para conseguir crédito — e, com isso, gastar com carros, viagens e
outros bens e serviços. Não há nada intrinsecamente errado nisso, é
claro; é uma questão de escolha pessoal.

A desejada (e boa) consequência da inovação no crédito imobiliário


foi aumentar a disponibilidade dessa opção de baixo custo. Mas
houve também uma consequência involuntária: já que outras duas
tendências econômicas em si benignas — queda nos juros e
valorização contínua dos imóveis — coincidiram com a mudança em
práticas de liberação de crédito, um número atipicamente elevado de
proprietários de imóveis foi encorajado a repactuar hipotecas ao
mesmo tempo, convertendo o patrimônio embutido no imóvel por
uma dívida de longo prazo a juros baixos.

Classificação de risco não é tudo

Na crise do mercado de classificação de risco nos EUA em 2008, uma das


grandes vítimas foram as próprias agências de classificação. Sua
credibilidade foi seriamente abalada quando muitos títulos que ostentavam
nota AAA acabaram sendo negociados com fortes descontos.

Gestores de investimento que tomaram decisões com base na classificação


de risco registraram sérios prejuízos. Mas o modelo de classificação que as
agências usavam era mesmo falho? Ao longo do tempo, esse modelo —
fundado quase que exclusivamente no cálculo da probabilidade de calote
do emissor — funcionara muito bem, e as agências, que viam seu papel
como o de simplesmente avaliar a solidez de práticas financeiras de
empresas e governos, provavelmente achavam que era adequado para o
propósito.

Naturalmente, é possível discutir se a visão limitada que as agências tinham


de seu papel era condizente. Certamente é possível questionar o potencial
conflito de interesses quando emissores pagam a essas mesmas agências
por serviços de consultoria e classificação. O que é indiscutível (certamente
em retrospecto) é que o modelo de avaliação não era uma ferramenta
adequada para a gestão de uma carteira de títulos. Isso porque
probabilidade de calote não é o único fator que determina o valor de um
título e seu risco. Outros fatores importantes são o provável volume do
investimento que poderia ser recuperado em caso de calote e até que ponto
as perspectivas do emissor dos títulos refletem o ciclo econômico.

Esse último dado é particularmente importante em momentos de crise: se


uma empresa dá um calote quando a sorte do detentor dos títulos está
sofrendo por outras razões, o impacto para a saúde do investidor será pior
do que se o calote ocorrer em fases boas. Logo, o senso comum diria que
um investidor pagaria menos por um título emitido por uma empresa em
uma atividade pro-cíclica do que por um emitido por uma empresa em uma
atividade anticíclica (o mesmo diz a teoria financeira). Além disso, um
título com uma baixa taxa de recuperação do investimento deveria, em tese,
ser negociado por um valor menor do que um título com alta taxa de
recuperação e a mesma probabilidade de calote.

Esses fatores não faziam qualquer diferença para as agências, no entanto,


que baseavam sua avaliação estritamente na probabilidade de calote. Isso
significava que empresas pro-cíclicas e anticíclicas com a mesma
probabilidade de calote levavam a mesma nota. Na mesma veia, dois títulos
poderiam receber o mesmo rating ainda que, em caso de calote, a
recuperação do investimento garantido por um deles pudesse ser maior.
Como resultado
dessas discrepâncias, títulos com classificação AAA podiam ser
negociados a preços bastante distintos no mercado de dívida.

Suponhamos, agora, que o leitor seja um gestor de investimento e que um


cliente queira aplicar seu dinheiro em títulos de longo prazo, com nota
AAA pela Standard & Poor’s. Responsável que é, você buscaria os títulos
mais baratos com nota AAA por oferecerem um retorno melhor pelo
mesmo risco estimado. O problema é que, com isso, você quase certamente
montaria uma carteira composta fortemente de títulos pro-cíclicos, de
baixas taxas de recuperação, cujos valores se deteriorariam mais em uma
crise econômica, talvez de forma bem drástica.

O fiasco da classificação de risco é, portanto, um bom exemplo de como a


adoção de um modelo inadequado para o propósito — no caso, usar um
modelo para prever a probabilidade de calote, e não um de precificação de
títulos, para administrar uma carteira — pode resultar em decisões
catastróficas. Vale dizer que investidores que usaram modelos projetados
para a precificação de títulos se saíram melhor do que aqueles que se
fiaram basicamente na classificação de risco.

Era um círculo vicioso: a valorização dos imóveis aumentava o


patrimônio do proprietário — patrimônio que podia, então, ser
convertido em crédito e utilizado para o consumo, num processo que
começou a ser repetido sem parar. Enquanto a tendência se
manteve, donos de imóveis passaram a ver tal conversão como uma
fonte regular de financiamento para o consumo corrente, em vez de
solução para financiar uma compra ou um investimento ocasionais.
Com o tempo, o endividamento de toda classe de proprietários de
imóveis começou a subir — em vez de diminuir, como normalmente
ocorreria quando o preço de imóveis está subindo —, muitas vezes
atingindo o nível de alavancagem de quem comprava o primeiro
imóvel.

Na ausência de qualquer uma das três condições (mercado eficiente


de refinanciamento de hipotecas, juros baixos e, acima de tudo,
imóveis em contínua valorização), dificilmente teria havido uma
realavancagem tão coordenada. Mas, devido à convergência das três
condições, o volume de refinanciamento de hipotecas nos EUA foi
imenso durante boa parte da década anterior à crise. O resultado foi
que muitos donos de imóveis enfrentavam, ao mesmo tempo, a
mesma exposição ao risco de desvalorização de imóveis, o que criou
um risco sistêmico.
Tal risco foi agravado pela assimetria na capacidade de donos de
imóveis de acumular o risco e de reduzi-lo. Quando o valor de
imóveis está subindo, é fácil contrair empréstimos em incrementos e
dar como garantia o valor maior do bem. Mas, se a tendência se
inverte e o valor do imóvel cai, a alavancagem e o risco do
proprietário sobem; já seu patrimônio, com a desvalorização,
encolhe. Se percebe isso e resolve reequilibrar a relação para um
nível de risco mais aceitável, a pessoa descobre a assimetria: não há
jeito prático de reduzir a dívida de forma incremental. É preciso
vender o imóvel inteiro ou não fazer nada — não há como vender
parte do bem (leia mais sobre a assimetria no ajuste do risco no
artigo “Systemic Risk and the Refinancing Ratchet Effect”, de Amir
Khandani, Andrew W. Lo e Robert C. Merton, a ser publicado, em
inglês, no periódico Journal of Financial Economics). Devido a essa
indivisibilidade fundamental, donos de imóveis costumam optar por
não fazer nada, na esperança de que a queda dos preços vá ser
revertida ou, no mínimo, interrompida. Quando continua, o aperto
financeiro que a pessoa sente a certa altura pode ser suficiente para
obrigá-la a vender o imóvel. Com isso, um monte de casas pode ser
posto à venda ao mesmo tempo, o que dificilmente contribui para a
sonhada reversão da tendência de preços. Nessas condições, o
mercado de crédito imobiliário pode ficar particularmente
vulnerável à desvalorização de imóveis, por mais modesta que seja, e
à alta dos juros. Foi exatamente o que ocorreu durante a recente
crise financeira.

Volto a reiterar que os três fatores envolvidos na criação do risco —


oportunidades eficientes de refinanciamento, juros em queda e
valorização de imóveis — eram, isoladamente, benignos. É difícil
imaginar que algum órgão regulador fosse soar um alerta sobre
qualquer uma dessas condições. Em resposta ao estouro da bolha de
tecnologia em 2000, ao choque do 9 de setembro e à ameaça de
recessão, por exemplo, o banco central americano (o Federal
Reserve) sistematicamente derrubou a taxa de juros interbancária —
de 6,5% em maio de 2000 para 1% em junho de 2003 —, o que
estimulou o refinanciamento de hipotecas e os canais para tal. Como
ocorrera até 2007, juros mais baixos e novas modalidades de
financiamento permitiram que mais gente comprasse casas até então
além de seus meios; a valorização de imóveis elevou
consideravelmente o patrimônio dessas famílias; e oportunidades
mais eficientes de refinanciamento permitiram que essa elevação
fosse convertida em dinheiro, alimentando o consumo e o
crescimento econômico geral. Que político ou autoridade reguladora
buscaria interromper esse ciclo aparentemente virtuoso?

Entender o uso e o usuário

Suponhamos que o leitor tenha criado um modelo basicamente


correto: ou seja, um modelo que não desafie as leis da natureza ou
da não arbitragem, e que tampouco contenha premissas
evidentemente falhas. Suponhamos, ainda, que seja mais completo
do que outros modelos atuais. Ainda assim, nada garante que surtirá
efeito em seu caso. A utilidade de um modelo não depende apenas
do modelo em si, mas também de quem o está usando e com qual
finalidade.

Vejamos primeiro a questão da finalidade. Ninguém optaria por uma


Ferrari para circular por um caminho acidentado e tampouco por
uma Land Rover para fazer bonito numa “autostrada” italiana. No
caso da Black-Scholes, é o mesmo: a fórmula não dá uma estimativa
suficientemente boa do valor de opções para a negociação desse tipo
de instrumento a velocidades elevadas, atividade que exige cotações
em tempo real. Por outro lado, modelos usados para operações a
ritmo acelerado são inúteis para a declaração, à luz de princípios
contábeis geralmente aceitos, da despesa com opções de ações
concedidas a executivos em demonstrativos de empresas. Nesse
contexto, é importante que as engrenagens do modelo sejam
transparentes, que o modelo possa ser aplicado igualmente por
distintas empresas e que os resultados apresentados possam ser
reproduzidos e verificados por terceiros. Aqui, a clássica fórmula de
Black-Scholes garante a padronização e a reprodutibilidade
necessárias, pois funciona com um número limitado de variáveis
cujo valor estimado é de caráter público.

Um modelo tampouco é confiável se a pessoa que o usa não o


entende ou desconhece suas limitações. Para a maioria dos alunos
do ensino médio, um modelo razoável para estimar a circunferência
de um c

írculo é o que trabalha com o valor de 22/7 para pi. O resultado


obtido terá uma aproximação de umas duas casas decimais, o que
em geral é suficiente para trabalhos nesse estágio do aprendizado.
Aqui, dar ao aluno um modelo muito mais complicado seria como
entregar a chave da Ferrari lá atrás. Além de grande a chance de que
bata o carro, o estudante não precisa se deslocar com tanta
velocidade para a escola.

Ao pensar em quem usa um modelo e com que finalidade, em geral é


preciso repensar o que qualifica uma pessoa para uma determinada
tarefa. Para muitos, o herói do filme Top Gun, interpretado por Tom
Cruise, seria o ideal do piloto de caça: um sujeito ousado, que rompe
regras e aposta no instinto em vez de se fiar no instrumental do jato.
Han Solo, o personagem de Harrison Ford em Guerra nas Estrelas,
segue o mesmo molde. Só que, hoje, o ideal para um caça é ser
operado por sistemas computadorizados que reagem a mudanças
externas no ambiente em milésimos de segundos, velocidade que ser
humano nenhum tem como equiparar. Aliás, colocar um sistema
aeronáutico sofisticadíssimo, de zilhões de dólares, nas mãos de um
rebelde destemido seria algo bastante arriscado. O melhor piloto,
aqui, pode ser alguém que entenda muito de computador, conheça o
modelo de cabo a rabo e seja treinado para captar rapidamente
qualquer sinal de que não esteja funcionando corretamente, situação
na qual a melhor resposta provavelmente seria abortar a missão em
vez de prosseguir.
O que importa não é discutir os méritos relativos de pilotos
destemidos e de geniozinhos da computação. É, antes, demonstrar
que um modelo só pode ser realmente avaliado como um tripé:
modelo, aplicação e usuário. Um modelo mais completo, mas mais
complicado, pode acarretar riscos maiores do que um modelo mais
rudimentar caso o usuário não seja qualificado para a tarefa. Um
exemplo é a recente crise da classificação de risco nos EUA. O erro
na aplicação de modelos explicaria por que tantos gestores de
investimentos tiveram perdas tão grandes com títulos classificados
com AAA, como mostra o boxe “Classificação de risco não é tudo”.

Checar a infraestrutura

Por último, ao considerarmos as consequências de uma inovação, é


preciso reconhecer que seus benefícios e riscos são, em grande
medida, determinados não por escolhas feitas por indivíduos sobre
como usá-la, mas pela infraestrutura na qual é inserida. Inovadores
e governantes, em particular, devem estar atentos a esse risco.
Suponhamos, por exemplo, que uma rede ferroviária queira operar
um trem de passageiros de alta velocidade.
Se os trilhos do sistema atual não comportarem altas velocidades e,
por ignorância ou alta tolerância ao risco a operadora da malha
optar por rodar o trem a altas velocidades, em algum momento
haverá uma colisão, com consequências desastrosas para os
passageiros. Além disso, é bem provável que isso destrua os trilhos,
o que significa que todos aqueles que usam a rede acabarão sendo
afetados. Usuários não vão conseguir chegar ao trabalho, hospitais
não receberão novos equipamentos e por aí vai.

Logo, a primeira tarefa dos responsáveis pela malha ferroviária é


garantir que os trilhos comportem com segurança os trens que
rodam por ali. E o que fazer quanto ao trem de alta velocidade? A
resposta mais simples e imediata é impor um limite seguro de
velocidade. Mas se essa for a única resposta, não vai haver progresso
no transporte ferroviário — por que perder tempo criando um trem
de alta velocidade se será impossível operar a altas velocidades?

Uma solução melhor é começar a modernizar os trilhos e, ao mesmo


tempo, impor tetos à velocidade até que o vão tecnológico que separa
o produto da infraestrutura tenha sido fechado. Infelizmente, na
vida real nem sempre é fácil achar respostas simples como essa, pois
poucas inovações de vulto serão um sucesso tão óbvio como o trem
de alta velocidade (e tenho certeza de que há gente que questione
essa inovação também). O ritmo de inovação em alguns setores é
altíssimo, mas a taxa de insucesso também. Em geral, portanto, é
bastante inviável mudar a infraestrutura para acomodar toda
inovação que chega. Além disso, a vida útil de uma inovação
espetacular pode ser muito menor do que a de um trem de alta
velocidade, o que significa que, para acompanhar o ritmo, seria
preciso submeter a infraestrutura a mudanças constantes.

O fato é que mudanças na infraestrutura em geral ocorrem depois de


mudanças em produtos e serviços — desequilíbrio que pode ser
grande fonte de risco. Para o sistema financeiro, não é nenhuma
novidade. É só ver o quase colapso de sistemas de processamento de
transações com ações em muitas firmas de corretagem nos EUA
durante a alta das bolsas na década de 1970. A tecnologia de
processamento de ordens da época não tinha como lidar com o
volume inédito de transações que inundava a mesa de operações de
corretoras. O congestionamento significava que firmas e seus
clientes tinham informações incompletas e, em muitos casos,
imprecisas, sobre as respectivas posições financeiras. O problema
levou certas firmas ao colapso.

Graças à cooperação entre as principais bolsas de valores, chegou-se


a uma solução temporária. Durante um tempo, as bolsas limitaram o
horário de operação para permitir que as firmas eliminassem o
gargalo no processamento de pedidos e na conciliação de contas. O
problema subjacente só foi resolvido depois que corretoras e bolsas
fizeram pesados investimentos em novas tecnologias de
processamento de dados. Nesse caso específico, o problema de
infraestrutura foi resolvido sem intervenção do governo. Hoje,
contudo, dificilmente seria possível evitar tal intervenção se surgisse
um problema de magnitude similar com operações em bolsa. Devido
ao número de intermediários financeiros e bolsas de valores
(incluindo bolsas de instrumentos derivativos) no mundo todo, seria
extremamente difícil que iniciativas privadas de coordenação
voluntária dessem certo.

O risco trazido pelo desequilíbrio entre a inovação em produtos e


serviços e a inovação na infraestrutura é agravado pelo fato de que
produtos e serviços seguem evoluindo depois de lançados, e essa
evolução não é independente da infraestrutura. Suponhamos que
um banco ou corretora lance um produto customizado no mercado
financeiro. À medida que a demanda sobe, o produto ou serviço é
logo padronizado e começa a ser fornecido diretamente a usuários
por meio de um mecanismo de mercado, como uma bolsa, a custos
bem menores.

Foi o que aconteceu 50 anos atrás com a popularização de fundos


mútuos. Antes dessa novidade, a única saída para um investidor
isolado montar uma carteira diversificada de investimentos era
comprando uma seleção de ações em bolsa. Mas, exceto para um
punhado de grandes investidores, era algo caro e inviável — o custo
de transações em geral era elevadíssimo e papéis desejados
normalmente não eram negociados em lotes pequenos o bastante
para permitir uma boa diversificação. Com o surgimento de
intermediários agregadores como fundos mútuos, o pequeno
investidor pôde aplicar em carteiras consideravelmente mais
diversificadas. Mais tarde, outras inovações permitiram a criação de
contratos futuros para diversos índices de ações no mundo todo.
Esses contratos negociados em bolsa derrubaram ainda mais os
custos, aumentaram a diversificação no mercado americano e
abriram novas oportunidades para a diversificaçã

o internacional. Deram ao investidor flexibilidade ainda maior na


definição da alavancagem e no controle de riscos. Futuros de índices,
em particular, tornaram viável a criação de opções negociadas em
bolsa em carteiras diversificadas. Mais recentemente, intermediários
começaram a usar swaps de retorno de ações para criar contratos
customizados que especificam o índice de ações, o horizonte de
tempo do investimento e até a cesta de moedas para pagamentos.

Logo, o meio institucional de diversificação do investimento em


bolsa para pequenos investidores foi, a princípio, o mercado de
ações de empresas isoladas. Graças à inovação, esse mercado foi
substituído por intermediários como fundos mútuos. Em seguida,
com futuros de índices, o investidor mais uma vez podia aplicar
diretamente no mercado. Agora, vemos intermediários inovando
com fundos de índices (ETFs, na sigla em inglês) que permitem a
negociação de carteiras diversificadas em bolsa.

O risco desse tipo de dinâmica é, naturalmente, que fica muito difícil


a certa altura saber exatamente que mudanças são necessárias na
infraestrutura. Ainda que pudesse promover alterações na
infraestrutura para coincidir com a chegada de uma novidade, o
leitor talvez descobriria que num intervalo curtíssimo de tempo
essas mudanças já seriam irrelevantes, pois o produto já estaria
sendo vendido por distintos atores por meio de canais distintos para
distintos usuários que precisam dele para distintos fins. Para
complicar a coisa, mudanças na infraestrutura podem produzir
consequências involuntárias próprias.

Uma avaliação adequada dos riscos envolvidos em uma inovação


requer uma modelagem cuidadosa das consequências. Mas nossa
capacidade de criar modelos complexos o bastante para abarcar
todas as dimensões do risco é limitada. Toda inovação sempre
poderá trazer consequências inesperadas, e modelos são, pela
própria natureza, representações incompletas de realidades
complexas. Além disso, um modelo é condicionado pela proficiência
de seus usuários, e pode facilmente ser mal aplicado. Por último, é
preciso reconhecer que muitos dos riscos de uma inovação decorrem
da infraestrutura que a cerca. É particularmente difícil pensar em
todas as consequências, na infraestrutura, da inovação em setores
complexos e em rápida evolução como finanças e TI. No final,
qualquer inovação é um salto no desconhecido. Para que haja
progresso, no entanto, é um fato que precisamos aceitar e
administrar.

Robert C. Merton é titular da cátedra School of Management


Distinguished Professor of Finance na Sloan School of Management
(MIT) e University Professor Emeritus da Harvard University,
ambas nos EUA. Recebeu o Nobel de economia em 1997.

Você também pode gostar