Você está na página 1de 12

SUPERPREVISÕES: RESUMO

CAPÍTULO 01 – UM CÉTICO OTIMISTA:


 Principais tópicos: - Cético: teoria do caos
- O que são previsões - Otimista: fazemos previsões sempre
- Os limites da previsão - O futuro das previsões e computação

Bom, fato é que todos fazemos previsões. A todo momento, na verdade. Toda tomada de decisão se baseia na escolha da
alternativa que mais gerará recompensa futura – ou deveria o fazer. É normal vermos a ciência da antevisão ser exercida em
programas de televisão e jornais, as vezes por figuras como gurus e sabichões. Logo no primeiro capítulo, o auto expõe uma dura
verdade: a maioria deles está errada. Porém, temos outras figuras - na maioria das vezes, mais obscuras – que acertam com grande
precisão suas antevisões, pessoas denominadas como “superprevisores” por Philip Tetlock. A grande questão que será abordada
no livro gira em torno desses temas:

- O que é a antevisão e por que ela é tão pouco pesquisada hoje em dia?

- Quem são os supervisores, o que os diferencia e como posso me tornar um?

- Por que confiamos em pessoas com histórico de acertos preditivos tão péssimo?

 AQUELA DO MACACO JOGANDO DARDOS:


Vou direto ao ponto: em uma pesquisa guiada pelo autor do livro, foi possível constatar que prognósticos e previsões feitas por um
grupo de especialistas tem a precisão média similar a um macaco jogando dardos. É isso mesmo. Um chimpanzé, sendo mais
específico.

O autor cita se incomodar não com a piada feita de sua pesquisa (afinal, ela tem um quê de verdade), mas sim com a generalização
formada a partir de sua conclusão. A pesquisa demonstra os limites da antevisão em um mundo tão complexo, tanto para
sabichões quanto superprevisores. Porém, conforme chegava ao público geral, sua resolução era entendida como “previsões são
totalmente erráticas e inúteis”, o que era exatamente o contrário do que tentava-se provar com o experimento.

Assim, o autor cita que, hoje, após tantos anos de pesquisa, se vê como um “cético otimista” em relação a essa ciência, tentando
explicar um pouco de cada lado para nós em suas sessões:

 O CÉTICO:
Vivemos em um mundo incerto – e essa é a única certeza que temos. Para demonstrar um pouco de quão imprevisível nosso dia a
dia é, o autor nos leva para a Tunísia de 2009/2010, mais especificamente, nos leva para o dia a dia de Mohamed Bouazizi. O
jovem vivia uma vida sofrida, entretanto, comum no país. Levantava-se cedo para vender suas frutas no mercado municipal da
cidade, onde arrecadava o dinheiro que alimentava sua casa. Porém, certo dia, uma ronda policial o para e confisca seus bens.
Bouazizi já sabia que essa era apenas uma tentativa dos policiais de arrancarem parte de sua receita – a famosa extorsão, até então,
prática corriqueira no país. Eles não conseguiram o que queria, na realidade, aquela ronda policial despertou, de maneira
inconsciente, a ira coletiva dos países árabes. Bouazizi, cansado daquela condição em que vivia, comprou um galão de gasolina e
ateou fogo a si mesmo em frente ao prédio do governo de seu município. A condição do jovem gerou protestos, os quais se
espalharam e, ao todo, derrubaram mais de 5 ditaduras, além de diversas mudanças governamentais importantes.

A questão que o autor tenta apontar é que, ao desenharmos essa linha narrativa, parece muito fácil antever o que se daria por vir
nesses países autoritários. Porém, se nos colocarmos na condição de cidadão ocidental antes de 2009, poderíamos ver que era
dificílimo que tal evento fosse previsto por qualquer um.

Assim, chegamos ao ponto que torna o autor tão cético: vivemos um mundo caótico. A Teoria do Caos é real e sempre esteve
presente em nosso dia a dia, porém, no mundo acelerado pela tecnologia, o efeito borboleta tem suas proporções ampliadas de
maneira exacerbada.
Em um mundo onde ações de um homem praticamente impotente podem levar a queda de um governo, fica muito difícil prever
com exatidão a sequência dos fatos de nosso dia a dia.

 O OTIMISTA:
Entretanto, não devemos desmerecer o que foi dito no começo desse resumo. Fazemos previsões a todo o momento. Se você saiu
de casa com um casaco, fez uma previsão. Se você acordou mais cedo hoje, fez uma previsão. Se você optou por não comer um
doce, fez uma previsão. Precisamos fazer previsões constantemente em nosso dia a dia. Claro, existem coisas que são
imprevisíveis. Pode ser, por exemplo, que a condição da Tunísia leve a um aumento nos preços da gasolina, porém, isso está
completamente fora de nosso radar convencional.

O ponto colocado pelo autor consiste em refutar a dicotomia nos imposta: muitas vezes fantasiam a realidade sistemática como
um relógio ou abstrata como uma nuvem. Porém, ela está muito além desse eixo, na realidade, existem fatos que são sistemáticos
e outros que são mais abstratos, e somente essa condição pode ser afirmada. A escolha imposta é uma falsa dicotomia.

Os meteorologistas são um bom exemplo dessa condição, afinal, não há nada mais imprevisível que o clima (tanto que foi daí que
surgiu a Teoria do Caos). Prever o tempo para os próximos cinco dias é fácil e nos traz resultados confiáveis. Prever para os
próximos cinco meses é arriscado e pouquíssimo preciso. A mesma coisa acontece para outras previsões: conforme o período
projetado é mais próximo ao momento atual, mais preciso será e menor será o efeito caótico sobre o cenário.

Portanto, a previsão é sim possível. Entretanto, existem limites. Isso não é ruim na verdade, afinal, conhecer os limites da previsão
em si só já é um êxito.

O autor nos aponta, logo em seguida, uma falha grave por parte dos consumidores das previsões: não demandarem evidência de
acerto. Por isso, não é raro que charlatões e outras figuras com históricos de previsões horrível tenham tanta participação em
programas e jornais, mas falaremos disso mais adiante. Porém, o ponto é que, toda essa dúvida em torno da previsão é excitante.
Para os cientistas as incógnitas são maravilhosas, afinal, podem ser resolvidas, descobertas. Essa falta de rigor presente nas
previsões atuais dá espaço a um avanço exponencial nessa indústria.

 UMA PREVISÃO SOBRE A PRÁTICA DE PREVISÕES:


Por fim, terminamos o primeiro capítulo com uma rápida análise e resposta do autor a um artigo publicado ainda na década de 60.
Nele, um professor de psicologia comparava humanos aos computadores na tarefa de antever a nota dos alunos com base em suas
notas passadas e percentual de presença em aula. A grande surpresa veio na conclusão: computadores acertaram mais.

A questão colocada por Philip é que computadores foram feitos exatamente para isso: entender a mente humana e replicá-la.
Todavia, jamais serão capazes de executar o juízo subjetivo inerente ao nosso cérebro. Há uma diferença entre imitar e originar
significados.

O que está em queda é o modelo de “guru”. Como apontado pelo autor, é muito provável que as pessoas passem a estranhar os
juízos de não especialistas no assunto, tomando apenas sua opinião como embasamento.

Portanto, o futuro da previsão não será apenas máquinas ou apenas humanos, mas sim, uma junção de ambos. As máquinas podem
desviar dos vieses cognitivos que tanto nos afetam, enquanto nós podemos avaliar e oferecer o juízo subjetivo que falta as
máquinas. Portanto, teremos um futuro próspero para o mercado de previsões, porém, devemos entendê-lo primeiro.
CAPÍTULO 02 – ILUSÕES DE CONHECIMENTO:
 Principais tópicos: - Substituição de Atributo (ou Propaganda Enganosa)
- Aplicação da estatística e método científico - Perspectiva Ponta-Do-Seu-Nariz
- Sistema de pensamento dual: sistema 1 e 2 - Piscar vs. pensar
- Teste da Reflexão Cognitiva - Ciência de Culto a Carga
- WYSIATI - Dúvidas e modelos imperfeitos (Teoria do Caos)

Nesse capítulo vamos tentar demonstrar o quanto a previsão pode evoluir, mas para isso, usaremos de um modelo histórico, um
exemplo: a medicina. O autor descreve a história médica como “longa e miserável”.

Ok, podemos entender o longo, afinal, tentamos entender como medicar desde que ficamos doentes. Porém, o que justifica o
adjetivo “miserável”?

Se analisarmos historicamente, faz pouco tempo que a medicina se tornou algo, de fato, avançado. Até pouco tempo atrás
tínhamos tratamentos baseados em puro achismo.

Veja o exemplo de George Washington. Quando a ilustre figura foi afetada por doenças, seus médicos passaram a realizar
sangrias, ministrar mercúrio e induzir vômitos no paciente, acreditando que isso o faria melhorar. A sua sobrevivência era mais
garantida caso você evitasse a qualquer custo encontrar um médico, porém, poucos sabiam desse fato naquela época. Agora,
poucos sabiam disso por um motivo específico: não havia medição ou comparação alguma.

Veja o que se seguiu: Washington morreu. Diante desse quadro, você não tira nenhuma conclusão sobre a eficiência do
tratamento. Você pode falar que, caso não tivesse sido tratado, não teria “durado” tanto tempo, ou teria uma morte mais dolorosa.
Você poderia falar que ele só morreu pois era um caso a parte. A única conclusão do episódio é que era impossível tirar conclusão
alguma. Na realidade, pode ser que o tratamento tenha colaborado para seu tempo de vida, feito uma diferença imperceptível ou
acelerado sua morte, entretanto, nunca saberemos ao certo qual das alternativas de fato aconteceu.

Logo em seguida conhecemos o exemplo de Galeno, um médico romano exclusivamente dedicado a imperadores. Em suas
declarações, afirmava ser o único conhecer da verdade, o único capaz de tratar de maneira eficiente seus pacientes. E o que dizia
quando seu paciente sucumbia? Ora, alegava ser um caso incurável.

Galeno, mesmo sendo um dos mais influentes médicos, conduzindo gerações inteiras com suas prescrições, nunca conduziu algo
como um experimento moderno. Afinal, experimentos são para aqueles que não tem certeza do que é o melhor, e a autocrítica
presente nesse conceito falta a Galeno. Claro, esse é um exemplo extremo, porém, esse tipo de figura se repete. São pessoas com
forte convicção e total confiança em seu bom senso. E assim foi perpetuada a medicina, como uma ciência pouco útil e um tanto
quanto perigosa. Muitas vezes teorias ortodoxas eram discutidas academicamente, porém, nem sequer faria diferença a resolução,
afinal, ambas as teorias eram pouco eficientes em tratamentos. Os médicos eram como cegos discutindo a cor do arco-íris.

Somente no século 20 a ideia de experimentos randômicos passou a ser popular. A ideia é simples: se tratarmos dois pacientes
idênticos de duas formas diferentes, poderemos avaliar o quadro de cada um e assim determinar o tratamento mais eficaz. Porém,
há uma implicação na sentença: é impossível termos dois indivíduos idênticos sobre as exatas mesmas situações e com as exatas
mesmas especificidades. Portanto, a solução está na formação de grupos designados aleatoriamente, para que, dessa forma,
qualquer diferença seja contrabalanceada no outro grupo. Apesar de não ser perfeita, é uma ótima solução. Devemos nos lembrar
que, nesse mundo caótico, não há perfeição alguma.

Hoje isso parece óbvio demais, porém, naquele momento foi revolucionário. E isso se deve ao fato de que a medicina, até então,
nunca fora científica. Por vezes colheu frutos da ciência, como a teoria microbiana e o raio X, assim, tomava ares de ciência.
Todavia, nunca foi, de fato, uma ciência.

O autor designa aquele estado em que a medicina se encontrava até então de “ciência de culto à carga”, um termo depreciativo
referente a um objeto que transmite uma imagem, apesar de não ser nada do que parece. Assim ocorria com a medicina até então:
tinha cara de ciência, mas não passava de “achismos” mal embasados.

O que faltava na medicina até então era dúvida. A dúvida que mostra para que caminho devemos seguir e, quando não está
presente, passamos a entender qualquer tratamento como suficiente. Foi a ausência dessa dúvida e rigor científico que levou a
medicina a estagnação secular.

 PONDO A MEDICINA A PROVA:


CASE: No início dessa sessão somos apresentados a Archie Cochrane, um curioso médico que, certo dia, foi avisado de que
possuía um carcinoma basocelular. Ele não viu motivos para se preocupar, sabia que esse tipo de câncer raramente se espalhava.
Porém, por precaução, foi a um famoso oncologista, verificar a situação. O médico em questão descobriu um pequeno caroço na
axila de Archie. No mesmo momento, foi feita uma operação de retirada daquele nódulo. Ao acordar, entretanto, Cochrane estava
com se peito totalmente enfaixado. Vou avisado de que todo o seu músculo peitoral inferior estava consumido pelo câncer. O
médico acreditou cegamente, se pondo aos prantos. Poucos dias depois, após a breve análise de um patologista, foi constatado
que, na verdade, o tecido não estava com células cancerígenas. Muito pelo contrário, estava perfeitamente saudável. Assim,
constatamos uma série de problemas no caso. Por que Cochrane acreditou fielmente no julgamento alheio, sem questionar? Por
que o próprio oncologista não desconfiou de seu próprio julgamento antes de tirar uma parte do peito do paciente?

Apesar da proposta estatística aparecer em meados do século 20, a experimentação aleatória só foi adotada de fato após a Segunda
Guerra Mundial, passando por um período dolorosamente marcante da humanidade. A demora entre concepção e implementação
foi causada, principalmente, pelos esforços do establishment em não abandonar a ideia de que existia apenas um juízo verdadeiro
e correto na medicina. Cochrane, um proeminente cientista a favor da implementação do método científico na medicina criticou o
comportamento de seus colegas, o batizando de “complexo de Deus”. Esse complexo seria, basicamente, dizer que você é o único
dono da Verdade, um ser superior que sabe de algo que ninguém mais sabe.

Cochrane resolveu colocar essa implicação com a verdade a prova através de um teste prático. Certa vez implementaram unidades
de tratamento cardíaco no hospital em que trabalhava. Cochrane sugeriu que fizessem um teste com o novo método, comparando
sua eficácia em relação ao anterior – mandar o paciente para casa e recomendar repouso. Todos foram contra, alegando que o
novo tratamento obviamente era superior. Cochrane era um indivíduo acostumado a confortar autoridade, não deixaria de
confrontar naquela ocasião. Dito e feito: após severos testes, chegou à conclusão de que, apesar da diferença não ser
estatisticamente notável, o antigo método era mais eficaz. Ao mostrar sua resolução aos colegas, os deixou de queixo caído.
Demonstrou, ao vivo, o quão falho eles podem ser.

E aqui entra essa reflexão sobre a estatística. Cochrane determina que a única alternativa a um experimento controlado que dá
percepções reais é um experimento descontrolado, no qual nenhum resultado diz algo de fato, portanto, todo o experimento pode
ser interpretado de acordo com o viés do leitor. Para exemplificar o segundo caso, o autor traz a mesa uma resolução do governo
Thatcher, no qual se determinou que delinquência juvenil seria punida em cadeias espartanas. Após o experimento, surgiu a
dúvida: ele de fato funcionou? E a resposta é simples: é impossível saber. Se os níveis de criminalidade juvenil aumentassem,
seria possível alegar que sem a lei aumentariam ainda mais. Se abaixassem, poderiam dizer que foi um sucesso. Se estabilizassem,
poderiam dizer que a lei trouxe estabilidade. Em todos os cenários, há um sucesso. Logo, é impossível responder se a lei ajudou,
prejudicou ou é inútil.

A intuição dos governadores da época impediu que um avanço social fosse feito. Caso um estudo randômico e controlado fosse
adotado, haveria uma resolução clara do que pode resolver o problema. O complexo de Deus dá a sensação de que somente a
intuição das pessoas é o suficiente para fazê-las tomar decisões importantes, como se ela já nascesse preparada.

Essa sessão se finaliza registrando novamente o dizer de Cochrane: “somente a intuição não é o suficiente para tomar boas
decisões”. Porém, além de constatações, temos mistérios: se a afirmação de Cochrane é tão óbvia, por que insistimos nesse erro?
E, se mesmo Cochrane sabia que poderia haver alguma falha na análise do médico, por que confiou cegamente que estava com
câncer?

 PENSANDO SOBRE O PENSAMENTO:


Portanto, devemos observar a própria ciência de pensar. Daniel Kahneman determina que somos compostos por um sistema de
pensamento dual em “Rápido e Devagar”.

O Sistema 1 consiste em dar respostas rápidas e intuitivas, algo mais instantâneo. É totalmente inacessível por nós, um obscuro e
um completo vazio. Não temos como observá-lo de maneira consciente ou alterar suas decisões por um viés arbitrário. Por outro
lado, o Sistema 2 é aquele que conhecemos bem: composto pelo juízo subjetivo e a presença de nossa consciência diretamente. É
nele que avaliamos alternativas e validamos perspectivas, aquele que sabemos que está ali de maneira consciente.

Para que você mesmo verifique a existência desses dois sistemas, responda essa pergunta: “Uma loja vende uma bola de futebol e
um taco de golf por R$1,10. A bola de futebol custa R$1 a mais do que o taco. Quanto custa o taco?”.

Provavelmente você respondeu R$0,10. Está errado.

Esse foi o seu Sistema 1 colocando em prática a resposta intuitiva e automática sobre a questão. Você não controlou isso, a
resposta apenas veio em um piscar de olhos. E isso é o esperado.
Agora, coloque o seu Sistema 2 em funcionamento e avalie a qualidade dessa resposta. Verá que está errado e, na verdade, deveria
responder R$0,05.

Essa é a diferença entre os sistemas. Historicamente, o Sistema 1 já foi muito útil, afinal, os antepassados que reagiam mais
rapidamente a uma informação do sistema, eram aqueles que sobreviviam (os que reagiam mais rapidamente ao ver a sombra de
um tigre, por exemplo).

Podemos igualar o Sistema 1 à intuição e o Sistema 2 ao raciocínio lógico. E vale ressaltar que não há nada de errado com esses
sistemas, ambos são úteis em certas situações, assim como são pouco utilizados em outras. A questão que deve ser observada é
que o Sistema 1 segue uma psico-lógica primitiva: pressupõe que tudo que parece verdade, é. Assim, entendemos a tendência
humana de sempre se deixar levar por fortes palpites. No mundo paleolítico em que evoluímos, o Sistema 1 foi treinado para dar
conclusões precipitadas com mínimas evidências.

Uma característica que define o Sistema 1 é a sua insensibilidade em relação a qualidade do dado captado. Como precisamos de
um raciocínio à velocidade da luz, a questão “seria essa uma boa amostra de dados” é ignorada completamente. Assim, qualquer
evidência dada como disponível é tratada como suficiente e verdadeira, o que pode vir a deteriorar completamente todo o
processo. Esse entendimento é tão evidente que foi batizado por Kahneman como “WYSIATI”, ou seja “O que você vê é tudo que
há” em tradução literal.

Porém, apesar do Sistema 1 ser rápido e pouco cuidadoso, ele não dá qualquer resposta. O cérebro humano exige um senso
mínima de ordem, o que não é diferente para as decisões do Sistema 1. Assim, as conclusões achadas sempre são confabuladas em
um cenário possível de se explicar, mesmo que não tenha uma relação clara e verdadeira. Ou seja, inventamos histórias para
justificar nossas decisões.

Um experimento de Michael Gazzaniga provou isso de forma prática. Para provar, colocou algumas pessoas especiais em seu
experimento, chamadas de “cérebros divididos”. Essas pessoas passaram por um processo para melhorar suas condições de
epilepsia grave, na qual a ligação entre os hemisférios direito e esquerdo do cérebro fora seccionada cirurgicamente. A pessoa
continuaria vivendo normalmente, porém, os cientistas passam a poder acessar os hemisférios cerebrais individualmente ao
transmitir informações a apenas um lado dela, assim, é como se conversassem com duas pessoas diferentes ao mesmo tempo.

O experimento consistia em mostrar uma imagem X ao campo de visão esquerdo e pedir que o paciente apontasse uma figura que
estivesse correlacionada a ela de alguma forma. Em seguida, mostravam outra imagem no campo de visão direito, assim, trocando
o referencial do paciente até então. No caso relatado em livro, a foto de uma nevasca foi mostrada inicialmente, assim, o paciente
apontou a figura de uma pá como correlacionada – o que faz bastante sentido. Logo em seguida, a figura de uma galinha foi
mostrada ao outro campo de visão. A questão é que, após isso, Michael perguntava: “por que você está apontada para uma pá? O
que ela tem a ver com a galinha?”.

Ao invés dos pacientes falarem “não sei”, admitirem não saber, eles inventavam histórias para se justificar.

Esse impulso por fornecer explicações, geralmente, é algo bom, afinal, está por trás de muitos avanços em diversos campos da
ciência. O problema surge no momento em que passamos da incerteza e da confusão (“Não faço a menor ideia do por quê estou
apontando para uma pá”) para conclusões claras e confiantes (“Ah, é simples”), sem nem ao menos pensar entre um fato e outro,
sem ao menos considerar outras possibilidades ou assumir uma incerteza sequer.

Esse é o chamado “Viés da Confirmação”. Depois que formamos um insight em nossa mente, nos agarramos a todos os fatos que
comprovem nossa teoria – o que se opõe diretamente à cautela científica necessária nesses casos. Isso é humano e compreensível.
Para curar essa doença devemos procurar evidências que nos contradigam, que vão contra a história formulada.

A chave da questão é duvidar, sempre. Caso contrário, passamos a ser “céticos motivados”, pessoas que, ao se depararem com
uma evidência que contrarie sua história, a ignoram completamente ou acham motivos para duvidar – por mais débil que essa
atitude seja.

Essa interação entre o Sistema 1 e 2 - de fornecer uma conclusão objetiva baseada em uma evidência mínima e a estruturar de tal
forma que seja ampliada e contextualizada – não é ruim, na verdade, está por trás de descobertas fantásticas. A questão é que,
formular uma história precisa e convincente não a transforma em realidade, mas apenas em uma história convincente. Essa é uma
maneira pobre de explicar o mundo, tão complicada e tão confuso, mas uma ótima maneira de satisfazer a soberbia de seu cérebro,
sua compulsão por ordem.

Voltemos ao exemplo de Galeno. “Caso seja curado, meu método se prova como verdadeiro. Caso morra, era um caso incurável.”
Puro viés de confirmação.

 PROPAGANDA ENGANOSA:
Assim, entendemos como pode o cirurgião ter acreditado tão fielmente que Cochrane possuía câncer. Viu o tecido e percebeu que
estava diferente, portanto, era câncer. Total certeza. Quando informou a Cochrane, o próprio se lembrou que já se expôs a raios X
durante outro experimento, logo, era câncer. Sem alternativas. O senso cético de ambos caiu por terra, Cochrane acreditou tanto
quanto o médico, foi convencido. Porém, outro processo além do viés da confirmação provavelmente estava se passando por sua
mente: a substituição de atributo (conhecida também como propaganda enganosa). A operação consiste em substituir questões
difíceis por outras mais fáceis. Assim, consideramos a resposta da primeira como sendo igualmente válida a segunda.

A heurística da disponibilidade, por exemplo, é uma manobra do tipo “propaganda enganosa” e, assim como todas as heurísticas e
como o Sistema 1, ocorre de maneira inconsciente.

Falando dessa forma parece que sempre estamos alheios a própria mente, mas, na realidade, muitas vezes caímos nesse erro
mesmo conscientes. Voltemos ao Cochrane: um médico que conhecia as possibilidades de ter câncer, bem como tinha ciência do
“complexo de Deus” que poderia levar o oncologista a cometer erros. Mesmo assim, acreditou cegamente. Isso provavelmente
ocorreu pois substituiu a questão: “Eu tenho câncer?” por “Esse é o tipo de médico que poderia diagnosticar um câncer?”.

A resposta foi: “É claro! É uma referência internacional, poderia diagnosticar com total certeza.”

Isso pode parecer óbvio, é claro que as pessoas tomam os pés pelas mãos e fazem emissões de juízo sem pensar. Mas, isso
também é relevador. Sabemos que deveríamos tomar decisões com mais calma, porém, quando nos deparamos com questões
complicadas simplesmente soltamos “dez centavos” como resposta. E essa é a chave: ninguém está imune.

Para nomear esse pensamento, poderíamos chamá-lo de “default”. Porém, nomeá-lo assim seria pressupor que basta virar uma
chave para sair dessa condição. E isso é impossível. Nunca deixamos o Sistema 1 de lado, ele está sempre ativado. Faz mais
sentido chamá-lo de “Perspectiva Ponta-do-seu-nariz”, a qual chamaremos de “PPN”.

 PISCANDO E PENSANDO:
Porém, nem tudo é totalmente descartável. Durante toda nossa vida somos apresentados a essa falsa dicotomia da intuição versus
análise – “piscar” vs. “pensar”. Essa escolha não existe, afinal, as melhores decisões são tomadas usando os dois métodos. Essa
sentença não é tão inspiradora quanto apontar uma escolha necessária, porém, tem a vantagem de ser verdadeira, como
comprovou um debate entre as duas frentes de pensamento.

Enquanto Daniel Kahneman divulgava os erros do Sistema 1, Gary Klein documentava as vantagens por trás do uso da intuição.
Ao invés de criarem um embate mitológico, preferiram por se unirem e discutirem as suas visões, compilando seus pensamentos
em um artigo.

Não há nada de místico por trás da intuição: é apenas um reconhecimento-padrão. Com treinamentos e experiência (famosa
“vivência”), aprendemos os padrões e passamos a reconhecer situações específicas. Porém, o preço pago por esse reconhecimento
são os falso-positivos, quando enxergamos um padrão onde não há nada. Exemplos disso são as imagens de um Virgem Maria
desenhada em uma torrada, ou em um bolor no formato do Michael Jackson. A nossa capacidade de enxergar padrões vem ao
custo dos falsos-positivos. Isso, além dos muitos outros modos como a PPN pode gerar entendimentos claros e errados, nos mostra
como a intuição pode funcionar tão espetacularmente quanto falhar.

Esse fato advém do nosso mundo, que nos fornece dados constantemente, os quais são registrados para uso futuro, porém, nem
sempre são válidos. Por exemplo: temos indícios suficientes ao longo de um incêndio de que um prédio está prestes a desabar,
porém, nem sempre temos informações disponíveis que nos mostrem até que ponto uma ação pode ir bem na Bolsa – caso
existisse, estaria refletida no preço. Assim, faz sentido confiar na opinião de um bombeiro sobre um desabamento, apesar de nem
sempre ser confiável a opinião de um corretor. Sem essas oportunidades de aprendizados oferecidas pelo teste de uma evidência,
uma intuição válida só pode ser atribuída a sorte.

O problema é que, dificilmente saberemos quando temos indícios realmente válidos, capazes de fazer a intuição funcionar. Ainda
assim, mesmo que sejamos claramente capazes de determinar que a intuição está certa, ainda sim a cautela é recomendada. Vide o
exemplo de Magnus Carlsen, campeão mundial de xadrez. É necessário que se decore mais de 30 mil jogadas para que sua
intuição seja considerada precisa. O prodígio diz que dificilmente demora mais de 10 segundos para saber o que fará como
próxima jogada, afinal, se demora muito mais que isso, começa a andar em círculos. Muitas vezes não sabe o porquê de ter feito
determinada jogada, apenas a faz. Ainda assim, diz que sempre reserva um momento de reflexão sobre a validade dessa intuição,
em uma “revisão cuidadosa”.

E esse é um hábito excelente. A PPN pode ser maravilhosa, porém, pode ser enganadora.
CAPÍTULO 03 – DE OLHO NOS NÚMEROS:
 Principais tópicos:

- Avaliação de previsões - Calibração e Resolução


- A capacidade de avaliarmos juízos - Índice de Brier
- Estimação e quantização - Parâmetros e comparabilidade
- Metacognição e responsabilidade - Grande Ideia vs. Ecléticos (Porcos-espinho e Raposas)
- Falácia do “Lado errado do talvez” - Perspectiva Capitão Kirk (Visão de Libélula)

E então, quando notaram o poder da estatística, os médicos passaram a adotar as medições em seu dia a dia. Levar essa prática ao
cenário das previsões pode parecer tão simples quanto, mas não se engane. Na prática, o primeiro passo para definir a precisão das
previsões de alguém é o julgamento, porém, para que seja executado sem parcialidade alguma, não pode haver ambiguidades na
sentença.

Vamos pegar, por exemplo, Steve Ballmer. Em 2007, quando ainda era um executivo da Microsoft, pronunciou sua infame
sentença: “Não há possibilidade alguma de que o iPhone domine uma fatia significativa do mercado. Nem a menor chance.”

Hoje em dia, entretanto, apenas o iPhone gera tanta receita quanto a Microsoft inteira. Um único produto. Porém, vamos com
calma. O que Ballmer quis dizer de fato?

O que significa “fatia significativa”? E se referia ao mercado de onde, América do Norte ou Mundo? E ao mercado de quê,
celulares em geral ou smartphones?

O primeiro passo para avaliar uma previsão é julgá-la, porém, não pode haver a menor brecha para pressuposições por parte do
avaliador, caso contrário, estaria distorcendo a previsão. Portanto, essas ambiguidades contidas em previsões rotineiras devem ser
eliminadas por completo. E tome cuidado com o julgamento prévio feito pela sua mente, afinal, é muito comum que previsões que
pareçam claras como janelas recém-lavadas se revelem opacas demais para serem avaliadas como certas ou erradas.

Nesse capítulo, o autor começa refletindo sobre essa dificuldade em avaliar previsões, uma atividade exaustiva que o levou a
perceber isso da pior forma: na prática.

 JULGANDO JUÍZOS
Toda essa questão nos leva a pensar sobre previsões de especialistas. O autor comenta que, em um certo almoço com Daniel
Kahnemann conjecturou a respeito, chegando à conclusão de que, de fato, inteligência e conhecimento ajudam as previsões,
porém, os benefícios diminuem rápido. É provável que a diferença de precisão entre um especialista e um leitor ávido do New
York Times seja baixa. Mas isso é apenas uma conjectura. Porém, o fundo de verdade é que, no final das contas, ninguém nunca
analisou a precisão de analistas políticos e especialistas em determinados assuntos. Ao refletir sobre a questão já entendemos por
quê.

O primeiro problema está relacionado à linha do tempo: previsões sem prazo determinado são absurdamente ambíguas. Muitas
vezes pode parecer apenas desonestidade por parte do previsor. Pode ser que sim ou que não, porém, na maioria das vezes, o dado
é ocultado por um entendimento implícito e compartilhado de uma linha do tempo imaginária, por mais inexata que pareça. Ou
seja, cada um dos envolvidos possui um prazo em mente. O problema se revela com o passar do tempo, quando as datas chegam,
as memórias se perdem e, as datas que antes pareciam óbvias, deixam de ser. Assim, começa um embate em torno do significado
da previsão, para que período de fato apontava. Só o problema do prazo já torna as previsões extremamente dificultosas.

Para além disso, temos também a substituição de definições explícitas por termos de compreensão implícita, ou seja, uma
derivação da responsabilidade da previsão do previsor para o ouvinte. O exemplo de Ballmer deixa isso claro – por que não
definiu o que seria uma “fatia significativa do mercado”?

Só esses dois problemas (prazos indefinidos e termos de definição implícita) já são responsáveis por grande parte dos percalços no
juízo de previsões. Porém, há outro muito maior: a definição de probabilidades.

Vamos tomar como exemplo a previsão de Jonathan Schell em seu livro “Fate of the Earth”, onde ele diz que, caso as nações não
se livrem de suas armas nucleares “um holocausto irá ocorrer”. Bom, até hoje estamos são e salvos e nenhuma nação se livrou de
suas armas nucleares.

Schell estava errado? Depende.


Só poderíamos saber se repassássemos a nossa história centenas de vezes, de modo a determinar em quantas delas acabamos em
destroços nucleares. Claro, não temos tal capacidade, mas, supondo que tivéssemos e encontrássemos um cenário de 63% dos
casos terminados em holocausto, Schell estaria correto? Depende. O que ele quis dizer com “irá ocorrer”?

Isso pode parecer uma mera implicação semântica, um jogo de palavras, mas é mais do que isso. Isso pois, dependendo do leitor,
o significado de “irá ocorrer” pode variar de 50% a 100%. E isso deve ser evitado.

Uma pesquisa de Sherman Kent comprova isso. O cientista trabalhava na famosíssima CIA, mais especificamente, na divisão de
inteligência e previsões de eventos políticos futuros. Kent amava a palavra “estimar”, dizendo que é aquilo que se faz quando não
se sabe o que está por vir (e ele enfatizava que nunca sabemos o que está por vir). Kent participou por muito tempo do Gabinete
Oficial de Estimativas, como estimador profissional, uma profissão obscura e tremendamente importante para a época. Sua
palavra tinha peso, cada relatório era lido pelo próprio presidente. Ele sabia que deveria tomar cuidado.

No relatório 29-51. Kent e sua equipe dissertaram sobre a possibilidade de ocorrer um ataque por parte da União Soviética sobre a
Iugoslávia, indicando uma “séria possibilidade de ataque” por parte da União Soviética. A questão é que, momento mais tarde, em
uma reunião com executivos e colegas, foi questionado a Kent o que, de fato, significava o termo “séria possibilidade”. Kent
indicou que, segundo sua equipe, esperava algo como uma chance de 65 para 35 a favor do ataque. Seu colega levou um susto,
dizendo que ele e seus pares que também leram o relatório o interpretaram como uma possibilidade muito menor.

Assim, Kent partiu para seu laboratório e fez uma pesquisa, perguntando a cada membro da equipe o que viria a ser uma “séria
possibilidade”. Recebeu respostas variadas, desde 20 para 80 quanto 80 para 20. Ele percebeu o quão perdida sua própria equipe
estava. A sua análise, que até então parecia tão informativa, chegou ao ponto de ser similar ao inútil – ou até pior, já que gerava
perigosos desentendimentos.

Assim, Kent tomou algumas medidas: primeiro, se certificou de que a palavra “possível” seria reservada para uso em cenários
extremamente incertos e ambíguos. Em seguida, definiu um quadro com os termos que deveriam ser utilizados de acordo com as
probabilidades (representando, por exemplo, o campo de 63% a 87% de certeza com a palavra “provável’). O problema é que esse
esquema nunca foi adotado.

Entre diversos problemas que foram apontados, dois apareceram com frequência: repulsa estética e artificialidade/dificuldade no
uso. Os dois convergiam ao mesmo ponto: usando de número você parecia mais um agenciador de apostas do que um mero
mortal. Falavam que a língua possui sua própria poesia, que não pode ser resumida em números. Ou seja, tinham medo de
expressar de maneira verdadeira o que queriam dizer. Pode ser que o uso de um número de “ares de ciência exata” ao juízo
subjetivo, de tal forma que pareça que aquela é a única resolução possível, advinda de uma fórmula determinada. Isso é perigoso,
mas a maneira certa de tratar o problema está na conscientização do leitor, e não na exclusão dos números nas análises.

Porém, há outro empecilho real que pode atrapalhar no uso dos números nas previsões, chamada de “falácia do lado errado do
talvez”, que está diretamente interligada a responsabilização. A questão é que previsões sempre presumem um grau da
possibilidade de ocorrer tal fenômeno. Por exemplo, temos a previsão do tempo. Em um certo dia, o repórter diz que há uma
chance de 70% de chuva. Caso não chova, a previsão estava errada? Não necessariamente, afinal, havia 30% de chance de não
chover. Só saberíamos se a previsão estava acertada de fato repassando o mesmo dia diversas vezes, o que é impossível – logo não
há maneira de julgarmos o juízo da previsão. A questão é que as pessoas julgam. E sempre julgam da mesma forma: avaliam de
que lado estava o talvez – a menor probabilidade – e, caso ela se concretize, dão ao previsão como errada. Dessa maneira, há mais
um incentivo por parte do cenário em que nos encontramos para que nos aproximássemos da flexibilidade oferecida pela
linguagem, como uma forma de escapar desses julgamentos.

Portanto, denotamos dois fatores que atrapalham demais enquanto avaliamos a qualidade de certas previsões: elas devem ser
exatas e usar números (i) e deve haver um grande número de previsões para que determinemos a habilidade de antevisão de
alguém (ii), afinal, uma única previsão pode estar certa ou não (e nunca saberemos pela impossibilidade de voltar no tempo).

Devemos explicar melhor o segundo empecilho: veja bem, se um meteorologista diz que há 70% de chances de chover e não
chove, não podemos constatar nada. Porém, quando pegamos as suas previsões de muitos dias, podemos medir sua calibração. Se
choverem 70% das vezes em que ele diz que há 70% de chance de chover, teremos um indivíduo perfeitamente calibrado. Um
excesso de confiança gerará um indivíduo descalibrado positivamente (ou seja, chovem apenas 50% das vezes que ele aponta em
que há uma chance de 70% de chuva), assim como podemos ter um indivíduo descalibrado negativamente, com falta de confiança.

Como esse processo é contínuo e constante, é muito aplicável ao exemplo da previsão do tempo. Para outros casos, é totalmente
impraticável - como em eventos raros. Até mesmo em eventos comuns essa atividade pode parecer penosa, por isso, é importante
manter a paciência ao longo do processo.
Porém, apenas a calibração não determina muita coisa. Uma pessoa 100% calibrada não é perfeita, na verdade, isso seria a
onisciência divina. Seria o equivalente a dizer “vai acontecer’ e de fato se concluir. Devemos avaliar outra métrica, a “resolução”.
Isso se refere as probabilidades que são atribuídas na conclusão da análise.

Quando temos um indivíduo que acerta 40% das vezes em que aponta uma chance de 40%, ele possui uma calibração perfeita,
porém, sua resolução é pobre. Isso se deve pois ele não saiu da região ambígua que está em torno do 50%, entre 35% e 65%.
Logo, apesar de estar calibrado, é acovardado. Por outro lado, podemos ter um previsor que acerta em 80% das vezes que atribui
uma chance de 80%, o caracterizando como perfeitamente calibrado e dotado de boa resolução.

Assim, formamos um sistema de pontuação de acordo com as previsões. Esse é o chamado “índice de Brier”. A sua nota varia de
0 a 2, sendo o 0 a onisciência divina e o 2 a aposta diametralmente oposta a realidade (o mais longe possível da Verdade
Absoluta). O 0,5 seria o famoso cinquenta-cinquenta, a média alcançada por chimpanzés atirando dardos.

Porém, o índice de Brier não pode ser interpretado ao pé da letra. Deve-se sempre manter em mãos outros dois aspectos:
parâmetros e comparabilidade.

Olhando em um contexto geral, um índice de Brier de 0,2 parece ótimo (e de fato é). Porém, temos diversas situações onde esse
número pode se tornar decepcionante. Como por exemplo, a previsão do tempo no deserto do Saara. É muito fácil acertar quando
estará quente e quando estará frio, considerando seu histórico consistentemente repetitivo. Por isso, deve-se ter noção de que esse
resultado deve ser comparado aos de demais previsores (que devem fazer as previsões no mesmo período) e contextualizado
historicamente. Há uma série de perguntas a serem feitas: quem conseguiu derrotar o consenso? Quem superou a média do índice?

 E OS RESULTADOS...
Após uma breve lembrança do autor sobre o seu experimento envolvendo gurus da previsão política, chegamos à sessão em que os
resultados são documentados.

Durante o exercício, dois grupos ficaram claramente separados: uns que batiam por pouco, chegando a perder para os chimpanzés,
e outros que superavam, apesar da margem não ter sido expressiva. Assim, ao procurar identificar o que os separava, notou
algumas características:

 O primeiro grupo se arquitetava em volta do que Tetlock nomeou como “Grandes Ideias”. Não havia um consenso de
ideias entre todos, porém, cada um se guiava através de um grande tópico. Poderia ser sua posição política (esquerda,
direita, liberal ou conservador), sua religião, sua visão de mundo etc. O ponto é que todos eles se guiavam por uma linha
matriz e derivavam todas as suas previsões dela. Nesses modelos ideológicos, tratavam os problemas complexos como
efeitos ou causas de sua Grande Ideia, tratando tudo que não se encaixava como irrelevante. Sempre levavam as análises
ao limite, listando motivos de por quê os outros estão errados e apenas eles certos. Como resultado, sempre eram
confiantes demais, se mantendo relutantes em mudar de ideia, mesmo depois que se mostravam um fracasso.
 O segundo grupo era composto por analistas mais cuidadosos e pragmáticos, que, ao invés de se prender a uma única
ideia, exploravam todo o escopo de ferramentas disponíveis para seu uso na análise. Colhiam o máximo de informação
disponível, apresentavam diversas hipóteses em seus prognósticos e admitiam o erro quando o viam.

Após essa análise, o autor se lembra de uma frase contida em um livro de Isaiah Berlin muito aclamado por ele, porém, pouco
lido: “A raposa sabe muitas coisas, o porco-espinho, apenas uma, mas muito importante”. Assim, apelidamos o primeiro grupo de
“Pensadores Porco Espinho” e o segundo de “Pensadores Raposa”.

No experimento proposto, as raposas levaram a melhor. Venceram tanto na calibração quanto na resolução, tendo prognósticos
mais cautelosos e acertados. Porém, devemos nos lembrar que os porcos-espinhos tiveram previsões ligeiramente piores que
chutes aleatórios. Como isso seria possível?

Para explicar isso, somos apresentados a Larry Kudlow, especialista em economia americana que leva a “economia pelo lado da
oferta” como sua Grande Ideia. Durante os anos anteriores à crise de 2009, o especialista negava completamente a possibilidade
de haver uma recessão. Mesmo enquanto passavam por ela, o especialista seguia negando.

Isso se deve ao fato de que os Porcos Espinhos se concentram na PPN, desconsiderando visões exteriores a sua, aplicando a sua
Grande Ideia ao cotidiano (usando-a como uma espécie de “óculos”). Usar essas lentes da Grande Ideia pode ser útil as vezes, de
tal forma que acentua problemas que antes passariam despercebidos. Por outro lado, essas lentes podem distorcer a realidade
completamente, sujeitando o indivíduo a uma situação que nem sequer existe de verdade. Essa Grande Ideia vem com a
suscetibilidade a falsos positivos como consequência. Mesmo que esse previsor tenha mais informações em mãos, a lente as
distorcerá, de tal forma que qualquer adição chega a ser inútil. Portanto, a Grande Ideia aumenta a confiança do Porco Espinho,
mas não sua precisão.
Essa combinação possui resultados não desejáveis. Por exemplo, quando os especialistas do experimento de Tetlock eram
apresentados a perguntas de suas áreas de estudo, sua precisão caia. Mesmo que Kudlow fosse especialista em economia
americana, ele não viu o que os outros viram.

Porém, isso não afetou a carreira do economista. Na verdade, em janeiro de 2009 ele estreava um programa na CNBC. E isso
também é consistente com os dados do experimento, que apontaram uma correlação inversa entre fama e o índice de Brier: quanto
mais famoso, menos preciso. Mas isso não é porque o público procura por maus previsores, mas na verdade, porque o público
gosta de porcos-espinhos.

Como estão animados com sua Grande Ideia, desenvolvem histórias enxutas e claras, que cativam o público. Como são muito
confiantes, seguem uma linha de raciocínio inabalável, que ignora completamente os pontos fora da curva. Como já diria o
primeiro mandamento da publicidade: “mantenha a simplicidade, estúpido”.

 OLHO DE LIBÉLULA
Por fim, o autor nos introduz à chama “Sabedoria das Multidões”. O termo foi cunhado em um estudo de 1906, em que a seguinte
pergunta foi feita a diversos camponeses em uma feira: “qual peso teria um boi vivo após ser abatido e preparado”. A conjectura
média apontou 1197 libras, apenas uma libra (0,4 kilos) abaixo do peso certo. Assim, chegamos a conclusão do artigo que leva o
mesmo nome do fenômeno: agrega o parecer de muitos supera de forma persistente a precisão do participante médio e,
frequentemente, é tão preciso quanto os feirantes do estudo.

Claramente, sempre teremos indivíduo que superarão o parecer coletivo. Porém, na maioria dos casos esses palpites certeiros estão
muito mais atrelados ao acaso do que a habilidades de fato. Essa “sorte” do previsor fica mais visível com a repetição do
experimento. Nas diversas repetições sempre teremos indivíduos que superam o grupo, porém, muito provavelmente serão
indivíduos diferentes. Superar a média com consistência exige uma raríssima habilidade.

Muitas pessoas chamam a sabedoria das multidões de “milagre da agregação”, porém, ela é bem mais simples de entender. Se
pararmos para pensar, a informação útil para uma previsão pontual está amplamente dispersa em uma população. Quando Galton
(cientista que conduziu o experimento da feira) fazia o questionamento as pessoas, as via traduzir qualquer informação presente
em sua memória em um número. Assim, centenas de informações válidas foram agrupadas, de uma tal forma que reserva coletiva
de informações foi criada, maior que o presente em qualquer um dos indivíduos. Claro, também haveriam entrevistados menos
inteirados no assunto, que traziam ideias falsas à pesquisa. Essa reserva de pistas enganosas seria tão grande quanto a reserva de
pistas verdadeiras, se considerarmos uma curva normal. A questão é que, enquanto as pistas úteis tinham a mesma origem e
apontavam na mesma direção – as 1198 libras -, as pistas falsas possuíam origens diferentes a apontavam para direções diferentes,
dessa forma, se cancelavam. Com a informação útil se amontoando e a inútil se anulando, temos uma conclusão assustadoramente
precisa.

Porém, não adianta reunir qualquer grupo, Reunindo um bocado de pessoas que não sabe nada, teremos um resultado que não
representa nada. Juntar um grupo de pessoas que sabe um pouco é mais interessante, desde que tenhamos o número ideal de
participantes. O cenário ideal mesmo é juntar um time com diversos integrantes, onde cada um sabe um bocado sobre um
determinado assunto, de forma que a reserva coletiva de informações é muito maior.

Agregações de agregações também são interessantíssimas. Através delas, teríamos uma reserva de diversas reservas.

Assim, voltamos ao grupo das raposas. Seu modo de pensar se baseia na agregação: agregar informações, agregar pontos de vista,
agregar perspectivas. Nada mais do que uma recriação do que Galton presenciou dentro de sua própria mente. Apesar de parecer
simples, há um grande jogo mental envolvido, onde deve-se haver a percepção de outras percepções.

Pensemos no seguinte experimento: reunimos uma série de voluntários e pedimos que escolham um número entre 0 e 100. Aquele
cujo palpite ficar mais próximo de dois terços da média dos palpites de todos os participantes, vence. Apenas.

A princípio parece simples: 50. Supomos uma curva normal de palpites e chutamos no meio. Logo, nosso palpite final são 2/3 de
50, 33. Porém, devemos nos lembrar que temos outros participantes, que também podem pensar dessa forma. Logo, a resposta
correta seria 2/3 de 33, 22. Porém, outros participantes também podem pensar nisso. Se seguimos essa linha lógica infinitamente,
chegaremos ao consenso de chutar 0. Portanto, essa é a resposta, não?

Não. Esse experimento aconteceu de verdade, por um jornal nova iorquino. Na ocasião, a média foi 18,95. Richard Thaler,
proeminente economista comportamental, explica isso em suas teorias. Estaríamos tratando de seres humanos nesse concurso.
Portanto, eles poderiam assumir uma forma racional (onde chegariam ao consenso de 0), uma forma não tão racional (onde
assumiriam 33, 22 e outros valores seguidos da lógica), ou até mesmo um formato de avaliar essas duas outras formas e embasar
sua opinião numa junção. Essa perspectiva pode ser chamada de Perspectiva do Capitão Kirk (que chamaremos de PCK). Isso
pois, na série de ficção científica, o Capitão Kirk era um meio termo entre o estressado e racional Spock e o subjetivo Dr. McCoy.
Quando contamos com poucos Capitães Kirk no nosso público de previsão, chegamos facilmente a média em ocasião, porém,
conforme sua quantidade aumenta, a matemática fica cada vez mais complicada. Cada vez mais as distinções de juízo necessárias
vão se tornando sutis. A diferença entre bom e ótimo continua existindo, mas é menos perceptível.

Não temos muitos motivos para nos atermos a apenas essas três visões na ocasião – apenas não seria prático ir muito além disso.
Em outras ocasiões, pode ser que uma quarta, quinta ou sexta visão afiasse ainda mais o prognóstico. Na teoria, não há limite
algum. Logo, a melhor metáfora para o processo é a visão de libélula. Mesmo pequeno, esse inseto possui protuberâncias esféricas
que captam informações de todos os lados, de uma forma que há uma consciência de todas as visões possíveis ao mesmo tempo.
Raposas com olhos de libélulas seriam bizarras. A metáfora não se estende até esse ponto. Mas raposas possuem visão de libélula.

Essa agregação não é natural. Na verdade, temos uma insistência constante do PPN de que somente nossa visão está correta. Não
consideramos outros pontos de vista – mesmo quando está claro que deveríamos. Afastar-se de si mesmo e procurar novas
perspectivas é difícil, porém, raposas fazem isso com mais constância. Seja por hábito, temperamento ou esforço consciente,
sabemos que há um empenho em sondar novos pontos de vista.

Porém, não leve tudo isso ao pé da letra, lembre-se do paradoxo da reflexividade. Temos dois tipos de pessoas no mundo: as que
acham que existem dois tipos de pessoa e as que não. Tenha preferência pelo segundo grupo. A dicotomia raposa vs. porco-
espinho deve ser tratada não como uma reta, mas sim como um espectro. No experimento de Tetlock tivemos os “híbridos”,
pessoas perdidas entre os dois mundos. O ponto é que é impossível capturar a essência humana em qualquer rótulo.

Como já diria George Box: “Todos os modelos estão errados, mas alguns são úteis”. Todo rótulo ao ser humano está mais
próximo do irreal do que do real, porém, muitas vezes facilitam o nosso dia a dia. O modelo da raposa/porco-espinho é um início e
não um fim.

Nesse ponto já podemos pedir para que você esqueça a piada do chimpanzé. O experimento provou que a antevisão é real, além de
provar que o ingrediente crítico na mistura é a forma de pensar. Basta pensar em como levar isso adiante agora.
CAPÍTULO 04 – SUPERPREVISORES:
 Principais tópicos:

- Avaliação de previsões - Calibração e Resolução


- A capacidade de avaliarmos juízos - Índice de Brier
- Estimação e quantização - Parâmetros e comparabilidade
- Metacognição e responsabilidade - Grande Ideia vs. Ecléticos (Porcos-espinho e Raposas)
- Falácia do “Lado errado do talvez” - Perspectiva Capitão Kirk (Visão de Libélula)

E então, quando

Você também pode gostar