Você está na página 1de 73

© Dora Kaufman

Todos os direitos reservados.

Proibida a reprodução, no todo ou em parte, sem autorização prévia por escrito da editora, sejam quais
forem os meios empregados.

A grafia do texto foi atualizada segundo o Acordo Ortográfico da Língua Portuguesa de 1990, em vigor
no Brasil desde 2009.

Direção Editorial: Kathia Castilho


Projeto Gráfico, diagramação e produção do ebook: Schaffer Editorial
Capa: Kalynka Cruz-Stefani
Revisão: Lucia Santaella
Coordenação: Lucia Santaella
Conselho editorial: Cleomar Rocha, Clotilde Perez, Dora Kaufman, Edméa Santos, Eneus Trindade,
Fernando Almeida, Fernando Andacht, Kathia Castilho, Massimo Di Felice, Rodrigo Petronio, Winfried
Nöth

Dados Internacionais de Catalogação na Publicação (CIP)


de acordo com ISBD

K2li Kaufman, Dora

A inteligência artificial irá suplantar a inteligência humana? [recurso eletrônico] / Dora Kaufman -
Barueri, SP : Estação das Letras e Cores, 2018.
94 p. ; e PUB.

ISBN: 978-85-68552-90-2 (Ebook)

1. Inteligência Artificial. 2. Século XXI. 3. Superinteligência. 4. Futuro. I. Título. II. Série.

CDD 006.3
2018-1836 CDU 004.81

Elaborado por Vagner Rodolfo da Silva - CRB-8/9410

Índice para catálogo sistemático:


1. Jornalismo 070
2. Jornalismo 070

Estação das Letras e Cores Editora


Av. Real, 55 – Aldeia da Serra – Barueri
06429-200 – São Paulo –
Tel: 55 11 4326 8200
www.estacaoletras.com.br
www.facebook.com/estacaodasletrasecoreseditora/
Ao amigo e mentor Davi Geiger
Deixe que uma máquina ultra-inteligente seja definida como uma máquina que pode superar
todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Como o
design das máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente
poderia projetar máquinas ainda melhores; haveria, então, inquestionavelmente, uma
“explosão de inteligência”, e a inteligência do homem seria deixada para trás. Assim, a
primeira máquina ultra-inteligente é o último investimento que o homem precisa fazer, desde
que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle.
(I.J.Good matemático do time de Alan Turing no Projeto Enigma, 2º Guerra Mundial, depoimento
de 1965)
Sumário

Apresentação

Capítulo 1 - Breve história da inteligência artificial até os dias de hoje


O que é inteligência artificial?

Primórdios da Inteligência Artificial

Avanços recentes da IA: Deep Learning

Como funciona afinal esse tal de Deep Learning?

Avanços a partir dos anos 2006-2010

O que é Big Data?

O que são os Dados?

O que são os Algoritmos?

Capítulo 2 - A Inteligência Artificial na vida cotidiana do século XXI


Viés nos processos de decisão automatizada

Invasão de privacidade e as novas formas de controle

Personalização dos acessos e pesquisa online

Aplicações ilustrativas de IA na sociedade de dados

Na recomendação personalizada da Netflix

No Feed de Notícias do Facebook

Na prevenção de crimes
No recrutamento e seleção de RH

Na área de saúde

No setor financeiro

No varejo

Na mídia

Alertas aos riscos da IA

Capítulo 3 - Especulações sobre o futuro das máquinas inteligentes:


super inteligência e singularidade
Superinteligência

Singularidade

Referências

Notas
Apresentação

Em uma manhã no ano de 1580, o rabino Judah Loew (1520-1609),


Grão-rabino de Praga com o nome religioso de Maharal, teve um sonho
profético: deveria criar uma figura de argila para proteger seu povo. Assim,
Maharal liderou rituais religiosos que se estenderam por três dias, ao final do
qual o boneco de argila abriu os olhos, transformando-se sob as ordens do
rabino no salvador Golem.
Golem passou a intervir nas situações em que um judeu estivesse sendo
condenado injustamente por crimes imaginários. O detalhe é que o Golem não
tinha inteligência própria, seguindo sempre as instruções do rabino Maharal.
Em 1590, o Maharal julgou que a missão do Golem estava concluída, e o
destruiu. A polêmica sobre a existência ou não do Golem continua entre os
judeus religiosos; recentemente o rabino Moishe New, líder chassídico do
Canadá, afirmou que “O Talmud relata momentos nos quais outros Golems
foram criados para proteger a vida dos judeus. […] Ao corpo do Golem foi
dada uma alma e assim tornou-se uma espécie de anjo dentro de um corpo
feito pelo homem”.
Quase dois séculos e meio depois, em 1818, a escritora inglesa Mary
Shelley publicou seu romance “Frankenstein ou o Prometeu Moderno”
(“Frankenstein: of the Modern Prometheus”), considerado a primeira obra de
ficção científica. Diz a lenda que Shelley se inspirou na história de Golem,
entreouvida numa conversa tarde da noite em sua casa. O romance relata a
história do estudante de ciências naturais, Victor Frankenstein, que no
empenho em descobrir os mistérios da criação dedica-se a conceber um ser
humano gigantesco. O monstro foge do laboratório e refugia-se numa floresta
onde aprende a sobreviver. Defrontando-se com a hostilidade dos humanos,
acaba salvando a vida de Victor num reencontro ocasional entre criador e
criatura. O romance é narrado por meio de cartas escritas pelo comandante de
uma expedição náutica ao Pólo Norte, capitão Robert Walton, para sua irmã.
Distinto do Golem, o Frankenstein tem inteligência própria, autonomia e até
mesmo sentimentos semelhantes aos robôs da ficção científica.
A história humana é repleta de criaturas imaginárias associadas a seres com
superpoderes. Compunham o imaginário da Grécia Antiga, assentada na
religião politeísta1, seres híbridos como o Centauro (dorso, cabeça e braços de
ser humano com pernas e corpo de cavalo), o Minotauro (corpo de homem e
cabeça e rabo de touro), a Hidra de Lerna (corpo de dragão com cabeça de
serpente), Pégaso (cavalo com assas, simbolizando a imortalidade) e o Tristão
(cabeça e tronco humano com rabo de peixe). Os mitos serviam para explicar a
origem da vida, a vida após a morte e os fenômenos da natureza.
Acelerando o tempo chegamos a 2015, ano de ativação do humanoide2
Sophia pela Hanson Robotics, empresa de engenharia e robótica com sede em
Hong Kong. Sophia tem pele maleável e dezenas de computadores acoplados,
seu sistema de inteligência artificial (IA) processa dados visuais e
reconhecimento facial, tornando-a capaz de imitar gestos e expressões humanas
e manter um diálogo sobre tópicos predefinidos3. Com forte exposição na
mídia, Sophia já cantou em concerto, foi capa de revista feminina, participou
de fóruns de negócios e, em 2017, debateu o papel da robótica na sociedade
com o igualmente humanoide Hans numa mesa redonda no RISE, maior
evento de tecnologia da Ásia4. No mesmo ano, Sophia tornou-se o primeiro
robô a receber cidadania de um país, no caso a Arábia Saudita.
Na segunda década do século XXI, a convergência de diversas tecnologias
tem promovido resultados superiores a quaisquer previsões precedentes (ainda
que aquém da ficção científica). As máquinas e sistemas inteligentes estão
executando tarefas que até recentemente eram prerrogativas dos humanos, e em
alguns casos com resultados mais rápidos e mais assertivos. Mas é apenas uma
década de “revolução”, e as máquinas ainda estão restritas a prever cenários
(capacidade preditiva) com base em grandes conjuntos de dados e a executar
tarefas específicas, sob a supervisão direta dos especialistas em ciência da
computação. Esse relativamente pequeno avanço da IA, contudo, trouxe
benefícios inéditos para a humanidade.
A inteligência artificial está transformando nossa relação com a tecnologia,
e é a base da revolução digital em curso a partir da confluência de tecnologias
do mundo digital (internet das coisas/IoT, blockchain, plataformas digitais), do
mundo físico (veículos autônomos, impressão 3D, robótica avançada, novos
materiais) e do mundo biológico (manipulação genética).

Este livro não é sobre essas tecnologias, e sim uma tentativa de responder à
pergunta título – se a inteligência artificial irá suplantar a inteligência humana
– até então circunscrita ao domínio da ficção, mesmo que alguns pensadores
estejam convencidos de sua inexorabilidade. Com base no estágio atual da IA e
nas pesquisas em curso, vamos juntos especular sobre o futuro.
Antes porém, com o intuito de tornar mais palatável ao leitor adentrar ao
universo futurista, o Capítulos 1 traz uma breve história da IA até os dias de
hoje e o Capítulo 2 alguns campos de aplicações que têm facilitado a vida de
indivíduos, instituições e governos (e suscitado desafios ético e regulatórios de
extrema complexidade).
Capítulo 1

Breve história da inteligência


artificial até os dias de hoje

A autodenominação de “Homo sapiens” (homem sábio) expressa a crença


dos humanos de que sua superioridade está no fato de serem os únicos seres
vivos dotados de inteligência. Não apenas satisfeitos com essa aparente “dádiva
divina”, buscamos entender como funciona o cérebro humano, o que é
consciência, e quais os mecanismos produtores do pensamento. De certa
forma, o propósito é demarcar os atributos de distinção entre nós, os animais e
as máquinas, o que vem se tornando cada vez mais difícil.
A maior investidora privada da Finlândia, Ilmarinen Mutual Pension
Insurance, mudou há pouco o significado da sigla tradicional do departamento
de recursos humanos, RH, para Robôs e Humanos (Head of People and
Robotization). Os cerca de 700 funcionários humanos do departamento não se
sentem ameaçados pelo igualmente funcionário – robô Tarmo (em filandês,
“vigor e energia”), pelo contrário, comemoram o fim de rotinas repetitivas e
maçantes. Há fortes indicadores de que em breve a Ilmarinen contratará
colegas de Tarmo mais qualificados, substituindo parte considerável da equipe
de humanos.
Em 2014, a empresa de capital de risco com sede em Hong Kong, Deep
Knowledge, anunciou o sistema inteligente VITAL (Validating Investment Tool
for Advancing Life Sciences) como novo membro de seu conselho de
administração, agregando valor na captação e processamento de informação
com impactos positivos na qualidade das decisões de investimento.
Aparentemente, não se trata de um fato isolado: pesquisa realizada pelo Fórum
Econômico Mundial (2015) com 800 executivos revela que 45% esperam que
uma máquina de IA tenha assento no conselho de administração de suas
empresas até 2025.
Serão o Tarmo e o Vital inteligentes? Inteligência não é um conceito
simples nem consensual, na literatura existem diversas abordagens, nenhuma
delas universal. A título de exercício – aceitar ou não Tarmo e Vital como
inteligentes -, tomemos como referência a definição de inteligência como a
“capacidade de compreender ideias complexas, de se adaptar efetivamente ao
ambiente, de aprender com a experiência, de se envolver em várias formas de
raciocínio, de superar os obstáculos”5. Por essa definição, ambos são
inteligentes.
Efetivamente, o conceito tradicional de “ser humano” encontra-se alargado
pelo acoplamento com tecnologias, impossibilitando identificar os limites do
que seja humano e não humano; os limites do próprio corpo e da cognição
estão expandidos. Os humanos estão sendo “aprimorados” desde as
“tecnologias vestíveis” (Wearable) até os ciborgues como Neil Harbisson; uma
antena implantada no crânio permite receber sinais de áudio que interpretam
as cores estendendo as habilidades de Neil, portador de acromatopsia
(“cequeira de cores”). Moon Ribas, artista e co-fundadora da Cyborg
Foundation, tem um sensor implantado no cotovelo que lhe possibilita sentir,
através de vibrações, qualquer atividade sísmica, como terremotos de distintas
intensidades. Ambos se autointitulam Ciborgues, e foram modificados num
processo denominado em inglês “human augmentation”. Mais de três mil
suecos, aflitos com o sistemático esquecimento, implantaram microchips
(dispositivos de silício do tamanho de um grão de arroz) em seus corpos
contendo informações que substituem chaves e cartões de identificação. Esses
procedimentos ainda nos surpreendem, mas na essência (do ponto de vista da
natureza) não diferem de procedimentos com os quais estamos familiarizados
como transplantes de órgãos artificiais, um mercado com taxa de crescimento
estimada de 9% ao ano. A definição purista de ser humano como espécie de
carne e osso sem intervenção tecnológica externa está superada, pelo menos nas
sociedades mais desenvolvidas são raros os humanos “originais”6.
Como nos lembra Kurzweil (2005), os computadores começaram como
máquinas grandes e remotas em salas com ar condicionado, operadas por
técnicos de computação. Posteriormente, vieram os desktops (“em cima da
mesa”) individualizando a interação homem – computador; logo depois os
laptops (computadores portáteis) colocando os computadores no nosso braço e
agora eles estão nos nossos bolsos (smartphones). A próxima etapa é colocá-los
dentro de nossos corpos e cérebros, nos tornando mais não-biológicos do que
biológicos.
René Descartes, reconhecido como o fundador da filosofia moderna,
associava o animal à máquina, por meio do conceito de “animal-máquina”
(bête-machine), defendendo a segregação dos mundos humano e animal,
relacionando os animais aos autômatos. O filósofo considerava o ser humano
como a única criatura capaz de pensar racionalmente, identificando uma
similitude entre os animais e as máquinas. Numa perspectiva contemporânea,
David Gunkel (2012) diferencia as máquinas dos animais pela capacidade
destes de serem agentes, i.é., de terem a intenção de fazer algo, de agir e,
consequentemente, realizar uma ação. Associada à intencionalidade emerge a
questão da consciência, reputada como uma qualidade humana e objeto de
estudo dos campos da filosofia da mente, da psicologia, neurologia e ciência
cognitiva, até agora com resultados relativamente limitados.
Alinhado com a ideia de “consciência” como atributo humano, Yuval
Harari (2016) advoga que o advento das máquinas inteligentes representa um
descolamento entre inteligência e consciência, gerando dois tipos de
inteligência: a inteligência consciente e a inteligência não – consciente, sendo
facultado apenas à primeira o acesso ao sentir. Com essa restrição, Harari
impõe um limite ao progresso da IA: as máquinas inteligentes, ao não serem
dotadas de consciência, nunca vão competir com a inteligência humana,
permanecerão como duas “espécies” distintas com funções específicas a serem
desempenhadas na sociedade. Não há consenso algum sobre nada disso, os
debates proliferam intensamente nos meios acadêmicos, e entre pensadores e
criadores de tecnologia.
Autores de obra clássica sobre IA, Russell e Norvig (2009)7 cogitam que a
dificuldade é assimilar como um mero punhado de matéria pode perceber,
compreender, prever e manipular um mundo maior e mais complexo do que o
ser humano. Os desafios do campo da inteligência artificial vão além, ao não
apenas tentar compreender esses processos, mas reproduzi-los em máquinas e
sistemas.

O que é inteligência artificial?

A inteligência artificial refere-se a um campo de conhecimento associado à


linguagem e à inteligência, ao raciocínio, à aprendizagem e à resolução de
problemas. A IA propicia a simbiose entre o humano e a máquina ao acoplar
sistemas inteligentes artificiais ao corpo humano (prótese cerebral, braço
biônico, células artificiais, joelho inteligente e similares), e a interação entre o
homem e a máquina como duas “espécies” distintas conectadas (homem-
aplicativos, homem-algoritmos de IA). Tema de pesquisa em diversas áreas –
Computação, Linguística, Filosofia, Matemática, Neurociência, entre outras –,
a diversidade de subcampos e atividades, pesquisas e experimentações, dificulta
descrever o estado da arte atual. Os estágios de desenvolvimento bem como as
expectativas variam entre os campos e suas aplicações, que incluem os veículos
autônomos, reconhecimento de voz, games, robótica, tradução de linguagem
natural, diagnósticos médicos, assim por diante. Atualmente, os sistemas
inteligentes estão em todas as áreas de conhecimento (e quase em toda a vida
em sociedade).
Existem inúmeras definições de inteligência artificial, reflexo das
especificidades intrínsecas a cada campo. Russell e Norvig (2009) listam oito
delas agrupadas em duas dimensões – as relativas a processos mentais e
raciocínio, e as relativas a comportamento – contudo, duas definições
generalistas servem ao nosso propósito: a primeira de John McCarthy,
inteligência artificial “é a ciência e a engenharia de fazer máquinas inteligentes,
especialmente programas de computador inteligentes”8. Davi Geiger
(TECCOGS, 2018) está de acordo com a definição de McCarthy, ressalva,
contudo, que falta precisar o significado de inteligência, que para ele são todas
as funcionalidades do cérebro; “o cérebro é algo que sabemos o que é e, em
princípio, podemos saber quais são suas funcionalidades. Então acho que assim
se completa a definição: inteligência artificial é a ciência e a engenharia de criar
máquinas que tenham funções exercidas pelo cérebro dos animais”. A segunda
de Russell e Norvig (2009), define a IA como o estudo de “agentes inteligentes
capazes de perceber seu meio ambiente e de realizar ações com a expectativa de
selecionar uma ação, que maximize seu desempenho”.
Alguns historiadores da ciência atribuem a primeira referência à
inteligência artificial ao matemático e cientista da computação inglês Alan
Turing9, em seu famoso artigo “Computing Machinery and Intelligence”
(1950) no qual propôs o desafio “Can Machines ink?” (“podem as máquinas
pensar?”). Há mais de sete décadas, Turing afirmou que “podemos esperar que
as máquinas vão competir com todos os homens na área da inteligência”. Seu
empenho foi entrever se seria possível construir uma máquina capaz de simular
a inteligência, ideia concretizada posteriormente por Von Neumann.

Primórdios da Inteligência Artificial

Na década de 1950, no âmbito dos esforços científico-tecnológicos de criar


modelos de simulação da mente humana, surgiu o campo da inteligência
artificial. O termo apareceu pela primeira vez no título do evento Dartmouth
Summer Research Project on Artificial Intelligence (Projeto de Pesquisa de Verão
de Dartmouth sobre Inteligência Artificial), realizado no Dartmouth College
em Hanover, New Hamshire, EUA, no verão de 1956, com o apoio da
Fundação Rockefeller. Liderado por eminentes pesquisadores – Claude
Shannon, Nathaniel Rochester, Marvin Minsky e John McCarthy -, o evento
reuniu um grupo de dez cientistas cuidadosamente selecionados, na crença de
que trabalhando juntos por dois meses conquistariam avanços significativos. A
premissa era de que “todos os aspectos da aprendizagem ou qualquer outra
característica da inteligência, podem, em princípio, ser descritos tão
precisamente de modo que uma máquina pode ser construída para simulá-
la”10; e a determinação era descobrir como fazer com que as máquinas usem
linguagem, abstrações de forma e conceito, e resolvam tipos de problemas do
domínio humano. Alguns dos participantes, posteriormente, lideraram
projetos relevantes incluindo Arthur Samuel, Oliver Selfridge, Ray
Solomonoff, Allen Newell e Herbert Simon. Os primeiros anos da IA foram
repletos de sucessos limitados, função dos computadores e técnicas de
programação primitivos, contudo, desde o início, existia confiança e otimismo
entre os pesquisadores.

O seminário de Dartmouth não levou a nenhuma nova descoberta, mas introduziu todas as
principais figuras umas às outras. Nos próximos 20 anos, o campo seria dominado por essas
pessoas e seus alunos e colegas no MIT, CMU, Stanford e IBM. Talvez a coisa mais duradoura
que saiu do workshop foi o acordo para adotar o novo nome de McCarthy para o campo:
inteligência artificial. (Russel; Norvig, 2009)11

Em 1959, Arthur Lee Samuel, pioneiro norte-americano no campo de


jogos de computador e inteligência artificial, enquanto funcionário da IBM,
cunhou o termo “machine learning” (ML), inaugurando um subcampo da IA
cuja finalidade é prover os computadores da capacidade de aprender sem serem
programados. Evoluindo a partir do estudo do reconhecimento de padrões e da
teoria de aprendizagem computacional na IA, o machine learning explora o
estudo e a construção de algoritmos que, seguindo instruções, fazem previsões
ou tomam decisões baseadas em dados – modelos elaborados a partir de
entradas de amostras. Originada na estatística, em que migrar de observações
particulares a descrições gerais é chamado de “inferência”, a aprendizagem é
chamada de “estimativa”, e a classificação é chamada “análise discriminante”
(Alpaydin, 2016). O aprendizado de máquina é empregado em uma variedade
de tarefas de computação, nas quais programar os algoritmos é difícil ou
inviável. Esses modelos analíticos permitem que pesquisadores, cientistas de
dados, engenheiros e analistas produzam decisões e resultados confiáveis e
replicáveis, e revelem ideias ocultas em relacionamentos históricos.
Muitos projetos de IA não concretizaram suas promessas iniciais levando
ao primeiro “AI winter” (“inverno AI”), período de retração no qual o
financiamento diminuiu e o ceticismo aumentou. Uma nova primavera chegou
no início dos anos 1980, quando o Japão lançou seu Projeto de Sistemas de
Computador de Quinta Geração, uma parceria público-privada. O projeto não
conseguiu atingir seus objetivos, provocando um segundo inverno da IA. O
empenho dos cientistas da computação, não obstante, continuou em ritmo
acelerado, reavivando o otimismo pela introdução de novas técnicas e novos
paradigmas lógicos.

Avanços recentes da IA: Deep Learning

Latanya Sweeney, ex-chefe de tecnologia da Comissão Federal de Comércio


dos EUA e atualmente professora da Universidade de Harvard, em 2013 foi
informada por uma colega que o Google AdSense associava seu nome à
anúncios sugerindo sua prisão. Intrigada, ela digitou o nome de outro de seus
colegas, Adam Tanner, e o anúncio da mesma empresa surgiu sem a sugestão
de prisão. Testando nomes racialmente associados, Sweeney encontrou
discriminação estatisticamente significativa, sendo que um nome estereotipado
como de “negro” era 25% mais propenso a receber um anúncio de registro de
detenção, claramente um viés do sistema de busca ao reproduzir os
preconceitos raciais da sociedade12.
Na primavera de 2016, um sistema de inteligência artificial chamado
AlphaGo, criado pela companhia originalmente inglesa DeepMind, derrotou
no hotel Four Seasons em Seul, por 4x1, o sul-coreano Lee Sedol, campeão
mundial do jogo asiático Go, mais complexo do que o jogo de damas e de
xadrez – envolve pedras pretas e brancas sobre um tabuleiro de madeira e
inúmeras possibilidades de jogadas. Se no Ocidente a audiência desse torneio
foi relativamente baixa, na China, pelo contrário, 280 milhões de pessoas
assistiram estupefatas à vitória do AlphaGo: como uma máquina pertencente a
uma empresa da Califórnia (Alphabet, controladora do Google), venceu o
melhor jogador de um jogo inventado há mais de 2.500 anos na Ásia (e os
americanos nem sequer jogam Go)13.
Os dois eventos, aparentemente não relacionados, têm em comum o
processo denominado de Deep Learning (Aprendizado Profundo), capaz de
transformar vasto volume de dados em informação útil. Deep Learning é sobre
previsão, e permeia grande parte das atividades do século XXI. Quando
digitamos uma consulta ao Google, é ele que seleciona a resposta personalizada
e os anúncios apropriados ao perfil do usuário, bem como traduz um texto de
outro idioma, assim como filtra os e-mails não solicitados (Spam). A Amazon e
a Netflix recomendam livros e filmes pelo mesmo processo, do mesmo modo o
Facebook usa o aprendizado profundo para decidir quais atualizações mostrar
no Feed de Notícias, e o Twitter faz o mesmo para os tweets. Quando
acessamos um dispositivo computacional, em qualquer de seus formatos,
provavelmente estamos acessando concomitantemente um processo de Deep
Learning.
O atual crescimento exponencial dos dados inviabiliza o uso da tradicional
programação computacional (com regras definidas a priori); a vantagem dos
sistemas de aprendizado é que eles próprios estabelecem os algoritmos, i.e.,
adaptam-se automaticamente aos requisitos da tarefa. A Amazon não pode
codificar os gostos do conjunto de seus clientes em um programa de
computador, assim como o Facebook desconhece como escrever um programa
para identificar as melhores atualizações no Feed de Notícias. A Netflix pode
ter cem mil títulos de DVD em estoque, mas se os clientes não souberem como
encontrar suas preferências de nada adianta. Ethem Alpaydin (2016), professor
de engenharia da computação na Universidade de Bogazici em Istambul,
Turquia, pondera: “especialmente nos últimos vinte anos ou mais, as pessoas
começaram cada vez mais a se perguntar o que poderiam fazer com todos esses
dados. Com esta pergunta, toda a direção da computação é revertida. Antes, os
dados eram o que os programas processavam e cuspiam – os dados eram
passivos. Com esta pergunta, os dados começaram a conduzir a operação; não
são mais os programadores, mas os dados em si que definem o que fazer a
seguir”14.
A grande quantidade de dados não é o único fator restritivo. No
reconhecimento de imagem facial, p.ex., os seres humanos têm certa facilidade,
mas não conseguem explicá-lo (conhecimento tácito) o que não permite
programar o computador. Ao analisar diferentes imagens de rosto de uma
pessoa, um sistema de IA captura o padrão específico para essa pessoa e, em
seguida, verifica esse padrão em uma dada imagem. Uma das aplicações que
mais tem surpreendido, e se aperfeiçoado continuamente, é a tradução
automática entre idiomas.
Existem muitas expressões sendo utilizadas por diferentes comunidades –
reconhecimento de padrões, modelagem estatística, mineração de dados,
descoberta de conhecimento, análise preditiva, ciência de dados, sistemas
adaptativos, sistemas de auto-organização, e outros – e alguns o denominam
simplesmente inteligência artificial. Independente do nome e funcionalidade, o
foco é no desenvolvimento de algoritmos e técnicas para solucionar
determinados problemas, executar uma tarefa específica. Trata-se da “Weak
AI”; a “Strong AI”, ou “General AI”, ainda é ficção.

Como funciona afinal esse tal de Deep Learning?

Na década de 1980, inspirados no cérebro humano, cientistas da


computação criaram um subcampo da machine learning propondo um processo
de aprendizado com base nas redes neurais, com resultados mais concretos na
década de 200015. Um dos pioneiros foi Geoffrey Hinton em artigo publicado
na revista Nature (1986). O avanço não ocorreu acidentalmente, mas deveu-se
à capacidade de construir hardware em paralelo conectando milhares de
processadores16; começou a florescer, contudo, somente no final da década de
2000, com foco em problemas solucionáveis de natureza prática, relacionados a
uma tarefa concreta.
Como explica Alpaydin (2016), “as redes profundas ainda funcionam em
domínios relativamente restritos, mas estamos vendo resultados mais
impressionantes todos os dias à medida que as redes aumentam e são treinadas
com mais dados”17. Sua popularidade, em parte, advém do fato de que as redes
neurais são adequadas a problemas inteiramente distintos. O treinamento
consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até
obter os resultados requeridos, denominado “aprendizagem supervisionada”:
são fornecidos os resultados desejados (output) e, por “tentativa e erro” através
de atualização iterativa dos pesos, chega-se ao resultado – meta. A abordagem é
chamada de “retropropagação” (back propagation). A pergunta-chave migrou de
“quais as características de um cachorro?”, elementos que permitiam programar
um sistema, para “essa imagem é similar a uma imagem que já vi antes?”,
processo que estima a probabilidade da imagem ser efetivamente de um
cachorro.
A rede geralmente tem entre 10 e 30 camadas empilhadas de neurônios
artificiais. Num reconhecimento de imagem, p.ex., a primeira camada procura
bordas ou cantos; as camadas intermediárias interpretam as características
básicas para procurar formas ou componentes gerais; e as últimas camadas
envolvem interpretações completas. Na identificação de fotos nas redes sociais,
a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém
que olha o álbum de fotos de uma família desconhecida e, depois de uma série
de fotos, reconhece o fotografado (existe uma hierarquia de memorização). O
reconhecimento de voz, que junto com a visão computacional está entre as
aplicações mais bem-sucedidas, já permite a comunicação entre humanos e
máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição
houve, igualmente, importantes avanços.
Vale advertir que as redes neurais artificiais não reproduzem o
funcionamento do cérebro, cuja complexidade é infinitamente maior e ainda
bastante desconhecida; o mais correto é considerar que a concepção dessas
redes é inspirada no cérebro humano18. O cérebro é composto de neurônios,
que por sua vez são formados por dendritos que se conectam por meio de
sinapses: cada vez que os dendritos dos neurônios se encontram provocam uma
sinapse (conexão). Essa configuração é denominada “redes neurais” em que,
por analogia, o equivalente aos neurônios no computador são as unidades (ou
“neurônios artificiais”): se temos 100 “sinapses” num computador, significa que
temos 100 informações chegando e se conectando. As novas unidades,
localizadas numa nova camada, recebem as informações, processam e “cospem”
o output para as unidades de uma nova camada.
No processo de visão, p. ex., a retina, um sensor de luz, representa a
primeira camada. A retina é impactada por feixes de luz, que são as primeiras
informações originadas do exterior. O mesmo se passa no ouvido com relação
ao som, no olfato do nariz com relação ao cheiro, e no tato da pele com relação
a sensibilidade. São informações elétricas e químicas, posteriormente enviadas
para o cérebro. O aparelho perceptivo da visão é o único dos sentidos em que a
primeira camada contém neurônios (logo, já é cérebro). Não por coincidência é
o mais sofisticado, correspondendo a 1/3 do cérebro (a segunda atividade
predominante no cérebro são os movimentos).
A luz inicialmente encontra o censor da retina, que é a primeira camada,
em seguida segue para uma nova camada, neste caso localizada na parte de trás
do cérebro chamada de V1, continua se deslocando entre várias camadas, até
retomar para a parte frontal do cérebro (vision path way). O cérebro tem dez
áreas, e cada área cerca de 140 milhões de neurônios. O computador criado
pela Microsoft há cerca de dois anos, considerado o mais avançado atualmente
na tarefa de reconhecimento de imagem, tem 152 camadas, i.é., as unidades
vão se conectando e transmitindo informação a outras unidades ao longo de
152 camadas.Fazendo um paralelo entre a visão humana e a câmara fotográfica,
a nossa retina corresponde ao sensor de imagem da câmara. Em ambos, o que
desencadeia o processo é a incidência de luz. O input da luz se transforma num
número. Como isso é possível? A luz é composta de fótons, então importa
calcular quantos fótons “caíram” na retina por unidade de tempo.
Simplificando, o que permite diferenciar um objeto de outro é o número de
fótons que sensibiliza a retina. Se todos os inputs viram números, temos um
conjunto de números na primeira camada. Os processos no cérebro e nas
máquinas inteligentes são semelhantes. Cada unidade, que corresponde ao
neurônio humano, tem a “decisão” sobre o que será enviado à outra camada
(ou não enviado).
Cada unidade recebe informações (inputs) de muitas unidades da camada
anterior. No estado de evolução atual da IA, o operador humano arbitra o
número de camadas19. No futuro, existe forte indicação neste sentido, as
máquinas vão construir outras máquinas inteligentes (sem arbitragem
humana). O que define uma máquina inteligente são dois componentes: o
valor de cada conexão e a arquitetura, traduzida, em parte, pelo número de
camadas20.
Como já foi dito, Deep Learning é sobre previsão, e o Capítulo 2 traz
ilustrações de como funciona a aplicação em alguns setores de atividade. “O
aprendizado de máquina faz inferências a partir de dados. E quanto mais dados
eles têm, melhor elas ficam. Agora não precisamos programar computadores,
eles se programam”, pondera Pedro Domingos (2015)21. Cada interação, como
realizar uma busca no Google ou uma recomendação de filme no Netflix,
acessa dois níveis: o primeiro é conseguir o que você quer; o segundo nível, e
no longo prazo o mais importante, é ensinar o computador sobre você. Quanto
mais você ensina, melhor a qualidade do retorno (e/ou melhor o sistema te
manipula).

Avanços a partir dos anos 2006-2010

O avanço do processo de aprendizado profundo a partir dos anos 2006-


2010 com o obtenção de resultados explícitos, deve-se fundamentalmente a
três fatores: (a) crescente disponibilidade de grande quantidade de dados (Big
Data), (b) maior capacidade computacional com as GPUs (Graphics Processing
Unit), expandida com a “computação em nuvem”, reduzindo
significativamente o tempo de treinamento das redes neurais e (c) evolução dos
algoritmos. Vejamos dois desses fatores22.

O que é Big Data?

Em fevereiro de 2008, os Centers for Disease Control and Prevention (CDC)


(Centros de Controle e Prevenção de Doenças) identificaram um crescimento
de casos de gripe no leste dos EUA; na ocasião, o Google declarou ter
detectado um aumento nas consultas sobre os sintomas da gripe duas semanas
antes do lançamento do relatório23. A partir dessa experiência, sua unidade
filantrópica criou um sistema de alerta, o “Google Flu Trends”24 .
Anteriormente ao aparecimento do vírus H1N1, pesquisadores do Google
publicaram um artigo na revista Nature , ignorado pelas autoridades, sobre a
capacidade de previsão da propagação da gripe de inverno, com base nos dados
gerados em sua plataforma.
A metodologia basicamente estabelecia correlações entre a frequência de
digitalização de certos termos de busca no Google e a disseminação da gripe ao
longo do tempo e espaço, identificando regiões específicas em tempo real. O
evento gerou uma mudança na mentalidade sobre o uso de dados. “Big Data
refere-se a coisas que se pode fazer em grande escala para extrair novos insights
ou criar novas formas de valor, mudando os mercados, as organizações, a
relação entre cidadãos e governos e muito mais”, argumentam Schönberger e
Cukier (2013). Big Data é o termo em inglês que descreve o grande volume de
dados gerados e armazenados, que podem ser estruturados e não-estruturados.
25

Essa experiência produziu: (a) inovação na capacidade de analisar grandes


quantidades de dados sobre um tópico específico, não mais se atendo a
amostras relativamente pequenas; (b) disposição em adotar a desordem do
mundo real dos dados, deixando de privilegiar a exatidão; e (c) respeito
crescente por correlações em vez de causalidades. Trata-se de sacrificar a
exatidão para ter acesso à tendência geral. Agrawal, Gans e Goldfarb (2018)
destacam três funções desempenhadas pelos dados: (a) primeiro temos os dados
de entrada (input ), que alimentam os algoritmos e são utilizados no processo
de previsão; (b) segundo, os dados de treinamento (training data ), usados para
aperfeiçoar os algoritmos; e (c) terceiro, temos os dados de feedback com a
função de melhorar o desempenho dos algoritmos com base na experiência dos
usuários.O cientista da computação Alex Pentland (2015), do Media Lab MIT,
defende que o Big Data oferece a chance de ver a sociedade em toda a sua
complexidade; para ele, uma vez desenvolvida uma visualização mais precisa
dos padrões de vida humana, podemos esperar compreender a sociedade de
forma mais adequada à nossa rede complexa e interligada de seres humanos e
tecnologia.
O que são os Dados?

Qualquer interação com tecnologias digitais deixa “rastros”, alguns


voluntários como as publicações nas redes sociais – Facebook, Twitter e
Instagram –, e outros involuntários, como as informações armazenadas nos
bancos de dados digitais na compra com cartão de crédito, na movimentação
bancária online, no acesso aos programas de fidelidade, no vale-transporte, nas
comunicações por telefonia móvel, no acesso online à resultados de exames
médicos, e inúmeras outras ações presentes em nossa rotina. Esses podem ser
usados pelas plataformas originais ou “reusados” por terceiros, ou combinados
pela fusão de conjunto de dados, com as mais variadas finalidades, e são
responsáveis por inúmeros benefícios da sociedade do século XXI (e,
igualmente, por inúmeras ameaças).
Como nos lembra Schonberger e Cuvier (2013) “o entusiasmo pela
‘internet das coisas’ – incorporando chips, sensores e módulos de comunicação
aos objetos do cotidiano – é, em parte, relacionado à rede, mas também sobre
digitalizar a informação de tudo que nos rodeia” 26. Por meio dos dados é
possível revelar uma infinidade de questões relacionadas à população, desde
quais grupos são mais suscetíveis a determinadas doenças até qual é o perfil do
cidadão propenso a honrar um empréstimo bancário, até segmentar os
consumidores em perfis.
Cada um de nós é, simultaneamente, um gerador e um consumidor de
dados. Queremos ter produtos e serviços personalizados, atentos a nossas
necessidades e interesses; o paradoxo é que, ao mesmo tempo, queremos
preservar a privacidade de nossos dados. O desafio colocado é encontrar um
equilíbrio entre a abertura de dados, pré-requisito para o avanço da IA; a
proteção aos dados pessoais; e a transparência sobre o uso dos dados.

O que são os Algoritmos?


“Algoritmos estão em toda parte. Dominam o mercado de ações, compõem
música, dirigem carros, escrevem artigos de notícias e autênticas provas
matemáticas – e seus poderes de autoria criativa estão apenas começando a
tomar forma”, sentencia Ed Finn (2017). Atualmente, numa hipótese
fantasiosa, se todos os algoritmos parassem de funcionar seria o fim do mundo.
Algoritmo é um conjunto de instruções matemáticas, uma sequência de tarefas
para alcançar um resultado esperado em um tempo limitado. Os algoritmos
antecedem os computadores – o termo remonta ao século IX ligado ao
matemático al-Khwãrizmi, cujo livro ensinava técnicas matemáticas a serem
equacionadas manualmente. “Algorismus” era originalmente o processo de
calcular numerais hindo-arábicos.
Ed Finn define um algoritmo como “qualquer conjunto de instruções
matemáticas para manipular dados ou raciocínios através de um problema”27.
Para Ethem Alpaydin (2016), “um algoritmo é uma sequência de instruções
que são realizadas para transformar a entrada (input) na saída (output)”28. Brian
Christian e Tom Griffiths (2016) extrapolam o conceito para além do âmbito
da matemática: “Quando você cozinha pão a partir de uma receita, você está
seguindo um algoritmo, o mesmo quando você tricota uma peça com base
num determinado padrão. [...] Algoritmo faz parte da tecnologia humana
desde a Idade da Pedra” 29.
A ideia de associar algoritmo à receita de culinária, entretanto, é contestada
por Pedro Domingos (2015) para quem a receita não especifica exatamente a
ordem e as etapas – quanto de açúcar, p.ex., está contido em uma colherada.
“Se quiséssemos programar um robô de cozinha para fazer um bolo, teríamos
que dizer como reconhecer o açúcar do vídeo, como pegar uma colher e assim
por diante. Portanto, uma receita culinária está muito longe de um algoritmo”
30. O algoritmo requer instruções precisas e não ambíguas, o suficiente para

serem executadas por um computador. “Algoritmos são um padrão exato.


Costuma-se dizer que você realmente não entende algo até que possa expressá-
lo como um algoritmo”31, arremata Domingos.
Os algoritmos têm sua própria complexidade, agrupadas em: (a)
complexidade do espaço, traduzida no número de bits de informação que
precisa armazenar na memória do computador, (b) complexidade do tempo,
traduzida no tempo necessário para “rodar”, i.e., quantas etapas à percorrer até
produzir resultados, e (c) complexidade humana, traduzida nos limites do
cérebro humano, inclusive para identificar os erros e corrigi-los.
Como mencionado anteriormente, Deep Learning é sobre “previsão” com
base em correlações, e é sobre reduzir significativamente o custo dos processos
preditivos. O objetivo não é identificar causalidades entre distintos fenômenos
ou simples eventos, mas descobrir padrões e correlações que gerem insights.
“Antes do Big Data, nossa análise geralmente se limitava a testar um pequeno
número de hipóteses que definíamos bem antes de coletar os dados. Quando
deixamos os dados falarem, podemos fazer conexões que nunca imaginamos
que existissem”, esclarecem Schönberger e Cukier (2013). Os algoritmos de
aprendizado não funcionam da mesma forma, e suas diferenças impactam os
resultados e, por vezes, o próprio modelo utilizado32.
Na avaliação de Pedro Domingos (2015), o Homo sapiens é a única espécie
que adapta o mundo a si mesmo em vez de se adaptar ao mundo, e o
aprendizado de máquina é o mais novo capítulo desta saga de milhões de anos:
“Como uma floresta mágica, o seu entorno – virtual hoje, amanhã físico – se
rearranja. Sinais que apontam o caminho surgem nos lugares onde você se
perdeu […] Essas tecnologias aparentemente mágicas funcionam porque, em
sua essência, o aprendizado de máquina é sobre predição: prever o que
queremos, os resultados de nossas ações, como alcançar nossos objetivos, como
o mundo vai mudar”. 33
Capítulo 2

A Inteligência Artificial na vida


cotidiana do século XXI

Os algoritmos de IA estão presentes no nosso cotidiano. Parte do sucesso


da Netflix está em seu sistema de personalização, em que algoritmos analisam
as preferências do usuário e de grupos de usuários com preferências
semelhantes e, com base nelas, sugerem filmes e séries. Acessamos sistemas
inteligentes para programar o itinerário com o Waze, pesquisar no Google e
receber do Spotify recomendações de músicas. A Amazon captura nossas
preferências no extenso fluxo de dados que coleta a partir de nossas interações
com o site (quais produtos analisamos, quando e por quanto tempo os
observamos, quais as avaliações que lemos). A Siri da Apple, o Google Now e a
Cortana da Microsoft são assistentes pessoais digitais inteligentes que nos
ajudam a localizar informações úteis com acesso por meio de voz. Existe uma
multiplicidade de algoritmos de IA permeando as interações nas redes sociais,
dentre eles os algoritmos do Feed de Notícias do Facebook. Esses sistemas
inteligentes não entendem o significado dos dados, apenas detectam padrões
pelo processo de Deep Learning (Capítulo 1).
O marketing e a propaganda usam os algoritmos de IA para identificar os
hábitos e preferências dos consumidores e produzir campanhas mais assertivas e
segmentadas. O mesmo ocorre com as áreas comerciais: no setor imobiliário,
p.ex., os algoritmos permitem identificar se você foi designado para uma
função em outra cidade ou contratado por uma empresa com escritório em
outra cidade, acessar os locais e os tipos de moradia que você vem pesquisando
na Internet, qual o tamanho de sua família e assim por diante, aumentando a
chance de ofertas apropriadas de imóveis. O varejo físico incorpora as
“vantagens” do varejo online por meio de sensores que permitem identificar por
onde o cliente circulou nas lojas, a trajetória do seu olhar nas prateleiras, por
quantas vezes e por quanto tempo. São os algoritmos de IA que transformam
em informação útil a imensidão de dados gerados pelas movimentações digitais
(“rastros digitais”).
Seus benefícios são inegáveis, e os indivíduos e a sociedade os reconhecem.
Em paralelo, no entanto, proliferam impactos negativos a serem
compreendidos e equacionados. Dentre eles, destacam-se34 (a) o viés nos
processos de decisão automatizados, (b) a invasão da privacidade e as novas
formas de controle, e (c) a personalização dos acessos e pesquisas online.

Viés nos processos de decisão automatizada

Um sistema chamado COMPAS (Correctional Ofender Management


Profiling for Alternative Sanctions) no Estado de Wisconsin, e similares em
outros estados americanos, baseado em algoritmos, determina o grau de
periculosidade de criminosos e consequentemente a pena do condenado. A
intenção, segundo seus defensores, é tornar as decisões judiciais menos
subjetivas. A metodologia de avaliação, criada por uma empresa privada
comercial, vem sendo fortemente contestada.
O modelo matemático FICO35, usado por agências de crédito como
Experian/Serasa, Transunion e Equifax, avalia o risco de um indivíduo não
quitar um empréstimo bancário (propensão à inadimplência) com base em seu
histórico. Em 2013, a Comissão de Comércio Federal Americana informou
que 5% dos clientes (cerca de dez milhões) tiveram um erro em um de seus
relatórios de crédito, resultando em taxas maiores. Os sistemas de avaliação das
agências apresentam resultados díspares: estudo de 500.000 arquivos indicou
que 29% das agências de crédito tinham pontuações diferentes para os mesmos
clientes em pelo menos cinquenta pontos, implicando em custos mais altos de
empréstimos ou financiamentos (Pasquale, 2015).
As áreas de RH das empresas valem-se de pontuações de crédito nos
processos de contratação, supondo que o mau crédito se correlaciona com o
mau desempenho no trabalho, implicando uma espiral descendente
(dificuldade em honrar empréstimos acarreta dificuldade de realocação
profissional). O RH acessa igualmente o histórico médico dos candidatos,
recorrendo a um cada vez mais unificado banco de dados. Vasconcelos,
Cardonha e Gonçalves (2017) apontam três problemas na chamada
“contratação algorítmica”: (a) dados históricos do candidato podem não ser
adequados para a finalidade de filtragem, (b) dados extraídos de redes sociais
podem ser questionáveis do ponto de vista ético, e (c) substituição de vários
tomadores humanos de decisões por um único algoritmo pode implicar perda
de diversidade. Os autores indicam diretriz para mitigar esses efeitos: projetar
um processo de supervisão para buscar explicitamente correlações fortes sobre
atributos sensíveis, tentando desvendar o preconceito antes que o sistema seja
implantado. O resultado, todavia, é sempre suscetível a preconceitos porque
depende de dados gerados pelos humanos, imputados diretamente ou por meio
de processos de aprendizado de máquina.
Brynjolfsson e McAfee (2017) admitem que existem riscos na decisão
automatizada, mas ponderam que, embora todos os riscos dos algoritmos de IA
sejam reais, o padrão de referência adequado não é a perfeição, mas sim a
melhor alternativa possível. É certo que os humanos têm vieses (preconceitos),
cometem erros e têm dificuldade para explicar, de fato, como chegaram a
determinada decisão. Por outra linha de raciocínio, pode-se argumentar que
esses modelos são simples referências no processo de tomada de decisão. Ou
ainda, que no estágio atual, em que as máquinas ainda dependem da
supervisão humana, cabe aos profissionais da computação inserir nas máquinas
os parâmetros corretos, ou seja, a responsabilidade sobre o processo.
Schönberger e Ramge (2018) ponderam que “não seremos capazes de superar
todos os preconceitos humanos e falhas de decisão; mesmo que os seres
humanos escolham usar sistemas de aprendizado de máquinas inteligentes em
mercados ricos em dados, essa escolha ainda será humana”36 .
Para Cathy O’Neil (2016), matemática americana, os nossos valores e
desejos, expressos nos dados que selecionamos, influenciam nossas escolhas, ou
seja, os modelos são opiniões incorporadas em Matemática. A questão,
contudo, é se eliminamos o viés humano ou simplesmente o camuflamos com
tecnologias. Para ela os modelos matemáticos deveriam eliminar os
preconceitos tornando os processos decisórios mais justos, em vez disso o que
está acontecendo é a prevalência de modelos matemáticos opacos, não
regulamentados e incontestáveis (apenas os especialistas são capazes de
compreendê-los)37.

Invasão de privacidade e as novas formas de controle

A cultura e a prática de controle permeiam as empresas desde sua origem


na Revolução Industrial, supondo-se uma correlação entre o grau de eficiência
dos controles internos e o grau de eficiência da própria empresa. O exercício do
controle, todavia, extrapola os relatórios e os sistemas criados com essa
finalidade; a jornada de trabalho constitui-se por si só em um poderoso
domínio sobre os indivíduos. Foucault (2002, 2005, 2008) introduz esse
debate ao analisar as transformações na sociedade com relação à utilização do
tempo38 e do espaço39. No final do Século XX, concepções e metodologias de
gestão introduziram novas dinâmicas40, promovendo ambientes corporativos
mais flexíveis e engajados.
A partir de uma lógica distinta, contrariando a tendência das últimas
décadas, as novas tecnologias ampliaram o arcabouço de controles corporativos
presentes desde o processo de seleção e contratação, ao desligamento final do
funcionário. A Amazon, referência em inovação, aprimora a cultura tradicional
de comando-e-controle com base em dados. Investigação do jornal New York
Times, em 2015, sobre as condições de trabalho nos escritórios da empresa de
comércio eletrônico constatou que os funcionários são responsabilizados por
um conjunto de métricas sobre diferentes aspectos operacionais (descritos em
cerca de cinquenta páginas), sendo solicitados semanalmente a explicar as
ineficiências detectadas (Schönberger; Ramge, 2018).
Aparentemente, a política da Amazon está sendo adotada pelas gigantes de
tecnologia, em um processo denominado pela revista e Economist
“taylorismo digital”. Complementando os controles internos, as empresas
acessam as publicações de seus funcionários nas redes sociais e, em alguns
casos, um conjunto mais amplo de dados (prontuário médico até roteiro e
fotos de viagens de férias).
No evento Sustainable Brands41 , em São Paulo, Davi O’Keefe, da
Telefonica Dynamic Insights, apresentou um produto derivado dos dados
captados das linhas móveis (mobile phone data ). Com o título “usando dados
comuns globais e aprendizado de máquina para fornecer informações de
relacionamento digital em multinacionais” (“using global comunicative data and
machine learning to provide digital relationship insights in multinationals” ),
O’Keefe descreveu o “produto” em que, por meio dos dados dos celulares dos
funcionários de uma empresa multinacional (quem ligou para quem, com que
frequência, quanto tempo durou a ligação, dentre outras aferições) é possível
identificar as redes informais internas, elemento estratégico nas políticas de
gestão organizacional. Essas redes, mais do que as redes formais definidas nos
organogramas, sugerem as conexões de influência e de poder nas empresas
(além do tempo que cada funcionário “gasta” ao celular com assuntos externos
ao trabalho). Parece ficção científica, mas é realidade e supera de longe as
previsões de George Orwell no livro 1984 publicado em 1949, vários anos
antes do termo inteligência artificial ter sido cunhado (1956).A questão não se
resume a ter ou não acesso a dados específicos, inclusive porque vários bancos
de dados têm mecanismos de proteção. O risco maior está na combinação e
correlação de dados originados em distintas fontes, que geram novos dados
privados (correlações estatísticas) livres de supostos acordos de privacidade.

Personalização dos acessos e pesquisa online


A recente explosão de dados na Internet e Web substituiu a ideia de
“liberdade” pela ideia de “relevância”, na formação do fluxo de informações
online42; o acesso à informação passou à ser personalizado. Sofisticados
algoritmos de inteligência artificial individualizam as consultas ao Google, i.e.,
os resultados variam em função do perfil de quem está buscando a informação.
Pariser (2011), ativista da Internet, alerta para o processo invisível de filtragem
de conteúdo que, ao gerar resultados personalizados, nos coloca em contato
com o que queremos ver e não com o que devemos ver; devemos assegurar o
acesso não só ao que é relevante, mas também ao que é desconfortável,
desafiador e outros pontos de vista. Pariser denuncia a falta de transparência.
A rede social Facebook utiliza algoritmos de IA no gerenciamento das
publicações no Feed de Notícias de seus usuários. São disponibilizados
diariamente cerca de 2 mil itens para cada usuário (mensagens, imagens,
vídeos); dentre esse conjunto de informações, os algoritmos identificam e
selecionam de 100 a 150 publicações com a intenção de facilitar a experiência
do usuário43. Para processar com assertividade a seleção de “conteúdos
relevantes” e estabelecer correlações, os algoritmos precisam ter acesso a uma
grande e diversificada quantidade de dados. No processo, os algoritmos
interferem na mediação entre os usuários da plataforma.
A principal crítica aos sistemas inteligentes é a formação de “bolhas”, ou
“câmaras de eco”, ao promover a homogeneização das relações sociais,
mantendo as pessoas em círculos sociais fechados formados por iguais. Andrew
Guess, com base em um estudo44 no qual é um dos autores, pondera que são
exageradas as afirmações de prevalência desses fenômenos. Para ele, a narrativa
“câmaras de eco” captura, no máximo, a experiência de uma minoria do
público. Ele alerta, inclusive, que é difícil estudar o problema na medida em
que os dados e os algoritmos das plataformas de mídias sociais são em sua
maioria proprietários (ou seja, acesso limitado), e crê que há mais evidências de
“câmaras de eco” na vida real do que online

Aplicações ilustrativas de IA na sociedade de dados


As grandes empresas de tecnologia – as FAANGS como denominadas pelo
jornal Financial Times (Facebook, Amazon, Apple, Netflix e Google) –, são a
parte mais visível da economia de dados, mas não a única. A queda de receita
na função “voz” pressiona as empresas de telecomunicações na busca por
produtos alternativos e, aparentemente, a inovação disruptiva está no uso dos
dados de seus usuários, particularmente na telefonia móvel (ex. do produto da
Telefonica descrito anteriormente). Os bancos, talvez o setor com mais acesso a
dados privados, ainda não estão usando os dados de seus clientes em sua plena
dimensão concentrados em reduzir os custos através da migração de
plataformas físicas para digitais e do uso da IA na automação de processos.
Existem fortes indícios de que, em breve, os bancos vão se reinventar como
intermediários de informação45 , preservando as funções de transferência e
guarda de valor46 .
Para que a economia de dados funcione é imprescindível rotular e
categorizar a informação, ou seja, registrar digitalmente e detalhadamente as
referências individuais de produtos e serviços. A falta de uma antologia reduz o
número de transações pela limitação em encontrar um “match” (a falta de
filtros de identificação compromete a eficiência do mercado). No início da
Amazon, em meados da década de 1990, Jeff Bezos, fundador e CEO, analisou
uma lista de vinte possíveis categorias de produtos optando pelos livros: além
de serem commodities, existiam três milhões de livros impressos em todo o
mundo, e os catálogos dos editores estavam digitalizados. Não é suficiente,
contudo, a disponibilidade dos dados brutos; extrair as informações demanda
um processo de correspondência que seja inteligente o suficiente para levar em
conta as múltiplas dimensões de preferências e seu peso relativo, como visto
anteriormente, viabilizado pelos algoritmos de inteligência artificial.

Na recomendação personalizada da Netflix

Pedro Domingos (2015) compara os modelos de recomendação da


Amazon e da Netflix: “Se cada um guiasse você através de uma livraria física,
tentando determinar o que é ‘certo para você’, a Amazon estaria propensa a
levá-lo até às prateleiras que você frequentou anteriormente; a Netflix levaria
você a seções estranhas da loja”47. O algoritmo da Netflix tem uma
compreensão mais profunda das preferências do usuário, e isso se explica pelo
fato de seu modelo depender de expandir a demanda para filmes e vídeos da
“cauda longa”, que custam menos do que os blockbusters (a empresa seria
deficitária se os usuários escolhessem apenas os hits, cujos custos ultrapassam o
valor das mensalidades). Pelo modelo de negócio da Amazon, a concentração
nas mesmas preferências é positiva porque facilita a logística. Além disso, como
clientes, as pesquisas indicam que estamos mais dispostos a ter uma chance
com o desconhecido (tomar risco) num modelo de assinatura (Netflix) do que
pagando por esse item individualmente (Amazon).
Netflix é entretenimento on-demand ; não é uma empresa de tecnologia
nem uma empresa de entretenimento, mas um mix de ambas. A inteligência
artificial está no seu DNA e é responsável por tê-la colocado, em uma década,
no top do setor de entretenimento. Seus algoritmos não ligam para os dados
privados dos usuários – etnia, gênero, localidade/endereço – o foco é o
comportamento diante da tela (o que buscam, o que assistem, e como buscam
e como assistem), computando e analisando todos os sinais gerados nessa
interação. A personalização não é sinônimo de individualização, não há como
sê-lo num universo de cerca de 130 milhões de usuários globais (ocorre a
“desindividualização”); os algoritmos decodificam o comportamento e as
preferências de “comunidades” afins de usuários, e o desafio do seu sistema de
recomendação é ajudar o usuário a decidir frente a tantas opções.
O usuário médio procura por 40-50 títulos antes de efetivar sua escolha,
cabe aos algoritmos de IA melhorar a experiência tornando-os mais assertivos.
Os algoritmos da Netflix captam e registram o conjunto de interações do
usuário, identificando a relevância de palavras e imagens em suas escolhas. O
sistema opera com base em três possibilidades: recomendação por conteúdo a
partir de escolhas anteriores do usuário; filtragem colaborativa, que considera
as preferências da comunidade de usuários de perfis semelhantes; e a
recomendação híbrida, combinação das duas anteriores otimizando os
resultados.
Às vezes o sistema indica “spans” (opção fora do padrão da comunidade)
que, eventualmente, traduz um desejo não explícito (não consciente). Outra
possibilidade é a tentativa do sistema de sair da “caixa” expondo o usuário à
diversidade da Netflix. A meta é sempre colocar a opção certa, diante do
usuário certo, no momento certo, tendo em conta que tem apenas 90 segundos
para convencer o usuário a assistir um determinado conteúdo48.
Para além das dinâmicas de circulação e de consumo de produtos, os dados
captados e minerados pelos algoritmos de IA indicam hábitos e tendências
culturais, referência na produção das séries exclusivas (incluindo a escolha de
diretores e atores). Por meio desses mecanismos, a Netflix gera previsões
assertivas das preferências de seus usuários permitindo lançar produtos de
sucesso, como a série House of Cards (influenciando, igualmente, o
orçamento, o roteiro e o elenco).
Os algoritmos de IA são os matchmakers, aproximam produtos e
consumidores com o melhor dos dois mundos: a diversidade de opções e o
baixo custo da grande escala, com toque de personalização. Um dos efeitos é a
concentração de mercado: quem tem mais clientes acumula a maior parte dos
dados, cria os melhores modelos, conquista novos clientes e assim por diante,
num círculo virtuoso.

No Feed de Notícias do Facebook

O Facebook criou, em 2014, o Artificial Intelligence Research Lab sob o


comando de Yann LeCun, pesquisador da Universidade de Nova York.
Segundo ele, “o lema do Facebook é conectar pessoas. Cada vez mais, isso
também significa conectar as pessoas com o mundo digital. No fim de 2013,
quando Mark Zuckerberg decidiu criar o Facebook AI Research, pensou no
que seria conectar pessoas no futuro e percebeu que a inteligência artificial
desempenharia um papel fundamental”49.
O Facebook disponibiliza diariamente cerca de 2 mil itens para cada
usuário (mensagens, imagens, vídeos etc.). Entre esse conjunto de informações,
os algoritmos do Facebook facilitam a experiência do usuário identificando e
selecionando de 100 a 150 itens com base nas preferências individuais (likes,
posts, comentários, compartilhamentos, fotos publicadas e compartilhadas,
conexões prioritárias, tempo de permanência em cada postagem) e as
preferências de usuários parecidos (semelhante aos sistemas de recomendação
da Amazon, da Netflix, do Google, e outros). Essa seleção assertiva de
conteúdos relevantes é processada por meio da IA, especificamente pelas “redes
neurais recorrentes”. Como explica LeCun, “grande parte do nosso trabalho no
Facebook se concentra na elaboração de novas teorias, princípios, métodos e
sistemas capazes de fazer com que a máquina compreenda imagens, vídeos, fala
e linguagem e, em seguida, raciocine sobre elas”50.
A personalização, como visto anteriormente, não é o mesmo que
individualização, os algoritmos precisam de mais dados para “concluir” com
precisão. A título de exercício, imaginemos um Observador da movimentação
de um usuário do Facebook; provavelmente, após um certo tempo, esse
Observador será capaz de identificar as preferências deste usuário com base no
“banco de dados” armazenado na sua memória (do Observador) e,
principalmente, porque são dados processados. Quando alguém curte um post,
por exemplo, relacionado com o Lula, o Observador sabe que não é o molusco
lula, mas o ex-presidente da República. Os algoritmos para estabelecer
correlações precisam ter acesso a uma grande e diversificada quantidade de
dados. Por isso, a seleção do Feed de Notícias extrapola a movimentação de um
usuário individual, os algoritmos buscam similaridades com outros usuários
por meio do processo de Deep Learning .

Na prevenção de crimes

O HunchLab51 é um sistema proativo de gerenciamento de patrulhas.


Baseado em modelos estatísticos avançados, visa prever quando e onde um
crime será cometido. Não se trata apenas de antecipar o crime, particularmente
em áreas de alto risco, mas sim descobrir a melhor maneira de enfrentá-lo
evitando o excesso de policiamento e seus eventuais danos. O HunchLab
oferece recursos para (a) alinhar as atividades de patrulha com as prioridades da
comunidade, (b) alocar recursos de maneira inteligente para evitar o excesso de
policiamento e (c) identificar as táticas eficientes. Com base em dados
históricos de crimes e indicadores atuais e futuros, por meio de modelos
preditivos (aprendizado de máquina/Deep Learning), o sistema indica a
probabilidade de ocorrer incidentes criminais em determinados locais e
horários específicos (análise de risco); são considerados variáveis como
sazonalidade, condições socioeconômicas, dia da semana, hora do dia, dentre
outras. O sistema captura uma ampla gama de dados sobre a região – desde o
clima a localização de caixas eletrônicos e outros pontos atraentes ao crime -, e
adiciona os registros acumulados pela polícia, úteis na definição das áreas de
risco.
O HunchLab, via acesso a localização GPS extraída de smartphones ou
tablets, envia informações aos policiais em campo com o indicador de risco
associado a cada tipo de crime. Em paralelo, o HunchLab Dashboard
disponibiliza métricas para avaliação de desempenho do departamento policial
(indicadores-chave de desempenho – KPIs). Recentemente, o HunchLab foi
adquirido pela ShotSpotter, empresa com atuação em 90 cidades americanas na
análise e solução forense (o aplicativo subdivide uma cidade em células de 250
metros quadrados, facilitando as projeções).
A empresa alega atuar de forma transparente sobre os dados utilizados, as
teorias que sustentam o modelo e como os algoritmos são construídos e
operados, sempre compartilhando os projetos com departamentos de polícia,
jornalistas e ativistas. Existem, contudo, opositores ao sistema invocando
discriminação a partir de vieses dos dados (a população afro-americana
representa cerca 32% da população total e 56% dos presos), falta de
transparência sobre o funcionamento do sistema e invasão de privacidade.

No recrutamento e seleção de RH
Semelhante aos sistemas de recomendações personalizadas, a plataforma
Pymetrics propõe-se adequar candidatos e empregos, maximizando a
probabilidade de sucesso (maior retenção). São quatro pilares: (a) jogos de
neurociência coletam milhões de dados comportamentais objetivos; (b) IA
personalizada aumenta a eficiência utilizando algoritmos de aprendizado de
máquina que criam perfis customizados para cada função na empresa; (c)
algoritmos sem viés obtidos por metodologia própria (“Auditoria
Algorítmica”); e (d) candidatos rejeitados acessam automaticamente outras
oportunidades em outros clientes (em média, 90% dos candidatos não são
contratados para as vagas que se candidataram). Ao final do processo de
seleção, o candidato recebe um relatório sobre suas características cognitivas e
emocionais. O sistema da Pymetric pode ser aplicado igualmente para
avaliação interna de RH.
Proliferam as chamadas HR Techs (Human Resources + Technology),
oferecendo soluções eficientes e agilidade às grandes empresas em diversas áreas
de especialização. Em geral, as start-ups dedicadas aos processos de
recrutamento e seleção utilizam sistemas de inteligência artificial, mas a IA
também é usada para melhorar a eficiência dos processos internos. Os
Chatbots, outra aplicação de IA, estão sendo implantados por muitas empresas
para responder as dúvidas de seus funcionários, liberando as equipes de RH
para outras atividades.

Na área de saúde

Em 2015, o Centro Médico Gil da Universidade de Gachon em Incheon,


na Coréia do Sul, adotou o IBM Watson no tratamento de câncer52. O sistema
analisa grandes volumes de dados e oferece opções de tratamento
personalizado; usando o processamento de linguagem natural, os médicos
acessam rapidamente informações clinicamente relevantes para a coleta de
evidências específicas das necessidades de um paciente. O Watson da IBM,
atualmente, supera os melhores especialistas humanos no diagnóstico de alguns
tipos de câncer.
A vantagem da linguagem natural é aproveitar dados não estruturados, que
correspondem a cerca de 80-90% dos dados totais do mundo. O processo de
aprendizado profundo (Deep Learning) permite que o “Watson” evolua,
mantendo-se atualizado sobre diretrizes de tratamento, políticas e melhores
práticas médicas. O sistema se aperfeiçoa iterativamente quanto mais for
usado, tanto para descobrir como curar os pacientes quanto para curá-los a um
custo menor.
Um acordo comercial entre o Memorial Sloan-Kettering Cancer Center,
NY, e a empresa de saúde privada americana Wellpoint (2018) disponibilizará
em breve o “Watson” para qualquer hospital ou clínica ao redor do mundo
mediante aluguel via “nuvem”; o sistema foi submetido a intenso treinamento a
partir de mais de 600 peças de evidências médicas, mais de dois milhões de
páginas de revistas médicas e possui capacidade adicional de pesquisar até 1,5
milhão de registros de pacientes para complementar as informações53. Segundo
as projeções da Wellpoint, um médico humano demandaria ao menos 160
horas de leitura semanal para apenas acompanhar os novos trabalhos
publicados. Os resultados são surpreendentes: a taxa de sucesso do Watson para
o câncer de pulmão, p.ex., é de 90%, comparado a 50% para os médicos
humanos.
São inúmeros os atuais benefícios na área de saúde advindos das
tecnologias de IA, sobretudo para diagnósticos e prevenção de epidemias. Estão
em desenvolvimento, em laboratórios especializados, nanorrobôs para
“navegar” na corrente sanguínea identificando doenças, e eliminando
patógenos e células cancerosas. O cientista Eberhart Fetz lidera um grupo, na
Washington University, dedicado ao desenvolvimento de um computador
minúsculo com tecnologia de IA que, implantado no cérebro humano,
recupere movimentos perdidos, como a mobilidade de uma perna, suplantando
as próteses mecânicas; as experiências empíricas realizadas em macacos
resultaram em prognósticos animadores.
O Medline, um banco de dados online mantido pela Biblioteca Nacional
de Medicina dos EUA, indexa mais de 5.600 periódicos e milhões de registros
médicos, históricos de pacientes e estudos de caso que oferecem importantes
insights; estima-se que o volume total dos dados dobre a cada cinco anos. É
impossível para qualquer ser humano assimilar mais do que uma minúscula
fração da informação relevante. Deep Learning é sobre treinar sistemas, a partir
de grandes quantidades de dados, para prever diagnósticos, identificar
epidemias, reconhecer novas patologias e, por vezes, dar respostas objetivas a
perguntas cruciais.

No setor financeiro

Provavelmente o setor com mais acesso a dados privados, os bancos ainda


não exploram plenamente os dados de seus clientes. “Embora, em teoria, os
bancos devam se sentir muito à vontade trabalhando com muitos dados,
porque eles coletam e operam uma grande e detalhada variedade de dados
financeiros de seus clientes há muitas décadas, eles ainda não fizeram muito
com os dados que possuem. Neste contexto, eles são ricos em dados, mas
pobres em insights”, afirmam Schönberger e Ramge (2018)54. A previsão é que
em futuro próximo os bancos se converterão em plataformas de serviços e
produtos, concorrendo com as gigantes de tecnologia.
O segmento de cartão de crédito já é um usuário intensivo de algoritmos
de IA: uma divisão do cartão de crédito Mastercard — Mastercar Advisors —
agrega e analisa aproximadamente 65 bilhões de transações de 1,5 bilhões de
titulares de cartão em 210 países, procurando identificar tendências de
negócios e consumo para, em seguida, comercializar a informação à terceiros.
Há cerca de três anos, um executivo da matriz do Mastercard abriu uma
palestra em São Paulo declarando: “Não somos mais uma empresa financeira,
somos uma empresa de dados”.
Os sistemas inteligentes atendem a um dos maiores desafios estratégicos da
operação bancária: identificar padrões e, com base neles, prever cenários
futuros para avaliação de risco (previsão mais assertiva, decisões mais
qualificadas) reduzindo custos e aumentando a eficiência dos processos,
compartilhando informações autorizadas do cliente com terceiros,
personalizando o atendimento ao cliente, maximizando o retorno de
campanhas de marketing (segmentação de base de cliente, ampliação do
conhecimento sobre os clientes). Segundo a Febraban – Federação Brasileira de
Bancos, atualmente 80% dos bancos que atuam no Brasil investem em
inteligência artificial.
O serviço de atendimento online ao cliente se beneficia com o
processamento de linguagem natural; o desempenho dos robôs é tão perfeito
que, às vezes, temos a sensação de estar interagindo com pessoas do outro lado
da linha. Prolifera o uso de Chatbots (assistente digital inteligente) incialmente
para substituir os especialistas no atendimento interno e, numa segunda fase,
no relacionamento com os clientes como a Erica do Bank of America e a BIA
do Bradesco (sistema desenvolvido com base no Watson da IBM). O JP
Morgan Chase lançou o Coin, um bot para agilizar contratos legais complexos
tendo economizado, nos primeiros seis meses, 360.000 horas de trabalho
humano.

No varejo

Em dezembro de 2015, a North Face – principal fornecedora mundial de


vestuário, equipamento e calçados -, anunciou o lançamento de um sistema de
compras online interativo: o cliente, por meio do processamento de linguagem
natural, enquanto faz compras recebe recomendações personalizadas através de
uma conversa com o “vendedor”. Desenvolvida em parceria com a Fluid,
provedora de serviços e consultoria online, as conversas geram dados que são
transformados em insights para melhorar a experiência do consumidor.
A parceria Watson IBM e Fluid teve início em 2013, com o intuito de
replicar nos sites de compras online a função do balconista de uma loja de
varejo. Se o cliente está planejando um acampamento e deseja adquirir uma
barraca, p.ex., pode fazê-lo simplesmente dizendo algo como “estou levando
minha família para acampar no norte de NY em outubro e preciso de uma
barraca. O que devo considerar?” De imediato, o sistema fornece
recomendações específicas de tendas, além de dicas para outros itens não
considerados. Em breve, o acesso estará disponível nos smartphones.
A Amazon, em 2018, inaugurou a mercearia Amazon Go, em Seattle, nos
EUA. O cliente transita pela loja, põe os produtos em sua sacola e vai embora.
Um aplicativo baixado previamente no celular registra as compras e os
pagamentos sem qualquer interferência humana; não há caixas. Seu
concorrente chinês, Alibaba, já tem 46 lojas semelhantes em 13 cidades da
China e planeja inaugurar mais duas mil unidades nos próximos cinco anos.
A automação do varejo gera dados que são utilizados para estruturar os
modelos de previsão, para treinar e aperfeiçoar os algoritmos, e por último para
aperfeiçoar e melhorar o desempenho dos algoritmos a partir da interação com
os usuários. Em paralelo, constitui-se numa fonte valiosa de informações sobre
o comportamento do consumidor (pesquisa massiva, a custo relativamente
baixo).

Na mídia

Um software chamado “StatsMonkey”55 , criado no Intelligent Information


Laboratory da Northwestern University, transforma dados objetivos de eventos
esportivos em matérias jornalísticas, superando em qualidade e precisão, na
média, os jornalistas humanos. O sistema identifica, por meio de modelos
estatísticos inteligentes, os principais lances do jogo e produz um texto, em
linguagem natural, sobre a dinâmica geral da partida com foco no desempenho
dos principais jogadores em campo.
Narrative Science é uma tecnologia usada pelos principais meios de
comunicação na produção de artigos automatizados, cobrindo uma variedade
de áreas – incluindo esportes, negócios e política. O sistema gera um novo
texto aproximadamente a cada trinta segundos, e muitos são publicados em
sites de grande visibilidade (que preferem não reconhecer o uso desse serviço).
Em uma conferência da Wired, em 2011, seu co-fundador Kristian Hammond
estimou que em quinze anos mais de 90% dos artigos jornalísticos serão
produzidos por algoritmos de IA, que cobrem, em tempo e extensão, uma
enorme gama de dados, inviável à qualquer ser humano. Adicionalmente, eles
são treinados sobre o formato e as características de um texto “perfeito”.
Na conferência RISE, realizada em Hong Kong em 2017, um executivo da
WPP, líder mundial de serviços de comunicação, apresentou para um auditório
lotado de publicitários de vários países, dois comerciais de televisão de 30
segundos (padrão): um produzido por publicitários humanos e outro por
algoritmos de IA (mesmo roteiro, mesmo produto). Em seguida submeteu ao
voto do auditório qual teria sido feito por humano e por máquina, e o
resultado foi surpreendente: os cerca de 300 participantes se equivocaram,
alegando que o produzido por algoritmos de IA teria sido produzido por
humanos pela maior dose de emoção e sentimento (elementos captados pelo
sistema inteligente como ideal para tornar um anúncio eficaz).

Alertas aos riscos da IA

Em maio de 2014, o físico da Universidade de Cambridge Stephen


Hawking publicou um artigo no jornal inglês e Independent56 – em co-
autoria com Stuart Russell, cientista da computação da Universidade de
Berkeley, Max Tegmark e Frank Wilczek, Prêmio Nobel, ambos físicos do MIT
-, reconhecendo que o advento de uma verdadeira máquina pensante seria o
maior feito da história da humanidade, mas que poderia ser o último se os
riscos não forem evitados. Um sistema inteligente que exceder a inteligência
em nível humano pode ser capaz de “superar os mercados financeiros, inventar
pesquisadores humanos, manipular os líderes humanos e desenvolver armas
que não poderemos entender”; ignorar esse cenário pode ser ‘potencialmente
nosso pior erro na história’”
Alimentado por volumes de investimento sem precedentes e fundamentado
em uma base teórica cada vez mais sólida, não há discordância em relação aos
enormes benefícios à humanidade dos avanços da IA. Para os autores do artigo,
contudo, não há empenho dos especialistas em garantir resultados positivos57.
“Se uma civilização alienígena superior nos mandar uma mensagem dizendo:
‘Chegaremos em algumas décadas’, responderíamos: ‘OK, ligue para nós
quando chegar aqui – deixaremos as luzes acesas’? Provavelmente não – mas
isso é mais ou menos o que está acontecendo com a IA”.
Numa perspectiva humanista, Yuval Harari (2018)58 pergunta “Podemos
confiar na tecnologia?”. Para ele a tecnologia é benéfica, mas temos que evitar
que ela assuma o controle sobre nossas vidas, que nos tornemos reféns de sua
agenda.

À medida que a biotecnologia e o aprendizado de máquina melhoram, fica mais fácil


manipular as emoções e desejos mais profundos das pessoas, e se tornará mais perigoso do
que nunca seguir o seu coração. Quando a Coca-Cola, a Amazon, a Baidu ou o governo
sabem como puxar as cordas do seu coração e apertar os botões do seu cérebro, você ainda
pode perceber a diferença entre você mesmo e seus especialistas em marketing?59

E complementa

Coca-Cola, Amazon, Baidu e o governo estão correndo para hackear você. Não é o seu
smartphone, não o seu computador, e não a sua conta bancária – eles estão em uma corrida
para hackear você e seu sistema operacional orgânico. Você pode ter ouvido falar que
estamos vivendo na era de invadir computadores, mas isso dificilmente é a metade da
verdade. Na verdade, estamos vivendo na era de hackers humanos60.

Harari alerta que os algoritmos estão nos observando, registrando onde


vamos, o que consumimos, com quem nos relacionamos e, em breve, vão
monitorar todos os nossos passos, respirações e batimentos cardíacos. Com
base no Big Data e no aprendizado de máquina (Deep Learning ), os sistemas
inteligentes vão nos conhecer melhor do que nós mesmos, podendo nos
controlar e manipular. “Se os algoritmos realmente entenderem o que está
acontecendo dentro de você melhor do que você entende, a autoridade será
transferida para eles”61 .

Claro, você pode estar perfeitamente feliz em ceder toda a autoridade aos algoritmos e
confiar neles para decidir as coisas para você e para o resto do mundo. Se sim, relaxe e
aproveite o passeio. Você não precisa fazer nada sobre isso. Os algoritmos cuidarão de tudo.
Se, no entanto, você quiser manter algum controle de sua existência pessoal e do futuro da
vida, você terá que correr mais rápido que os algoritmos, mais rápido que a Amazon e o
governo, e conhecer a si mesmo antes deles. Para correr rápido, não leve muita bagagem
com você. Deixe todas as suas ilusões para trás. Elas são muito pesadas62.

A relativa autonomia conquistada pelos sistemas inteligentes, quando não


mais seguem processos de decisão pré-programados pelos humanos e começam
a aprender por si mesmos, coloca para a sociedade novas questões éticas e a
urgência de estabelecer arcabouços legais e regulatórios. As conhecidas “Três
Leis da Robótica” de Asimov, propostas há mais de 50 anos, citadas
frequentemente como referência ética para a IA, não se sustentam no estágio
atual: as tecnologias inteligentes não estão relacionadas apenas a robótica —
pelo contrário, estão em todos os campos de conhecimento e suas aplicações
práticas —, nem essas máquinas inteligentes estão subordinadas diretamente às
“ordens que lhe são dadas por seres humanos”.
Gerd Leonhard (2016) defende, no livro “Technology vs Humanity”, a
formação de um conselho global de ética digital para tratar da inteligência
artificial, duvidando da capacidade das máquinas de compreender e assimilar
algum tipo de ética, pelo menos no estágio de desenvolvimento atual da IA.
Para ele, nenhuma IA será verdadeiramente inteligente sem algum tipo de
módulo de governança ética, pré-requisito para limitar a probabilidade de
falhas. É pertinente, contudo, a indagação do filósofo americano Ned Block “se
as máquinas aprendem com o comportamento humano, e esse nem sempre
está alinhado com valores éticos, como prever o que elas farão?”63.
Várias questões afloram, desde a mais básica — como incorporar a ética
humana às tecnologias de IA, se são valores humanos às vezes ambíguos ou não
verbalizados mesmo entre os próprios humanos? ou, o que é pior, não
necessariamente adotados pelos humanos (logo, não incorporados aos dados)
—, até se faz sentido investir no desenvolvimento de uma inteligência que no
futuro não terá controle humano, com riscos e ameaças imponderáveis.
Proliferam iniciativas de pesquisadores, corporações, governos. Acadêmicos
americanos fundaram, em 2014, o instituto Future of Life, com a adesão de
personalidades como o cientista da computação Stuart J. Russell, os físicos
Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman.
Em 2017, a DeepMind da Alphabet (holding do Google) anunciou a criação
do grupo DeepMinds Ethics & Society (DMES) dedicado a estudar os
impactos da IA na sociedade. Liderado por Verity Harding e Sean Legassick, o
grupo é formado por 25 pesquisadores com dedicação exclusiva. O fato dos
algoritmos de IA mediarem as interações na sociedade não se constitui por si só
num problema, a mediação sempre existiu; o inusitado é a invisibilidade dessa
mediação.
Emergem igualmente iniciativas com foco específico: o Media Lab do
Massachusetts Institute of Technology (MIT) está desenvolvendo um sistema para
permitir que o usuário controle seu próprio Feed de Notícias do Facebook, e
não os algoritmos; professores da Harvard Law School estão trabalhando em
maneiras de eliminar o “viés injusto” dos algoritmos. Ambas iniciativas estão
sob o guarda-chuva de um fundo de pesquisa de US$ 27 milhões (Ethics and
Governance of Artificial Intelligence Fund), criado pelo cofundador do LinkedIn,
Reid Hoffman, e outros investidores, e administrado pelo MIT Media Lab e
pelo Centro Berkman Klein de Harvard.
Os governos da Europa e dos EUA estão engajados na regulamentação da
IA. No início de 2017, um relatório do Parlamento Europeu sobre robótica e
inteligência artificial versou sobre responsabilidade civil, ética, impacto sobre
mercado de trabalho, segurança e privacidade. Os eurodeputados defendem
dotar os robôs autônomos de “personalidade eletrônica”, ou seja, aptos a arcar
com a responsabilidade de seus atos (inclusive serem taxados)64 . Outras ideias
em debate são a criação de um código de conduta ética para engenheiros de
robótica, e a agência europeia para a robótica e inteligência artificial. Dois
obstáculos comprometem os resultados: o relativo baixo conhecimento dos
legisladores sobre os meandros dessas tecnologias, e a velocidade de seu
progresso que produz, anualmente, novos desafios.
Pasquale (2015) argumenta que a lei da informação protege muito mais do
que a lei de privacidade pessoal, e denuncia dois movimentos opostos:
“enquanto empresas poderosas, instituições financeiras e agências
governamentais escondem suas ações por trás de acordos de não divulgação,
‘métodos proprietários’ e regras de mordaça, nossas próprias vidas são livros
cada vez mais abertos”65. Ele observa que as empresas coletam cada vez mais
dados sobre seus usuários, mas combatem as regulamentações que permitiriam
a esses mesmos usuários exercer algum controle sobre os mesmos. A
complexidade aumenta se levarmos em conta a “barreira tecnológica”,
poderoso limitador da capacidade de controle por parte da sociedade.
Atualmente nos EUA existem ao menos dezesseis agências cujas atividades
estão de alguma forma relacionadas às tecnologias de IA; todas empenhadas em
construir um arcabouço legal que responda, dentre outras questões: quem é o
responsável pelas falhas de um carro autônomo ou um dispositivo médico? se o
Watson se equivocar num diagnóstico resultando num tratamento igualmente
equivocado, quem deve se responsabilizar frente ao paciente e sua família?
como evitar, e punir se ocorrer, sistemas inteligentes que promovam
discriminação racial, orientação sexual, gênero, ou de qualquer outra ordem? e
se o sistema for treinado para cometer fraude financeira? como o Estado e a
sociedade vão lidar com o contingente de cidadãos cujas habilidades se
tornarão obsoletas?
A proteção aos dados pessoais é outro tema complexo. O Regulamento
Geral de Proteção de Dados Europeu (GDPR), aprovado em maio de 2018,
prevê o consentimento prévio do titular dos dados para sua coleta e
tratamento. O regulamento criou uma categoria especial para os “dados
sensíveis” — origem racial, etnia, crenças religiosas e políticas, informações
sobre saúde e vida sexual, dados genéticos e biométricos, dentre outros —, em
princípio proibidos de serem processados, justamente os dados pessoais
estratégicos para os algoritmos de IA. O GDPR, considerado o mais completo
arcabouço de proteção à privacidade e aos dados pessoais, tem inspirado vários
países inclusive o Brasil que aprovou, no segundo semestre de 2018, um marco
regulatório inspirado no europeu. As restrições ao livre compartilhamento de
dados, compromete a evolução das tecnologias inteligentes e gera concentração
de mercado; como exposto nos Capítulos 1 e 2, a matéria-prima das aplicações
bem-sucedidas de IA são os dados (o que explica, em parte, a previsão da
China assumir em breve a liderança do campo da IA: acesso irrestrito, pelo
governo e pelo setor privado, aos dados gerados por uma população de 1, 5
bilhão).
A inteligência artificial avança aceleradamente em todos os domínios,
trazendo benefícios à sociedade e, simultaneamente, levantando questões éticas
e sociais de grande impacto como, p.ex., o deslocamento dos empregos em
setores intensivos em mão-de-obra e a expansão de atividades econômicas
menos intensivas em mão-de-obra. (empresas de tecnologia). Estamos num
ponto de inflexão em que ainda é possível balancear os efeitos negativos e
positivos, promovendo progresso com menos desigualdade. O desafio é
construir uma parceria homem-máquina inclusiva para toda a sociedade. “E se
as ideias que realmente dão brilho aos olhos dos pesquisadores frutificarem, o
aprendizado de máquina trará não apenas uma nova era de civilização, mas um
novo estágio na evolução da vida na Terra” (Domingos, 2015)66.
Capítulo 3

Especulações sobre o futuro das


máquinas inteligentes: super
inteligência e singularidade

O substrato é moralmente irrelevante, supondo que não afeta a funcionalidade ou a


consciência. Não importa, do ponto de vista moral, se alguém usa silício ou neurônios
biológicos (assim como não importa se você tem pele escura ou pálida). Pelas mesmas
razões que rejeitamos o racismo e o especismo, devemos também rejeitar o carbono-
chavinismo, ou bioismo. (Nick Bostrom,“Ethics for Intelligent Machines: A Proposal”, 2001)

No filme “I, Robot” dirigido pelo australiano Alexander Proyas, produzido


em 2004 e contextualizado em 2035 com roteiro baseado em contos de Isaac
Asimov, o protagonista, interpretado pelo rapper Will Smith, pergunta a um
robô: “Um robô pode escrever uma sinfonia? Um robô pode transformar uma
tela em uma bela obra-prima?”. Vinte e três anos antes da era do filme, em
julho de 2012, a Orquestra Sinfônica de Londres executou uma composição
intitulada “Transits – Into an Abyss”. Elogiada pelos críticos, o evento
representou a primeira vez que uma orquestra de elite tocou uma música
composta inteiramente por uma máquina inteligente. Criada pelo computador
Iamus, projetado por pesquisadores da Universidade de Málaga, Espanha, o
nome foi inspirado no personagem da mitologia grega que entendia a
linguagem das aves. Iamus é igualmente o autor da peça “Opus One” de 2010,
primeiro fragmento de música clássica composto por um computador em estilo
próprio, e “Hello, World” de 2011, a primeira composição completa.
Desenvolvido pela startup Melomics Media, baseado em algoritmos
bioinspirados67 , com informações limitadas, como o tipo de instrumentos, o
sistema gera uma música complexa em questões de minutos.
Simon Colton, professor de computação criativa da Universidade de
Londres, em 2006 construiu o software gráfico, baseado num programa de
inteligência artificial, “e Painting Fool”, capaz de captar as emoções de uma
fotografia e reproduzi-las num retrato abstrato. Em sua página, Painting Fool
se apresenta: “sou um programa de computador e um aspirante a pintor, meu
objetivo é um dia ser levado a sério como um artista criativo por mim mesmo.
Fui construído para exibir comportamentos que podem ser considerados
habilidosos, apreciativos e imaginativos”68. Em 2018, pela primeira vez, uma
arte-final produzida por IA foi vendida em leilão: na Christie’s de Nova York
pelo valor de US$ 433 mil. O valor da obra “Edmond de Belamy”,
ligeiramente borrada, foi estimado originalmente por US $ 7.000 – US $
10.000.
O engenheiro chinês especialista em inteligência artificial de 31 anos,
Zheng Jiajia, em 2017 construiu uma mulher-robô e, em seguida, se casou
com ela numa cerimônia típica na presença da mãe e de amigos. O casamento
não tem valor legal porque a legislação chinesa não prevê núpcias entre
humanos e humanoides. Yingying, a esposa-robô, usa linguagem natural,
reconhece imagens e objetos, mas ainda não tem mobilidade. Em que
momento será aceito como “normal” relações românticas entre humanos e
robôs? alguns especialistas apostam que nos próximos 20 à 40 anos.
Para o violoncelista alemão Jan Vogler, a arte é o que nos faz humanos.
Produzir uma obra de arte requer criatividade e emoção; numa relação de casal
pressupõe-se a existência de sentimentos e emoções. Criatividade, sentimentos
e emoções são atributos até então considerados exclusivos dos humanos, mas, o
que é criatividade e emoção? se advêm de “algoritmos bioquímicos”,
teoricamente, são passíveis de serem reproduzidos artificialmente, bem como a
“inteligência”, ainda que a ciência esteja longe de desvendar os mistérios da
parte frontal do cérebro, considerado a parte “mais humana”, responsável pelo
pensamento abstrato e o planejamento de ações e movimentos.
Mark Zuckerberg, fundador e CEO do Facebook, aposta que em breve a
IA terá supremacia sobre os humanos em todos os sentidos (visão, audição,
linguagem e cognição geral). O cientista chefe da empresa DeepMind
(desenvolvedora do AlphaGo) prevê que a IA atingirá o nível da inteligência
humana em meados dos anos 2020. Esse excessivo otimismo tem fundamento?
Em artigo no New York Times69, Melanie Mitchell (2018) pondera que
algumas previsões são superestimadas pelo fato de que esses sistemas carecem
da essência da inteligência humana: capacidade de compreender o significado.
Para Mitchell essa restrição constitui-se na principal barreira e, mais
importante, em sua fragilidade (ou vulnerabilidade).
Os sistemas podem se tornar não confiáveis quando confrontados com
situações que diferem daquelas para que foram treinados, mesmo que em
pequena escala: algoritmos de reconhecimento de imagens, p.ex., podem falhar
em consequência de alterações na iluminação e em quantidades diminutas de
ruído. As alterações podem ser infligidas, inclusive, por hackers alterando
imagens ou trechos de textos, ou ainda introduzindo ondas sonoras, em geral
imperceptíveis e irrelevantes para os seres humanos. “Por trás da fachada das
habilidades visuais semelhantes ao humano, da fluência linguística e da
capacidade de jogar um jogo, esses sistemas não compreendem, de maneira
semelhante aos humanos, as entradas que processam ou as saídas que
produzem. A ausência de tal entendimento torna esses sistemas suscetíveis a
erros inesperados e ataques indetectáveis”, alerta Mitchell. Apesar de todos os
esforços, houve pouco progresso em prover a IA de senso intuitivo, de
capacidade de formar conceitos abstratos e de fazer analogias e generalizações.
Os capítulos precedentes sugeriram que as aplicações de tecnologias de
inteligência artificial nas mais diversas áreas estão circunscritas à chamada
“Inteligência Artificial Restrita”, mesmo os feitos do Watson da IBM ou as
façanhas do humanoide Sophia. A fase atual é de implementação do processo
de Deep Learning em variados setores e atividadades (e menos de novas
descobertas). Não há nenhuma demonstração concreta que tangencie a
Inteligência Artificial Geral (Artificial General Intelligence – AGI). Como
pondera Martin Ford (2015), a busca pela construção de um sistema
genuinamente inteligente – uma máquina que pode conceber novas ideias, ter
consciência de sua própria existência e manter conversas coerentes – permanece
o Santo Graal da IA.
O que desperta o entusiasmo da “comunidade IA” é que a inteligência
artificial permeia o modelo de negócio de gigantes de tecnologia como Google,
Facebook, Amazon, e está sendo igualmente impulsionada por outros
poderosos setores como financeiro, varejo, telefonia, além de governos; o
montante dos investimentos tende ao infinito, acelerando sua evolução.

Superinteligência

Não existe consenso entre os especialistas sobre o futuro da inteligência


artificial. As pesquisas apontam ser alta a probabilidade da superinteligência ser
criada ainda no século XXI, definida pelo filósofo da Universidade de Oxford,
Nick Bostrom (2014), no livro “Superintelligence”, como “um intelecto que
excede em muito o desempenho cognitivo dos seres humanos em praticamente
todos os domínios de interesse”70 . Há um desacordo, contudo, sobre a escala
de tempo e a configuração correspondente; Bostrom observa que as previsões
são tão confiantes quanto diversificadas. A mostra combinada de um conjunto
de pesquisas com a comunidade de especialistas sobre quando ocorrerá a
máquina inteligente no nível humano, forneceu a seguinte estimativa: 10% de
probabilidade em 2022, 50% de probabilidade em 2040 e 90% de
probabilidade em 2075, sempre com o pressuposto de que a atividade científica
flua sem grandes rupturas negativas. Sobre a superinteligência, 5 à 10%
acreditam que dois anos após a inteligência de máquina no nível humano, e 50
à 70% apostam em 30 anos. Contrariando a visão predominante, Bostrom
atribui uma probabilidade maior à superinteligência ser criada em seguida a
inteligência de máquina no nível humano.
Considerando sua própria definição ainda muito vaga, Bostrom distingue
três formas de superinteligência (ou “supercapacidades intelectuais”):
superinteligência de velocidade, superinteligência coletiva e superinteligência
de qualidade. A primeira trata de um intelecto semelhante a uma mente
humana, porém mais rápido, ou seja, um sistema que pode fazer tudo o que
um intelecto humano pode fazer só que em múltiplas ordens de grandeza mais
rápido. “A superinteligência de velocidade, numa velocidade mil vezes a do
cérebro biológico, seria capaz de ler um livro em poucos segundos e escrever
uma tese de doutorado em uma tarde”71. Sua percepção do mundo externo
seria como se tudo se movesse em câmara lenta; uma xícara de porcelana, p.ex.,
cairia lentamente em direção ao chão ao longo de várias horas. Pela dilatação
de tempo do mundo material, seu ambiente seria a economia da informação
(espaço virtual).
A superinteligência coletiva é um sistema que agrega um grande número de
intelectos menores, atingindo um desempenho em vários domínios
amplamente superior ao de qualquer sistema cognitivo atual. Se
conceitualmente é mais difícil de compreender do que a superinteligência de
velocidade, temos mais familiaridade empírica pela nossa vivência cotidiana em
coletivos formados de várias inteligências humanas agregadas. Equipes de
trabalho, comunidades acadêmicas, a população de um país, comunidades em
geral, numa perspectiva abstrata, podem ser vistos como “sistemas” vagamente
definidos aptos a resolver problemas intelectuais. Como pondera Bostrom, a
inteligência coletiva é adequada à resolução de problemas facilmente divisíveis
em partes, de modo que soluções para subproblemas possam ser buscadas em
paralelo e verificadas independentemente. “Se gradualmente aumentarmos o
nível de integração de uma inteligência coletiva, ela poderá eventualmente
tornar-se um intelecto unificado – uma única ‘mente’ grande em oposição a
um mero conjunto de mentes humanas menores que interagem livremente”72 .
A superinteligência de qualidade versa sobre um sistema que é, ao menos,
tão rápido quanto uma mente humana e com uma inteligência
qualitativamente superior. Bostrom observa que o conceito dessa
superinteligência é nebuloso, com o agravante da ausência de experiência
empírica de lidar com uma inteligência qualitativamente superior à humana. A
título de referência, ele recorre aos animais não humanos com inteligência de
“menor qualidade”, definindo a superinteligência de qualidade como sendo
pelo menos tão superior à inteligência humana quanto a qualidade da
inteligência humana é superior à dos elefantes, golfinhos ou chimpanzés.
Qualquer uma das três formas de superinteligência será capaz de,
individualmente, desenvolver a tecnologia necessária para criar as outras duas.
Em sua visão, o problema central é a questão do controle a ser exercido, ou
não, sobre essa superinteligência independente da forma que assuma e, em
outra perspectiva, o controle do investidor ou patrocinador do projeto sobre os
cientistas e programadores envolvidos. “Encontramo-nos em um emaranhado
de complexidade estratégica, cercado por uma densa neblina de incerteza”,
divaga Bostrom73.
O documentarista americano James Barrat74 realizou uma pesquisa
informal com duzentos cientistas da computação, dedicados ao campo da IA,
sobre quando a AGI seria atingida, obtendo os seguintes resultados: 42%
apostavam em 2030, 25% em 2050 e 20% em 2100, sendo que apenas 2%
acreditavam que esse estágio nunca se efetivará. Parece inevitável, no entanto,
que num futuro não muito distante compartilharemos o planeta com algo sem
precedentes, uma nova “espécie”.

Singularidade

Na última edição do evento Web Summit, em Lisboa (2018)75, o


presidente da Samsung Electronic, Young Sohn, descreveu um cenário futuro
no qual a vida dos humanos será pautada pelos “bancos de dados biológicos”
que, através do armazenamento do genoma, tornarão possível diagnosticar e
prevenir doenças prolongando a vida. Elon Musk – fundador da Tesla Motors,
da SpaceX, e da SolarCity -, está empenhado em viabilizar a transferência da
mente humana para um computador, libertando o cérebro do corpo
envelhecido e acoplando-o a uma “vida digital” num processo chamado “mind-
upload” (transferência da mente humana). Para tal criou a startup Neuralink,
defendendo que os humanos deveriam se fundir à inteligência artificial
evitando assim o risco de se tornarem irrelevantes76. Em seu propósito de
“vencer a morte”, Musk conta com cientistas e líderes do Vale do Silício que
crêem que os sistemas artificiais nos proporcionarão a “amortalidade”77; para
eles, a principal missão da ciência é derrotar a morte.
Em 2013, o Google fundou a Calico78 dedicada a “resolver a morte”, em
seguida nomeou Bill Maris, igualmente empenhado na busca da imortalidade,
como presidente do fundo de investimento Google Venture que aloca 36% do
total de 2 bilhões de dólares em startups na área de biociência, que contempla
projetos associados a prorrogação da vida. A previsão de quando os humanos
vão vencer a morte varia entre 2100-2200, sendo que os mais otimistas, como
Ray Kurzweil e De Grey, sustentam que qualquer ser humano com corpo e
conta bancária “saudáveis” tem uma chance real de imortalidade em 2050.
A imortalidade é uma das motivações, se não a principal, que sustenta a
visão da Singularidade, e também seu argumento mais controverso. Os
“Singularians” não esperam morrer. “Eles planejam conseguir isso alcançando
uma espécie de ‘velocidade de escape de longevidade’- a ideia é que, se você
conseguir permanecer vivo por tempo suficiente para chegar à próxima
inovação de prolongamento da vida, pode se tornar imortal”, explica Martin
Ford (2015)79. O feito pode ser alcançado por meio de tecnologias avançadas
que preservem seu corpo biológico, ou transferindo sua mente para um futuro
computador (ou robô).
Ray Kurzweil (2005), evangelizador da Singularidade, a define como um
período futuro no qual o ritmo das mudanças tecnológicas será tão rápido,
com impactos tão profundos, que a vida humana será irreversivelmente
transformada: dos modelos de negócio ao ciclo da vida humana, configurando
uma nova civilização homem-máquina. Kurzweil denominou “lei de retornos
acelerados” a taxa exponencial de coevolução da tecnologia e da biologia, que
permitirá aos humanos transcender as limitações do corpo e da mente e, assim,
viverem eternamente. Por essa lei, “quanto melhor é a tecnologia, mais rápido
ela se aperfeiçoa, gerando uma melhora exponencial ao longo do tempo”
(Shanahan, 2015)80. Para Shanhahan, professor de Robótica Cognitiva no
Imperial College London, a “lei de retornos acelerados” é a razão da
Singularidade ser levada a sério por outros cientistas (no qual ele se inclui).
No livro e Singularity is Near (2005)81, Kurzweil prevê que ao final do
Século XXI a parte não biológica da inteligência humana será trilhões de vezes
mais poderosa que a inteligência humana biológica, engendrando ciclos de
auto-aperfeiçoamento (cada nova geração será mais inteligente). No mundo
pós-singularidade não haverá distinção entre humano e máquina, e entre
realidade virtual e física. Ou, como pondera Shanahan (2015)

Os valores humanos mais básicos – a santidade da vida, a busca da felicidade, a liberdade


de escolha – serão superados. Nossa própria compreensão do que significa ser humano – ser
um indivíduo, estar vivo, ser consciente, ser parte da ordem social – tudo isso será
questionado, não pela reflexão filosófica destacada, mas pela força da circunstância, real e
presente82.

A nanotecnologia é um dos pilares da visão de Singularidade de Kurzweil,


para quem, em breve, propiciará a manipulação da realidade física no nível
molecular por meio de nanorrobôs ou nanobots (medidos em mícrons –
milionésimos de metro, semelhantes as células vermelhas do sangue).
Interagindo com os neurônios biológicos produzirão uma realidade virtual que
estenderá a inteligência biológica.
A primeira referência ao termo “Singularidade” (“Singulariza”) como um
evento tecnológico futuro é creditada ao pioneiro da computação John von
Neuman na década de 1950, ao declarar que “o progresso sempre acelerado…
dá a impressão de se aproximar de uma singularidade essencial ao mundo”83.
Em 1965, Irving John Good, matemático britânico da equipe de Alan Turing
na Segunda Guerra Mundial, publicou o artigo “Especulações sobre Primeira
Máquina Ultrainteligente” originando o conceito de “singularidade
tecnológica” ao antecipar a probabilidade de máquinas inteligentes projetarem
sua próxima geração sem intervenção humana84.
O matemático e cientista da computação Vernor Vinge, em 1993,
publicou o livro e Coming Technological Singularity: How to Survive in the
Post-Human Era, onde afirma que “em trinta anos teremos os meios
tecnológicos para criar a inteligência sobre-humana. Pouco depois, a era
humana será encerrada”85. Vinge concebia a singularidade tecnológica como
uma descontinuidade no progresso humano, semelhante a singularidade
astrofísica: um ponto dentro de um buraco negro em que as leis da física de
decompõem, significando uma ruptura no tecido do espaço e do tempo.
Além da astrofísica, o termo Singularidade é utilizado em diversos campos
de conhecimento, como na matemática para expressar quando uma função
assume valores infinitos; por exemplo, a função y = 1 / x tem uma
singularidade quando x é 0, porque 1 dividido por 0 é infinito. Tal função, na
verdade, nunca atinge um valor infinito dado que a divisão por zero é
matematicamente “indefinida” (impossível de calcular), mas o valor de y se
aproxima do infinito quando x se aproxima de zero.
Kurzweil (2005) assinala alguns dos fatores básicos da Singularidade, em
que a inteligência não-biológica prevalecerá (combinação entre humanos e
máquinas):

Taxa da inovação técnica e quebra de paradigmas aceleradas, duplicando a


cada década
Poder das tecnologias da informação (preço-desempenho, velocidade,
capacidade e largura da banda) se expandindo exponencialmente,
duplicando a cada ano
Crescimento exponencial: quanto mais rentável é a tecnologia, mais
recursos são alocados com efeito positivo sobre a taxa de crescimento
Conhecimento sobre o cérebro humano aumentando exponencialmente,
possibilitando em breve uma “engenharia reversa” de seu funcionamento
Hardware e software adequados (supercomputadores, software eficazes)
Capacidade de reconhecimento de padrões pelos sistemas de IA86
Habilidade dominada pela máquina pode ser executada continuamente,
em alta velocidade e precisão
Capacidade de compartilhar conhecimento a velocidades extremamente
altas vis-a-vis os humanos
Aptidão para captar e transferir habilidades e conhecimentos de outras
máquinas (e eventualmente, de humanos)
Acesso e domínio à todo o conhecimento da civilização homem –
máquina
Liberdade total de design e arquitetura (sem limitações biológicas)
Autonomia para projetar seus próprios projetos, com velocidade e
capacidade superior

A combinação dessas forças tradicionais – capacidade de reconhecimento


de padrões da inteligência humana biológica; a velocidade, a capacidade de
memória e a precisão superiores; aptidão de compartilhar habilidades e
conhecimento da inteligência não-biológica –, engendrará um ambiente futuro
disruptivo. O ciclo de inteligência de máquina, melhorando iterativamente seu
próprio design, se tornará cada vez mais rápido, o que é exatamente o previsto
pela fórmula de aceleração contínua da taxa de mudança de paradigma.
Kurzweil argumenta que a inteligência não-biológica, ao se configurar como
uma civilização homem – máquina, continuará a representar a civilização
humana, refutando a designação da pós-singularidade como pós-humano.
Entretanto, ele alerta para o equívoco de considerar essa fusão como criadora
de uma nova “espécie” porque a ideia de espécie é um conceito biológico e a
Singularidade transcende a biologia.

Se considerarmos um humano modificado com a tecnologia como não sendo mais humano,
onde desenharíamos a linha de definição? um humano com um coração biônico ainda é
humano? e alguém com um implante neurológico? e quanto a dois implantes neurológicos?
que tal alguém com dez nanorrobôs em seu cérebro? e com cerca de 500 milhões de
nanorrobôs? deveríamos estabelecer um limite de 650 milhões de nanorrobôs: abaixo desse
limite, você ainda é humano e, acima, é pós-humano? (Kurzweil, 2005)87.

Para Pedro Domingos (2015), o único problema com singularidades é que


elas realmente não existem. “Como você divide um bolo entre zero pessoas e
cada uma obtém uma fatia infinita? Na física, se uma teoria prevê que algo é
infinito, algo está errado com a teoria”88. Se aceitarmos a ideia de
Singularidade de Kurzweil – ponto além do qual a evolução tecnológica é tão
rápida que os humanos não podem prever ou entender o que vai acontecer -, já
estamos nela porque não somos capazes de entender deveras e muito mesmo
prever: “De fato, sempre vivemos em um mundo que só parcialmente
entendemos. A principal diferença é que nosso mundo agora é parcialmente
criado por nós, o que certamente é uma melhoria.[…] Vamos nos concentrar
no que podemos entender, como sempre fizemos, e chamar o resto de aleatório
(ou divino)”89.
Domingos prefere chamar a fase atual de “transição”, que atingirá seu
ponto crítico quando o aprendizado de máquina ultrapassar a velocidade com
que os humanos são capazes de absorver mudanças. Para ele a humanidade não
está ameaçada de extinção, pelo contrário, haverá uma coevolução; “os
humanos seriam fisicamente diferentes se não tivéssemos inventado fogo ou
lanças. Nós somos o Homo technicus tanto quanto o Homo sapiens. […] E o
Homo technicus evoluirá em uma miríade de espécies inteligentes diferentes,
cada uma com seu próprio nicho, uma biosfera totalmente nova”90.
Para Nick Bostrom (2014), o termo “singularidade” tem sido usado de
maneira confusa, com significados díspares, associado a uma conotação tecno-
utópica. Propondo abandonar o termo em favor de uma terminologia mais
precisa, ele prefere supor uma “explosão de inteligência” ou, simplesmente, a
perspectiva de uma máquina superinteligência dotada de bom senso,
capacidade efetiva de aprender, raciocinar e planejar desafios complexos de
processamento de informações em uma ampla gama de domínios naturais e
abstratos. O exercício de prever o futuro, segundo Bostrom (2014), pode
abarcar no máximo duas décadas, tempo factível porque perto o suficiente para
ser relevante, e longe o suficiente para possibilitar suposições, lembrando que
tecnologias que terão impacto em cinco ou dez anos já estão em uso limitado.

Mas notemos desde o início que, por mais que haja muitas paradas entre aqui e a
inteligência da máquina em nível humano, esse não é o destino final. A próxima parada,
apenas a uma curta distância ao longo da pista, é uma inteligência de máquina de nível
sobre-humano. O trem pode não parar ou desacelerar na Estação Humaniville. É provável
que ele passe direto91.

Bostron reputa viável a inteligência de máquina ocorrer ainda neste século,


tendo como pressuposto que as conquistas no processo de aprendizado de
máquina superaram o previsto.
O diretor do MediaLab do Instituto de Tecnologia de Massachusetts
(MIT), Joichi Ito92, vê a Singularidade como uma nova religião de alguns
tecnólogos do Vale do Silício, uma evolução natural do culto ao crescimento
exponencial aplicado à ciência da computação e pouco baseada em evidências
científicas; opinião compartilhada, dentre outros, pelo americano defensor do
técnico-utópico George Gilder para quem as visões científicas e tecnológicas de
Kurzweil são substitutas para aqueles que perderam a fé no objeto tradicional
da crença religiosa.
Para Ito a concepção dos “Singularistas” é irremediavelmente ingênua ao
acreditar que o mundo é computacionalmente simulável, que os computadores
serão capazes de processar a complexidade do mundo real, assim como fizeram
com todos os outros problemas que um dia acreditou-se que não poderiam ser
resolvidos por computadores. Ito crê que com mais computação e bio-hacking
resolveremos, de alguma forma, todos os problemas do mundo.

Devemos aprender com nosso histórico de aplicar ciência excessivamente reducionista à


sociedade e tentar, como diz Wiener, “deixar de beijar o chicote que nos açoita”. Embora
seja um dos principais impulsionadores da ciência – para explicar de forma elegante a
complexidade e reduzir a confusão ao entendimento – devemos também lembrar o que
Albert Einstein disse: “Tudo deve ser feito tão simples quanto o possível, mas não mais
simples.” Precisamos abraçar a incompreensibilidade – a irredutibilidade – do mundo real, à
qual artistas, biólogos e aqueles que trabalham no mundo desordenado de artes liberais e
humanas estão familiarizados93.

Martin Ford (2015) crê que algo próximo à Singularidade é possível, mas
está longe de ser inevitável. Para ele, o conceito torna-se crível quando apartado
de suposições como a imortalidade, e pensado “simplesmente como um
período de aceleração e ruptura tecnologia dramático. Pode ser que o
catalisador essencial para a Singularidade – a invenção da superinteligência –
acabe se revelando impossível ou será alcançado apenas no futuro muito
remoto”94.
Compartilham com a visão de Ford (2015), dentre outros, Noam
Chomsky, estudioso de ciências cognitivas do MIT, para quem a Singularidade
é “ficção científica”95, e Steven Pinker, psicólogo de Harvard: “Não há a menor
razão para acreditar em uma singularidade vindoura. O fato de você poder
visualizar um futuro em sua imaginação não é evidência de que seja provável
ou mesmo possível”96

E quanto a pergunta – título? não existe uma resposta definitiva e única à


pergunta se a inteligência artificial irá suplantar a inteligência humana, porque
não existe consenso nem sobre o presente nem sobre o futuro da IA. Como
também não existe uma definição de “inteligência” universal. Se nos guiarmos
pela definição de inteligência considerada no Capítulo 1, a resposta é positiva
para alguns domínios nos quais a IA já é superior aos seres humanos nesse
início de milênio. Se estivermos de acordo com a ideia de Singularidade de
Kurzweil, a resposta é negativa porque no futuro teremos uma inteligência não-
biológica, fusão da inteligência artificial com a inteligência humana sem
nenhuma prevalência. Então, por enquanto, concordando com Pedro
Domingos, vamos nos concentrar no que podemos entender, e chamar o resto
de aleatório, divino ou simplesmente de especulação mais apropriada ao
arbítrio da ficção científica do que ao da ciência.
Antes de finalizar, uma última reflexão. No Capítulo 1 foi dito que o
sucesso recente, com resultados concretos, do processo de aprendizado
profundo (Deep Learning) deve-se a três fatores: mais dados, mais capacidade
computacional e evolução dos algoritmos. A avaliação é correta e consensual,
só que se trata de uma resposta dos cientistas da computação. Qual é a resposta
da sociedade, ou seja, qual o “problema” – ou desafio, ou demanda – da
sociedade que este processo atende? Não importam apenas condições
tecnológicas favoráveis, para haver adesão massiva à algo (e disseminação) é
necessária uma utilidade socioeconômica. A resposta da “sociedade” está na
capacidade preditiva do Deep Learning. Prever cenários futuros, e a
probabilidade deles se realizarem, permeia todas as atividades, econômicas e
sociais. Essas tecnologias funcionam porque o aprendizado de máquina
permite prever nossos desejos, os resultados de nossas ações, como alcançar
nossos objetivos, como minimizar riscos, como reduzir custos, como melhorar
a vida.
Ao longo de décadas, os modelos estatísticos tradicionais tentaram, por
meio de várias metodologias, minimizar o grau de incerteza das previsões,
enfrentando mais obstáculos do que resultados satisfatórios. Essa é a grande
“revolução” da IA atual, e vale para diagnósticos médicos; gestão de
investimento; previsão de epidemias; recomendação de filmes, música e rotas;
gestão de estoque; desenvolvimento de produtos e serviços; escrever textos
jornalísticos; tradução de idiomas; reconhecimento de imagem; e mais uma
infinidade de aplicabilidade. Inclusive, o processo é igualmente responsável
pela eliminação de funções no mercado de trabalho: o grau de assertividade das
previsões numa indústria, p.ex., é inversamente proporcional ao tempo de
resposta aos imprevistos, reduzindo os impactos negativos, consequentemente
necessitando de menos humanos envolvidos. Mas esse é outro assunto, que fica
para outro livro.
O Aprendizado de Máquina é uma nova tecnologia ‘cool’, mas não é por
isso que as empresas o adotam. Elas adotam porque não têm escolha”
(Domingos, 2015)97. Quem não adotar, fatalmente perderá competitividade,
perderá relevância na Sociedade de Dados.
Referências

ALPAYDIN, Ethem. Machine Learning. Cambridge, MA: MIT Press, 2016.

AIKEN, M. e Cyber Effect: A Pioneering Cyberpsychologist Explains How Human Behaviour Changes
Online.. NY: Penguin Random House, 2016.

ANDERSON, Chris. e End of eory: e Data Deluge Makes the Scientific Method Obsolete. Wired,
2008.

AGRAWAL, A.; GANS, J.; GOLDFARB, A. Prediction Machines: e Simple Economics of Artificial
Intelligence. Massachusetts: Harvard Press, 2018.

BENTLEY, R.A.; O’BRIEN, M. e Acceleration of Cultural Change: from Ancestors to Algorithms.


Cambridge, MA: MIT Press, 2017.

BLOCK, Ned. e Mind as e Software of the Brain. Chapter 11, inking: Invitation to Cognitive
Edition, Vol.3, Ed. by Edward E. Smith/Daniel N. Osherson. London, MIT Pres, 2009.

BOSTRON, N. Superintelligence: Paths, Dangers, Strategeis. UK: Oxford, 2014.

BRYNJOLFSSSON, E.; MCAFEE, A. e Second Machine Age: work, progress,and prosperity in a time of
brilliant technologies. NY: W.W. Norton&Company, 2016.

______. O Negócio da Inteligência Artificial. Harvard Business Review, 2017. Disponível em:
http://hbrbr.uol.com.br/o-negocio-da-inteligencia-artificial/. Acesso em: 12/03/2018.

CHIRSTIAN, B.; GRIFFITHS, Tom. Algorithms to Live By: e Computer Science of Human Decisions.
New York: Picador, 2017.

DOMINGOS, Pedro. e Master Algorithm: How the Quest for the Ultimate Learning Machine will
Remake our World. NY: Basic Books, 2015.

______. A Q & A with Pedro Domingos: Author of ‘e Master Algorithm’, University of Washington,
2015. Disponível em: https://www.washington.edu/news/2015/09/17/a-q-a-with-pedro-domingos-
author-of-the-master-algorithm/. Acesso em: 8/11/2018.
FINN, Ed. What algorithms want: imagination in the age of computing. Cambridge, MA: MIT Press,
2017.

Ford, Martin – Rise of e Robot: Technology and the threat of a jobless future. NY: Basic Book, 2015.

FOUCAULT, Michel. A Verdade e as Formas Jurídicas. 3. ed. Rio de Janeiro: Nau, 2002.

______. Em defesa da sociedade: curso no Collège de France (1975-1976). São Paulo: Martins Fontes,
2005.

______. Nascimento da Biopolítica. São Paulo: Marins Fontes, 2008.

GUNKEL, D.e Machine Question: Critical perspectives on AI, Robots, and Ethics.
Cambridge/Massachutts: MIT Press, 2012.

HARARI, Yuval Noah. Homo Deus, uma breve história do amanhã. São Paulo: Companhia das Letras,
2016.

KAUFMAN, D. O Despertar de Gulliver: os desafios das empresas nas redes digitais. Lisboa, mediaXXI,
2017.

KELLY, Kevin. What Technology Wants. Nova York: Viking Press, 2010.

______. e Inevitable: understanding the 12 technological forces that will shape our future. NY: Viking,
2016.

KURZWEIL, Ray. Singularity Is Near, When Humans Transcend Biology. Londres: Penguin Group, 2005.

LAZARSFELD, P.; MERTON, R. Mass communication, popular taste and organized social action. In:
BRYSON, L. e communication of ideas. New York: Harper, 1948. pp. 95-118. LIAO, M. Moral
Brains: e Neuroscience of Morality. UK: Oxford Press, 2016.

LEONHARD, Gerd. Technology vs Humanity: e coming clash between man and machine. US: Fast
Future Publishing, 2016.

MCDERMOTT, D. Imitation Game:Assessing e eory Behind the Movie. 2014. Desponível em:
http://www.thecritique.com/articles/what-was-alan-turings-imitation-game/. Acesso em
10/01/2018.

NEUMAN, W. Russell. e Digital Difference: Media Technology and the eory of Communication Effects.
Cambridge, MA: Harvard University Press, 2016.

NISSON, Nils J. e quest for artificial Intelligence. A history of ideas and achievements. Cambridge
University Press, 2010.

O’NEIL, Cathty. Weapons of Math Destruction: How Big Data Increases Inequality and reatens
Democracy. NY: Crown, 2016.

PARISER, Eli. e Filter Bubble: what the Internet is Hiding from you. Uk: Penguin, 2011
PASQUALE, F. e Black Box Society: e Secret Algorithms at Control Money and Information.
Cambridge: Harvard University Press, 2015.

PENTLAND, Alex. Social Physics: How Good Ideas Spread – e Lessons from a New Science. NY: e
Penguin Press, 2014.

RUMMERLHART, David E.; HINTON, Geoffrey E.; WILLIAMS, Ronald J. Learning representations
by back-propagating errors. Nature, Vol. 323, p. 533-536. October, 1986. Disponível em:
<https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf>. Acesso em: 29 de
jan. 2018.

RUSSELL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall, 2009
(3º Ed.).

SANTAELLA, Lucia. A IA veio para ficar, crescer e se multiplicar. Disponível em:


https://transobjeto.wordpress.com/2018/05/19/a-ia-veio-para-ficar-crescer-e-se-multiplicar/. Acesso
em: 19/05/2018.

SHANAHAN, Murray. e Technological Singularity. US: MIT Press, 2015.

SCHÖNBERGER, V.M.; CUKIER, Kenneth. Big data: a revolution that will transform how we live,
work, and think. New York, NY: Houghton Mifflin Harcourt, 2013.

SCHONBERGER, V.M.; RAMGE, T. Reinventing Capitalism in the Age of BIG DATA. NY: Basic
Books, 2018.

SHANAHAN, M. e Technological Singularity. Cambridge MA: MIT Press, 2015.

STONE, Brad. the everything store: Jeff Bezos and the Age of Amazon. EUA: Hachette, 2013.

SUNSTEIN, Cass. #Republic: Divided Democracy in the Age of Social Media. UK: Princeton University
Press, 2017.

SLEE, Tom. Uberização: A Nova Onda do Trabalho Precarizado. São Paulo: Editora Elefante, 2017.

TECCOGS Revista Digital de Tecnologias Cognitivas, TIDD-PUC/SP. Jan-jun/2018, Nº 17, página 10.

VASCONCELOS, M.; CARDONHA, C.; GONÇALVES, B. Modeling Epistemological Principles for


Bias Mitigation in AI Systems: An Illustration in Hiring Decisions. 2017. Disponível em:
https://arxiv.org/abs/1711.07111. Acesso em: 12/05/2018.

VINGE, Vernor. e Coming Technological Singularity: How to Survive in the Post-Human Era. 1993
1 Politeísmo: sistema ou crença religiosa que admite mais de um deus.

2 Humanoide: seres com aparência semelhante a um humano, geralmente apresentados como


bípedes de corpo ereto, com dois olhos, um nariz e uma boca dispostos com a mesma
configuração da face humana. O termo é usado na ficção para designar seres fantásticos, em
geral, robôs.

3 Sophia utiliza a tecnologia de reconhecimento de voz do Google, a mesma do assistente


doméstico Google Home.

4 Disponível em: http://www.idnworld.com/events/RISE-2017. Acesso em: 10/11/2018.

5 Definição de Inteligência:
https://www.mensa.ch/sites/default/files/Intelligence_Neisser1996.

6 Intervenção tecnológica externa inclui os medicamentos, aparelhos para surdez, óculos, lentes
de contato e vários outros acessórios acoplados aos seres humanos desde séculos passados.

7 Publicado originalmente em 1994 e seguido de várias edições, adotado nas universidades


americanas como o livro de referência sobre IA. Versão em português: Russel, S.; Norvig, P.
Inteligência Artificial. Rio de Janeiro: Elsevier, 2013.

8 Disponível em: <http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html>. Acesso


em 29 de jan. 2018.

9 Alan Mathison Turing (1912-1954) foi influente no desenvolvimento da ciência da computação


e na formalização do conceito de algoritmo e computação, importante na criação do computador
moderno. Turing coordenou a equipe responsável pela “quebra do código” alemão (Enigma) na
Segunda Guerra Mundial.

10 Maccarthy, J. et al. A proposal for the Dartmouth summer research project on artificial
intelligence, 31/Agosto/1955. Disponível em:
http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf. Acesso em: 10/11/2018.

11 Ibid: 17

12 L.Sweeney, “Discrimination in Online Ad Delivery”, Communications of the ACM 56, no.5


(2013): 44-54. Disponível em: https://dataprivacylab.org/projects/onlineads/. Acesso em:
30/10/2018.

13 “The China – U.S.Problem”, Nicholas Thompson, Wired, 26/11/2018, p.68.

14 Ibid:11

15 “O início da década de 1980 trouxe a esperança de que os engenheiros pudessem programar


cuidadosamente sistemas especialistas para replicar domínios habilidosos como diagnósticos
médicos, mas estes eram caros de se desenvolver, complicados e incapazes de lidar com a
miríade de exceções e possibilidades, levando ao que ficou conhecido como o ‘Inverno da IA’”
(AGRAWAL; GANS; GOLDFARB, 2018, p. 32).
16 O governo japonês financiou sistemas especialistas e outros esforços relacionados à IA como
parte do Projeto de Computação da Quinta Geração (FGCP). De 1982 a 1990, foram investidos
400 milhões de dólares. A maioria dos ambiciosos objetivos não foi atingida, mas seus efeitos
indiretos inspiraram uma geração jovem e talentosa de engenheiros e cientistas.

17 Ibid:109

18 Alguns cientistas da computação refutam a ideia de “inspiração” alegando que as redes


neurais artificiais são muito abstratas.

19 Além no número de camadas, o cientista da computação define o tamanho e natureza da


amostra, que representa um corte do universo total (na era do Big Data, não é possível
considerar a totalidade dos dados existentes no planeta) e desenvolve o algoritmo (ou seja, a
sequência do processo).

20 Existem diversos tipos de arquiteturas de redes neurais. Alguns exemplos: (a) Redes Neurais
Convolucionais, proposta por Yan LeCun (1998), responsável por grandes avanços no campo da
visão computacional; (b) Redes Neurais Recorrentes, usada pela empresa DeepMind no
desenvolvimento de videogames com agentes autônomos; (c) Genarative Adversarial Network,
considerada por Yan LeCun a ideia mais interessante em Machine Learning nos últimos dez anos,
permite imitar gerando novas imagens (não apenas reconhecer imagens) e tem sido alvo de
atenção concentrada dos cientistas pelo potencial de possibilidades.

21 Ibid: xi

22 O terceiro, capacidade computacional, adentra num domínio específico que foge ao propósito
do livro.

23 Artigo do NYT. Disponível em:


<https://www.nytimes.com/2008/11/12/technology/internet/12flu.html>. Acesso em:
31/05/2018.

24 O produto foi descontinuado pelo Google, embora os dados continuem disponíveis. Disponível
em: https://www.google.org/flutrends/about/. Acesso em: 31/05/2018.

25 Simplificadamente: dados estruturados são os dados organizados de alguma forma (banco de


dados, planilhas eletrônicas, p.ex.) e dados não-estruturados são os dados não submetidos a
uma organização definida (website, mídia, arquivo de texto, p.ex.). Estima-se que apenas 10%
dos dados gerados são estruturados.

26 Ibid: 96

27 Ibid: 17

28 Ibid: 14

29 Ibid: 3

30 Ibid:3
31 Ibid: 4

32 Os algoritmos utilizados nos modelos de redes neurais são basicamente simples, o fator
realmente inusitado é o volume de dados disponível. Um dos desafios atuais dos cientistas é
desenvolver algoritmos mais complexos.

33 Ibid: xv

34 Os exemplos são meras ilustrações do argumento; em cada um dos impactos negativos


existem inúmeras outras situações ocorrendo na sociedade (com distintos graus de intensidade,
seriedade, abrangência).

35 FICO: disponível em: <http://www.fico.com/en/customers>. Acesso em: 18 mai. 2018.

36 Ibid: 14

37 Esforços estão sendo feitos na busca de minimizar ou mesmo eliminar os vieses nos processos
de aprendizado de máquina. Estão em desenvolvimento pesquisas nas universidades de Harvard
e MIT e várias outras e, recentemente, o Google anunciou que tinha tido resultados concretos
nessa busca. Anualmente, acontecem conferências e congressos sobre o tema mundo afora.

38 O tempo pensado aqui como um instrumento de dominação, de controle do próprio corpo do


indivíduo. Manter a qualidade e a produtividade demanda eliminar os fatores que possam
perturbar ou distrair o desempenho das funções, formando o que Foucault denominou de
“tempo integralmente útil”.

39 Na “arquitetura para vigiar” organiza-se um inusitado tipo de vigilância a partir de um


controle intenso e contínuo ao longo de todo o processo de trabalho.

40 Como, por exemplo, a arquitetura de “espaços abertos” nos escritórios em contraposição ao


modelo anterior de salas ou divisões individuais (“baias de trabalho”). Num processo mais
recente, surge o sistema de trabalho conhecido como home-office com os indivíduos
recuperando, relativamente, parte do poder sobre seu tempo e espaço (Kaufman, 2017).

41 Disponível em: <https://events.sustainablebrands.com/sb17saopaulo/pt/>. Acesso em:


18/5/2018.

42 Um dos desafios é deliberar como e a quem cabe a função de “curadoria”.

43 A comunicação não é controlada inteiramente pelo Facebook, o usuário pode acessar os


recursos de ajustes disponibilizados pela plataforma (além de “treinar” os algoritmos por meio
de seus “likes”, “compartilhamentos” e comentários).

44 Avoiding The Echo Chamber About Echo Chambers: Why selective exposure to like-minded
political news is less prevalent than you think, Knight Foundation. Disponível em:
<https://medium.com/trust-media-and-democracy/avoiding-the-echo-chamber-about-echo-
chambers-6e1f1a1a0f39>. Acesso em: 15/05/2018.

45 O blockchain permite transferir com segurança propriedade de ativos e documentos, com


potencial de reconfigurar o sistema financeiro tanto do ponto de vista dos bancos privados
quanto dos bancos centrais (autoridade monetária).

46 O processo passa por investimentos pesados dos bancos nas Fintechs (empresas do setor
financeiro intensivas em tecnologia, termo deriva da junção de Finanças e Tecnologia) e
alternativas relacionadas a sistemas de blockchain (redução de custos de transferência, no
mínimo). Na última década, o investimento global em FinTech cresceu mais de 15 vezes: de um
total aproximado de US$ 6,8 bilhões em 2005 para US$ 107 bilhões em 2017, concentrado em
soluções para pagamentos, transferências, processamentos, destacando-se a emergência recente
do blockchain. Do total investido, US$ 72,1 bilhões de dólares foram alocados no mercado
americano (fonte: Darryl West, do HSBC, no evento RISE, Hong Kong, julho/2017).

47 Ibid: xvi

48 Entrevista ao portal Business Insider do vice-presidente de inovações de produto da Netflix ,


Chris Jaffe. Disponível em: <http://www.businessinsider.com/how-the-netflix-recommendation-
algorithm-works-2016-2>. Acesso em: 10/11/2018.

49 Entrevista de Yann LeCun (2015). Disponível em:


https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/facebook-ai-director-yann-
lecun-on-deep-learning. Acesso em: 10/11/2018.

50 Ibid.

51 Disponível em: https://www.hunchlab.com/features/. Acesso em: 10/11/2018.

52 De acordo com o banco de dados nacional de incidência de câncer, a Coréia teve um total de
254.952 novos casos e 75.172 mortes em 2016, sendo que os principais locais de incidentes de
câncer primário foram: colorretal, estômago, pulmão, fígado e tireóide câncer em homens;
tireóide, mama, colo-retal, estômago e câncer de pulmão em mulheres.

53 IBM’s Watson is better at diagnosing cancer than human doctors | WIRED UK. Disponível em:
https://www.wired.co.uk/article/ibm-watson-medical-doctor. Acesso em: 10/11/2018.

54 Ibid: 153-154

55 Disponível em: https://www.robotshop.com/community/blog/show/stats-monkey-the-


journalist-robot. Acesso em: 10/11/2018.

56 Stephen Hawking, Stuart Russell, Max Tegmark, and Frank Wilcezek, “Stephen Hawking:
Transcendente Looks at the Implications of Artificial Intelligence – But Are We Taking AI Seriously
Enough?”. The Indepent, May 1, 2014. Disponível em:
https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-
implications-of-artificial-intelligence-but-are-we-taking-9313474.html. Acesso em: 10/11/2018.

57 Como observa Nick Bostrom (2014), os pioneiros igualmente não se preocupavam com os
potenciais impactos éticos e de segurança.

58 Disponível em: https://www.wired.co.uk/article/yuval-noah-harari-extract-21-lessons-for-


the-21st-century. Acesso em: 18/11/2018.
59 Ibid- Revista Wired

60 Ibid: Revista Wired

61 Ibid: Revista Wired

62 Ibid: Revista Wired

63 Em conversa com a autora, NY, 2016.

64 Esse debate não faz muito sentido: não é expressiva a área de IA associada à robótica, ou
seja, a maior parte dos sistemas de IA não têm “materialidade”.

65 Ibid: 3

66 Ibid: 22

67 Computação bioinspirada: ciência da computação que utiliza a natureza como fonte de


inspiração para desenvolvimento de novas técnicas computacionais na solução de problemas
complexos: computação evolucionária, redes neurais, computação quântica, computação baseada
em DNA, dentre outras.

68 Disponível em: http://www.thepaintingfool.com. Acesso em: 5/11/2018.

69 Disponível em: ”Artificial Intelligence Hits the Barrier of Meaning”, Melanie Mitchell, NYT,
05/11/2018. Acesso em: 10/11/2018.

70 Ibid: 26

71 Ibid: 64

72 Ibid: 68

73 Ibid: 314

74 Autor do livro de não-ficção “Our Final Invention: Artificial Intelligence and the End of the
Human Era”.

75 Disponível em: https://websummit.com/2for1. Acesso em 10/11/2018.

76 Documentário “Do you Trust this Computer?” do americano Chris Paine. Disponível em
https://www.imdb.com/title/tt6152554/. Acesso em: 18/11/2018.

77 Condição de nunca ter morrido, de ser incapaz de morrer como uma entidade amortal.

78 Calico é uma companhia independente de biotecnologia cujo objetivo declarado é o combate


ao envelhecimento e às doenças associadas. O nome Calico é um acrônimo para California Life
Company. Disponível em: https://www.calicolabs.com. Acesso em: 14/11/2018.

79 Ibid: 235

80 Ibid: xviii
81 O Observatório Itaú Cultural lançou a versão em português: “A Singularidade Está Próxima:
Quando os humanos transcendem a biologia” (2018).

82 Ibid: xv

83 Esses sistemas não entendem os dados em nenhum sentido humano; eles só identificam os
padrões que estão “vendo”

84 Consta que Stanley Kubrick consultou Good ao filmar 2001: Uma Odisséia no Espaço (1968)
tendo como um dos personagens o supercomputador HAL 9000.

85 Ford, M. (2015): 233

86 O que já é realidade a partir de 2010 (o livro de Kurzweil é de 2005).

87 Ibid: 275

88 Ibid: 287

89 Ibid: 288

90 Ibid: 288

91 Ibid: 5

92 Disponível em: https://medium.com/@gauthampasupuleti/singularity-in-conversation-with-


joi-ito-mit-media-labs-resisting-reduction-8b19e8e78566. Acesso em: 10/11/2018. Disponível
em: https://www.singularityweblog.com/joi-ito/. Acesso em: 10/11/2018.

93 Ibid

94 Ibid: 236

95 Ibid: 236

96 Ibid: 237

97 Ibid: 13

Você também pode gostar