Escolar Documentos
Profissional Documentos
Cultura Documentos
A Deus.
Ao professor doutor Albert Fishlow, uma das maiores referências
acadêmicas do mundo. Obrigado pela con ança em me aceitar e me
acolher tão carinhosamente no programa de pós-doutorado da Columbia
University, pelo tempo a mim dedicado, pelas conversas e conselhos
enriquecedores para o desenvolvimento dos meus estudos e pesquisas, por
sua incrível generosidade e por ter dedicado a vida a estudar o Brasil.
Aos professores do Data Science Institute da Columbia University,
especialmente à professora doutora Jeannette M. Wing, pela incrível
oportunidade de aprendizado proporcionado e por terem me oferecido os
caminhos necessários para que eu pudesse navegar com con ança e solidez
na área.
Ao amigo, sócio e líder, professor doutor José Cláudio Securato, pela
parceria que já dura 14 anos, pela idealização dos projetos de Inteligência
Arti cial da
Saint Paul Escola de Negócios e do LIT, pelo apoio e con ança em mim
depositados
para a liderança desses projetos, pelo suporte concedido durante o pós-
doutorado e
pelas engrandecedoras discussões ao longo de toda a jornada. Sem isso
tudo, este livro não seria possível.
À minha esposa, Bruna Losada Pereira Mussa, pelo incentivo, coragem,
companheirismo e determinação para realizarmos o sonho do pós-
doutorado juntos.
Agradeço pelas inestimáveis trocas, conversas e con ssões de angústias,
pelo apoio incondicional nos momentos mais difíceis, pelas necessárias
comemorações em cada mínimo avanço e pela compreensão nos
incontáveis nais de semana, madrugadas e eventos importantes em que
tive de me ausentar para me dedicar aos estudos.
Aos meus familiares, especialmente aos meu pais, Luiz e Cleide, pelo
inestimável suporte dado durante o pós-doutorado e escrita deste livro. E
aos meus irmãos, Luciano e Cláudia, pela parceria incondicional.
À Columbia University por me aceitar e me acolher no programa de pós-
doutorado, por me disponibilizar acesso ilimitado a todos os seus
incomparáveis recursos e geração incessante de conhecimentos, o que
incluiu faculdades, professores, aulas, eventos, bibliotecas e bases de
dados. Agradecimentos especiais à School of
International and Public A airs (Sipa) e ao Data Science Institute (DSI).
Ao professor Sidney Nakahodo por ter gerado em mim a faísca que fez o
meu pós-doutorado acontecer, por ter me aberto os caminhos em
Columbia, pelos valiosos conselhos e pelo apoio e aprendizado
proporcionados.
À Ana Paula Assis, uma das maiores líderes de tecnologia do mundo, por
generosamente ter aceitado o convite de escrever o prefácio deste livro.
À IBM pela parceria e disponibilização de seus pro ssionais altamente
capacitados para conduzirem conosco audaciosos projetos de Inteligência
Arti cial. Agradecimento especial ao Guilherme Araújo, iago Rotta,
Alcely Barroso, Ricardo
Gil Guerreiro, Marcel Lefol e Luis Fernando Liguori pelos aprendizados
práticos incomensuráveis que me proporcionaram.
A todos os pro ssionais de mercado, empreendedores, investidores,
CEOs e membros das diferentes comunidades de startups e de Inteligência
Arti cial do Brasil e dos Estados Unidos, por terem me recebido, pelo
tempo precioso a mim dedicado, pelas intensas conversas, trocas de ideias,
experiências, contribuições, debates e aprendizados que tive o privilégio de
ter ao longo dos últimos dois anos.
Ao EdX, Coursera, Massachusetts Institute of Technology (MIT),
Stanford University, Harvard University, Berkeley University of California,
Microsoft, IBM, DeepLearning.ai, RWTH AACHEN University, UC San
Diego pela oportunidade que tive de cursar os programas de elevadíssima
qualidade de suas instituições.
Aos professores doutores Andrew Ng e Kai-fu Lee, ícones do
desenvolvimento acadêmico e prático da Inteligência Arti cial, pela
generosidade de compartilharem os seus conhecimentos de forma tão
aberta e, assim, contribuírem de forma decisiva para o desenvolvimento do
tema.
Ao professor doutor José Roberto Securato, minha maior inspiração e
referência acadêmica, por ter acreditado em mim e ter sido meu orientador
no doutorado na FEA-USP, pelo privilégio de termos publicado trabalhos
em conjunto, pelas incontáveis oportunidades que me concedeu e pelos
valiosíssimos conselhos que bondosamente me dá.
Ao professor doutor Rubens Famá por ter me ensinado, desde os tempos
do mestrado, algo que me acompanhará para sempre: o valor da paciência e
da persistência para o sucesso da vida acadêmica e pro ssional.
Ao professor doutor José Odálio dos Santos pelos direcionamentos da
vida acadêmica, por ter sido meu orientador no mestrado e pelo seu
otimismo encorajador.
Ao professor doutor Ricardo Rocha pelas conversas, conselhos e dicas
valiosas que me deu ao longo da escrita deste livro.
À Camila Securato, diretora e sócia da Saint Paul Escola de Negócios e do
LIT, pela parceria exitosa no desenvolvimento do LIT e da Saint Paul.
Ao Marcos Sanches, CTO e COO do LIT, pela parceria bem-sucedida nos
projetos de Inteligência Arti cial, pela boa vontade em me ensinar
diariamente sobre tecnologia e pelas discussões e debates sobre
Inteligência Arti cial.
À Nathalia Pinheiro, líder da Saint Paul Editora, pela impecável condução
da edição e publicação desta obra.
Aos colegas Christiane Ache, Alexandre Fialho, Anna Andrade, Tatiana
Sanches, comunidade ABP-W, comunidade SEER, comunidade LDR e
alunos dos programas de pós-graduação e MBA da Saint Paul, pelos
feedbacks durante a escrita deste livro, seja com base na leitura atenta de
capítulos, seja com base nas diversas palestras que conduzi sobre o tema.
Aos meus sogros, Marcos e Andrea, pelo suporte e pelos inúmeros bate-
papos que muito me zeram re etir ao longo de toda esta trajetória.
À Tania Harabari pelas várias conversas e discussões que tivemos sobre o
tema, sobre o livro e sobre o pós-doutorado, além dos ensinamentos e da
paciência na produção das versões em inglês de artigos, palestras,
capítulos e apresentações.
A toda equipe do LIT e da Saint Paul, que contribuíram de forma direta
ou indireta para o desenvolvimento dos projetos de Inteligência Arti cial
da escola.
A todos os alunos do LIT pela con ança depositada, por deixarem o Paul
fazer parte de suas vidas e, indiretamente, por nos ajudarem em seu
treinamento contínuo.
Prefácio
Ao entender as técnicas, o como e o porquê de cada uma, compreendi como elas são majoritariamente simples,
causando-me repetidas vezes reações do tipo: “Mas é só isso?”, “Então, é só estatística? ”, “É somente
matemática?”, “É apenas uma função de otimização?”, “Então, acho que eu também consigo.”, “Mas cadê a
inteligência?”, “Isso não tem qualquer relação com o cérebro humano e com a forma humana de inteligência!”.
Pude ver que a Inteligência Arti cial real está muito distante da retratada por Hollywood, mas, ao mesmo tempo,
entendi que essa aparente simplicidade é capaz de criar coisas absolutamente inacreditáveis, especialmente
automatizando tarefas cognitivas, mesmo não demonstrando ser tão inteligente assim.
Tive a oportunidade de estudar as expectativas de renomados institutos de pesquisa – PWC, WEF, McKinsey,
entre outros – quanto à enorme criação de valor e geração de riqueza que se espera vir da IA. Então pude
compreender o porquê da Inteligência Arti cial se constituir em uma corrida na qual o corredor que larga na
frente, di cilmente, consegue ser alcançado pelos seguidores. Por isso, algumas organizações, como Google,
Facebook, Tencent, bem como alguns países (Estados Unidos, China e Canadá) largaram há alguns anos e já estão
experimentando retornos incríveis.
Essa análise me fez perceber o motivo de a Inteligência Arti cial poder ser considerada a nova energia elétrica,
no sentido de que essa nova tecnologia tem o potencial de fazer parte das nossas vidas de forma tão intensa,
ampla e natural quanto à energia elétrica é hoje.
Com isso tudo, concluí que a Inteligência Arti cial é originalmente assunto de pro ssionais da área de
Tecnologia, de Ciência da computação e das Engenharias, mas também tem de ser tema de pro ssionais de
negócios. Os técnicos em IA podem dizer, melhor do que ninguém, o que é factível, além de serem eles os
responsáveis por desenvolver, adaptar e treinar algoritmos. Porém, os pro ssionais de negócios, certamente, são
capazes de conceber novos produtos e serviços com base no estudo de clientes e suas necessidades e, portanto,
podem criar valor para os negócios. E, considerando que estamos na fase de implementação da Inteligência
Arti cial, ou seja, da criação de produtos e serviços, o envolvimento de pro ssionais de negócios é absolutamente
fundamental e urgente.
Como resultado de todas essas aprendizagens, nasceu este livro, que tem como objetivo esclarecer ao leitor o
que de fato é a Inteligência Arti cial, separar o que é mito e o que é verdade sobre o tema, mostrar quais técnicas
e aplicações estão mais ou menos avançadas para uso, além de habilitar qualquer pessoa, mesmo àquelas que não
tenham conhecimentos prévios, a reconhecer as reais capacidades dessa tão importante tecnologia.
Adicionalmente, o livro tem como objetivo dar ferramentas para que o leitor identi que oportunidades no uso
de Inteligência Arti cial em seus empreendimentos, fornecendo um primeiro playbook, com linguagem de
negócios, para a estruturação e decolagem de projetos na área. E, por m, ajudar o leitor a compreender os reais
riscos e oportunidades que essa tecnologia traz para o futuro do trabalho.
Gosto de ver este livro como uma despretensiosa ponte entre o mundo da Inteligência Arti cial e o de negócios,
construída por alguém do universo dos negócios, mas que mergulhou muito profundamente no mundo da
Inteligência Arti cial, tanto na teoria quanto na prática. Em suma, este livro é escrito por alguém de negócios,
com a linguagem de negócios, para pessoas de negócios.
Este livro é para quem sabe que a Inteligência Arti cial é um tema altamente relevante e para quem quer
entender as reais capacidades da IA de hoje e de um futuro próximo; separar euforia, cção e mitos de realidade;
compreender onde estão as reais oportunidades de criação de valor nos negócios bem como quais são os efetivos
riscos e oportunidades que essa fantástica tecnologia traz para o futuro do trabalho.
Se você é uma dessas pessoas e não quer assistir ao bonde passar passivamente, este livro é para você.
Boa leitura!
Capítulo 1
As diferentes inteligências artificiais
Quando mencionamos o termo inteligência arti cial, é comum nossa imaginação ganhar asas e pensarmos em robôs
malévolos extinguindo a raça humana, carros voando nos céus dos grandes centros urbanos, guerras cibernéticas ou a humanidade convivendo com
máquinas em um tenso ecossistema simbiótico.
Fui longe? Sim! Mas é muito comum que a primeira imagem que venha à nossa cabeça seja a cena de robôs, dotados de
consciência e sentimentos (em geral, sentimentos ruins), que se rebelam contra a raça humana e iniciam uma luta sangrenta com o intuito de nos
dominar, controlar-nos, escravizar-nos ou até mesmo nos extinguir. Cenas como essa são muito comuns e fazem muito sucesso nos cinemas. Filmes,
como O Exterminador do Futuro, Matrix, 2001: Uma Odisseia no Espaço, Inteligência Arti cial e Eu, Robô, são ótimos exemplos de abordagens
pitorescas e extravagantes sobre o tema, que mexem bastante
Apesar de cenas como as anteriores serem muito interessantes, especialmente intrigantes e terem o potencial
de venderem inúmeros ingressos de cinema, não é dessa Inteligência Arti cial que trata este livro. E é
importante, desde o início de nossa discussão sobre o tema, termos o entendimento de que a Inteligência
Arti cial pode ser dividida em dois grandes campos de estudos: a Inteligência Arti cial Genérica (Arti cial
General Intelligence), também conhecida como Inteligência Arti cial Forte (Strong AI) e a Inteligência
Arti cial Estreita (Arti cial Narrow Intelligence), também conhecida como Inteligência Arti cial Fraca
(Weak AI).
Figura 1.2: Os dois grandes campos de estudo da Inteligência Arti cial: Inteligência Arti cial
Genérica e Inteligência Arti cial Estreita.
: .
1.1 Inteligência Artificial Genérica (ou Forte)
A Inteligência Arti cial Genérica é aquela sedutora, que vende ingressos de cinema, discutida nos parágrafos
iniciais deste capítulo e retratada na Figura 1.1.
Estudiosos, pesquisadores e entusiastas desse campo de estudo consideram que ela permitirá que
computadores façam quase tudo (ou mesmo tudo) que um ser humano é capaz de fazer, nos mais
diferentes campos de atuação.
É essa Inteligência Arti cial que nos conduziria à temida e intrigante singularidade1 – aquele ponto da
história em que a Inteligência Arti cial supera a
inteligência humana, aprendendo a aprimorar a si própria, de forma expo-
nencial, levando a uma situação em que a Inteligência Arti cial nos controla.
É nesse sentido que os adeptos da Inteligência Arti cial Genérica acreditam que a Inteligência Arti cial é a última
invenção que o homem precisou fazer, dado que, a partir de então, a Inteligência Arti cial cará cada vez melhor,
aprendendo
a se autoaprimorar, in nitamente, superando-nos e criando uma situação em que, em algum ponto desse
autodesenvolvimento, nós, humanos, deixaremos de
compreender o seu funcionamento.
VOCÊ SABIA?
Na Matemática e na Física, o termo “singularidade” signi ca o ponto em que determinada variável se torna in nita. O exemplo
clássico é o buraco negro, onde o campo gravitacional se torna in nito e as leis da física param de funcionar2.
VOCÊ SABIA?
É comum encontrarmos na literatura o termo “Super Inteligência” para se referir à Inteligência Arti cial que supera a inteligência
humana no rumo à singularidade4.
Para que encontremos um caminho rumo à singularidade, precisaríamos chegar ao ponto em que as máquinas
possam não somente agir como se fossem inteligentes – simulação do pensamento –, mas também que
o façam como serem pensantes de fato, ou seja, máquinas capazes de experimentarem níveis de
consciência5.
Podemos ilustrar o que seriam esses níveis de consciência com um exemplo. Em 1997, o Deep Blue,
supercomputador de Inteligência Arti cial da IBM, derrotou o então campeão mundial de xadrez, o russo Garry
Kasparov6. Feito incrível, temos de admitir. O fato é: o Deep Blue derrotou seu adversário. Garry Kasparov
provavelmente sentiu algo diante disso, possivelmente tristeza, raiva, frustração ou admiração, além de respeito
pelo feito do Deep Blue. E o que Deep Blue sentiu? Nada. Deep Blue venceu, mas não sentiu absolutamente nada
diante disso – não sentiu orgulho, felicidade, bem-estar ou respeito pelo adversário. Isso porque Deep Blue não
tem consciência de seu feito. O Deep Blue não tem a menor ideia do que ele conquistou. Ele não tem
consciência nem sentimentos.
Para chegarmos perto do momento em que a singularidade aconteça com êxito, ela teria de ser capaz de
experimentar emoções típicas de um jogo como esse, tais como medo, angústia, ansiedade ou, o simples e
humano, frio na barriga, além de ter consciência da sua vitória e de seu signi cado.
Sinceramente, isso pode muito bem ocorrer, mas (ainda) não temos quaisquer condições de apresentar
previsões, minimamente consistentes, de quando ocorreria nem sequer do caminho que nos levaria até lá.
VOCÊ SABIA?
Em 2017, vinte anos após a vitória de Deep Blue, o AlphaGo, uma das mais poderosas máquinas de Inteligência Arti cial do mundo, da
gigante Google, derrotou o chinês Ke Jie, até então o melhor jogador do ancestral e complexo jogo chinês Go. Essa vitória do AlphaGo
é considerada por muitos o “momento Sputinik” na China, criando lá uma corrida frenética pelo desenvolvimento da Inteligência
Arti cial7.
Para que tenhamos uma ideia do quão longe estamos do desa o de desenvolvermos Inteligência Arti cial
dotada de consciência, hoje não temos nem sequer um caminho para alcançarmos dois passos anteriores,
extremamente importantes: conseguirmos fazer com que os algoritmos aprendam com base em poucos exemplos
e conseguirmos generalizar o uso desses algoritmos, que foram desenvolvidos para situações especí cas8.
Vou mais uma vez usar o exemplo do Deep Blue para ilustrar essas limitações. O algoritmo tem de jogar
incontáveis partidas para aprender a jogar xadrez, pois não é capaz de aprender como nós, seres humanos, com
base em poucas partidas. Além disso, uma vez que o algoritmo aprendeu a jogar xadrez, ele não pode ser utilizado
para jogar damas mediante poucos ajustes. Logo, precisaria ser treinado praticamente do zero. Em outras
palavras, a aprendizagem se dá em domínios estreitos e não pode ser generalizada.
Figura 1.3: Fluxo de aplicação de Inteligência Arti cial para identi cação
e classi cação de e-mail em spam e não spam.
: ELABORADA PELO AUTOR.
A Inteligência Arti cial Estreita faz isso com base em dados históricos contendo:
i) As características dos e-mails, como assunto, remetente, existência de hiperlinks e palavras-chave.
ii) As respectivas informações de quais e-mails são e quais não são, de fato, spams.
Com o desenvolvimento dessa aprendizagem, o sistema é capaz de predizer com altíssima assertividade se cada
novo e-mail recebido é ou não um spam.
Apesar de esse sistema anti-spam ser um serviço extremamente útil, por nos poupar horas de limpezas diárias
em nossa caixa de entrada de e-mails, ele tem um objetivo bastante estreito, especí co: identi car se um e-mail
recebido é ou não um spam.
Apenas para que possamos comparar, no mesmo contexto de e-mails se estivéssemos no âmbito de uma
aplicação que se aproxime da Inteligência Arti cial Genérica, teríamos algo muito mais ambicioso, complexo e
com o escopo imensamente maior. E digo “uma aplicação que se aproxime”, pois não há limite hipotético da
capacidade da Inteligência Arti cial Genérica, sendo ela, portanto, um prato cheio para os futurólogos e
romancistas. Mas vamos tentar, a nal de contas, imaginar não custa nada!
Para começar, o algoritmo que aprendeu a identi car spams em e-mails seria treinado com poucos exemplos
e poderia ser usado sem grandes di culdades com outras nalidades, como para identi car defeitos
em produtos nalizados em linhas de montagem de uma fábrica ou identi car determinada pessoa em
uma imagem.
A Inteligência Arti cial Genérica possivelmente também seria capaz de realizar uma gama muito maior de
atividades que se assemelham à capacidade humana: classi car os e-mails em spam e não spam (ok, isso a
Inteligência Estreita já faz); identi car os e-mails que requerem alguma ação imediata do usuário; elaborar um
resumo de cada e-mail com a essência de cada mensagem, para que seja lido pelo usuário em menos de 60
segundos; preparar respostas empáticas e assertivas como sugestão para cada e-mail recebido; checar
automaticamente a disponibilidade de agenda para alguma proposta de reunião que esteja no corpo de um e-
mail; agendar automaticamente reuniões sugeridas nos e-mails ou propor remanejamento de datas com o
proponente da reunião, baseado nas preferências e costumes do usuário; armazenar automaticamente os e-mails
em pastas, após a realização das ações necessárias e de alguma forma que faça sentido com as características
pessoais dos usuários; de nir se vale a pena ou não aceitar um compromisso de trabalho no dia do casamento de
um amigo querido que envolveria uma viagem e, portanto, signi caria perder a celebração.
Já sei! Ficou com vontade de ter um sistema desses, não é mesmo? Pois é, eu também. Ou cou com medo de
algo tão automatizado e invasivo? Confesso que eu também. A Inteligência Arti cial, especialmente a Genérica,
tem o poder de nos causar uma mistura de sentimentos. Por isso, ela é tão sedutora.
E poderíamos ir mais longe com o exemplo, lembre-se que imaginar não custa nada. Por que não pensar que a
Inteligência Arti cial Genérica poderia realizar praticamente todas as atividades organizacionais relacionadas a
cada e-mail, independente de quais sejam essas atividades, o setor de atuação, a organização ou o cargo do
usuário? E isso poderia incluir atividades que dependam de algo (ainda) muito humano, por exemplo, a
criatividade. O sistema baseado na Inteligência Arti cial Genérica poderia compreender o conteúdo do anexo de
um e-mail que contém um pedido de compra de produtos de sua indústria; assimilar os detalhes de requisições do
cliente; discutir e negociar preços com os clientes de forma criativa; enviar o pedido a seu “par” de Inteligência
Arti cial, responsável por gerenciar a produção; con rmar a capacidade de produção e entrega; decidir como
reordenar as prioridades de produção; con rmar a data de entrega para o cliente; controlar os estoques e emitir
pedidos de compra de insumos aos fornecedores; negociar preços com os fornecedores; buscar alternativas de
fornecedores ao redor do mundo; avaliar alternativas criativas de como suprir uma eventual falta de insumos;
pensar em soluções para resolução de con itos entre as áreas de produção e logística; e assim por diante.
E o fator mais importante é que a Inteligência Arti cial Genérica aprenderia a realizar boa parte dessas
atividades sozinha, baseada apenas em um algoritmo que seja capaz de aprender tudo, sem qualquer (ou com
mínima) intervenção humana, cando melhor a cada dia. E, ainda, seria capaz de ter sentimentos com relação a
cada fato ocorrido durante a execução de uma tarefa. Sentir contentamento e alegria, por exemplo, quando
receber um pedido de compra expressivo. Viu como é possível dar asas à imaginação? Pois é, isso é algo que se
aproxima da Inteligência Arti cial Genérica, que nos levaria à singularidade10.
No entanto, acreditem, por mais que possam falar o contrário, ainda estamos longe de uma Inteligência
Arti cial com capacidade de atuar em situações ou domínios tão abrangentes e tão cheios de
alternativas de forma autônoma, aprendendo consigo mesma. Por isso, reforço: até agora, não há nenhum
caminho minimamente viável e conhecido que nos levaria a essa Inteligência Arti cial Genérica.
E aqui vale uma ressalva. De fato, algumas das tarefas e atividades mencionadas anteriormente, especialmente
as mais simples, repetitivas e que não requerem interações sociais, já fazem parte das aplicações reais da
Inteligência Arti cial utilizadas por muitas organizações mais avançadas nessa tecnologia. Porém, cada tarefa faz
uso de um conjunto de algoritmos especí cos (estreitos) e exaustivamente treinados, majoritariamente por nós,
seres humanos.
Agora que já exercitamos nossa imaginação para compreender um pouco as diferenças entre a Inteligência
Arti cial Genérica e a Inteligência Arti cial Estreita, vamos voltar para a que importa neste momento: a
Inteligência Arti cial Estreita.
Vale ressaltar que não é porque o escopo dessa Inteligência Arti cial é estreito que suas aplicações deixam de
criar valor. Muito pelo contrário, o nome “estreito” ou “fraco”, que foi atribuído a essa modalidade de Inteligência
Arti cial, em minha opinião não ajuda a mostrar ou “vender” o potencial dessa tecnologia. Não se deixe enganar:
a inteligência arti cial estreita (ou fraca) é inacreditavelmente poderosa! E seus limites, ainda hoje,
são inimagináveis para nós.
VOCÊ SABIA?
Segundo levantamento do Fórum Econômico Mundial, em seu estudo mundial intitulado The Future of Jobs Report, de 2018,
Machine Learning, até 202211.
aproximadamente 73% das organizações estão projetando adotar Inteligência Arti cial, especialmente
A Inteligência Arti cial Estreita já permitiu a criação de inúmeras aplicações, produtos e serviços,
geradores de centenas de milhares de dólares para as empresas que a adotaram, via automação de
tarefas, transformações radicais de negócios e até a criação de novos negócios, antes impensáveis. Os
exemplos são incontáveis e discutiremos muitos deles ao longo deste livro: Google, Amazon, Tencent, Alibaba,
Facebook e Baidu são apenas algumas, entre muitas organizações bem conhecidas, com valores de mercado
gigantescos, que têm a Inteligência Arti cial como protagonista de seus negócios.
Toutiao, Airbnb, Tala, Uber e Waze são somente alguns outros exemplos de organizações da nova economia,
cujos serviços só se tornaram possíveis mediante o uso de aplicações e algoritmos desenvolvidos pela Inteligência
Arti cial Estreita. E poderíamos citar outras centenas de organizações, novas ou tradicionais, que utilizam
aplicações de Inteligência Arti cial gerando valor para os seus negócios. Certamente, muito mais valor e negócios
serão criados nos próximos anos.
Entretanto, não são somente efeitos positivos que essa Inteligência Arti cial causa e continuará causando12.
Toda essa criação de valor trazida pela Inteligência Arti cial Estreita vem acompanhada de enormes
desa os e efeitos colaterais. Certamente, existem preocupações imediatas e são muitas. A Inteligência
Arti cial Estreita está conseguindo automatizar uma quantidade
enorme de tarefas, principalmente as tarefas cognitivas, antes somente realizadas por seres humanos,
apresentando o potencial real de impactar fortemente os trabalhos, o nosso modo de vida e até mesmo como a
riqueza é criada e distribuída.
Pense nas consequências que o Uber causou no mercado de trabalho dos motoristas de táxi ou mesmo o que o
desenvolvimento dos carros autônomos (e eles estão avançando com uma velocidade enorme) poderá causar
nesse e em outros mercados bem como em nosso estilo de vida. E, agora, extrapole um pouco a sua re exão para
o impacto que a Inteligência Arti cial pode causar em outros setores da economia, setores que ela atingiu com
pouca força ou alguns que ainda não atingiu.
Nesse sentido, um grande desa o imediato é mudar o centro do debate, pois aquela discussão sobre a
singularidade e a Inteligência Arti cial Genérica que domina a nossa mídia, apesar de relevante e especialmente
cativante, está desviando a nossa atenção dos reais benefícios e ameaças trazidos pela Inteligência Arti cial
Estreita. E tanto os benefícios quanto as ameaças são grandes o su ciente para modi carem radicalmente as
nossas organizações, a nossa economia, a nossa sociedade e as nossas vidas individualmente. Assim,
mesmo que você acredite que a Inteligência Arti cial Genérica e a singularidade estão chegando, não importa
com qual velocidade, aqui vai mais um argumento para que você procure compreender e estudar a Inteligência
Arti cial Estreita: se não formos protagonistas da Inteligência Arti cial Estreita, não conseguiremos
compreendê-la, jamais seremos capazes de aproveitar as oportunidades quando (e se) a Inteligência
Arti cial Genérica chegar.
É por tudo isso que este livro foca na Inteligência Arti cial Estreita. A partir desse ponto, todas as vezes que
mencionarmos o termo Inteligência Arti cial, estaremos nos referindo à Inteligência Arti cial Estreita.
Em setembro de 2018, o McKinsey Global Institute publicou um estudo abrangente sobre o impacto da
Inteligência Arti cial na economia e nas organizações, intitulado Modeling the impact of AI on the world economy13.
Entre as principais conclusões, é apontado que a Inteligência Arti cial agregará cerca de US$ 13 trilhões
de dólares (ou cerca de 15%) ao PIB mundial até 2030, trazendo parte do tão aguardado aumento de
produtividade mundial, estagnada há anos.
No entanto, o estudo também mostra que essa agregação de valor será bastante desigual entre países, entre
setores e até entre empresas de um mesmo setor. Isso se deve, principalmente, ao impacto que a velocidade de
adoção da Inteligência Arti cial tem em sua geração de valor. Vamos compreender isso melhor.
O grá co da Figura 1.4 a seguir apresenta uma simulação da estimativa de geração ou destruição de caixa
trazida pela adoção da Inteligência Arti cial pelas companhias. E aqui estamos falando da medida mais tangível
de criação ou destruição de valor que uma empresa pode ter: os seus uxos de caixa. O eixo vertical traz as
estimativas das mudanças relativas aos uxos de caixa das companhias, causadas pela adoção de Inteligência
Arti cial, em empresas de um mesmo setor. O eixo horizontal é o tempo, medido em anos.
Figura 1.4: Mudanças estimadas nos uxos de caixa das empresas, causadas
pela adoção de Inteligência Arti cial, dentro de um mesmo setor.
: , .
Se os chamados front-runners adotarem a Inteligência Arti cial imediatamente, antes de seus competidores, e
seguirem investindo forte nessa tecnologia nos próximos cinco a sete anos, experimentarão uma perda de caixa
(destruição de caixa) inicial, especialmente motivada pelos investimentos necessários para a adoção da
tecnologia em larga escala e de forma transversal. E adoção de tecnologia de forma transversal signi ca aplicar a
Inteligência Arti cial em efetivamente todas as unidades de negócios, áreas, departamentos e setores para de
fato conseguir extrair os benefícios de sua incrível capacidade de automação e otimização de pequenas tarefas,
que, quando concatenadas, fazem a diferença e efetivamente criam vantagem competitiva.
VOCÊ SABIA?
Em pesquisa realizada pela Deloitte em 2018, 76% dos 250 executivos de organizações consideradas early-adopters
de AI esperam que
a Inteligência Arti cial transforme os seus negócios drasticamente em até três anos. Eles acreditam que a transformação ocorrerá de
forma mais rápida em suas organizações do que em seus setores de atuação14.
Se continuarmos observando a linha dos front-runners, veremos que a estimativa é que esses investimentos e
esforços iniciais gerem fortes e positivos resultados futuros, mas em um período superior a três anos essas
organizações se bene ciarão sobremaneira desses investimentos, com forte e exponencial incremento
de seus uxos de caixa até 2030.
Comportamento bastante diferente terão os followers ou seguidores, aquelas organizações que não
mergulharão imediatamente na adoção da tecnologia, mas sim esperarão a m de avaliar os retornos obtidos
pelos front-runners para depois decidirem investir tempo e dinheiro em Inteligência Arti cial. Essas
organizações experimentarão um período de desencaixe levemente mais longo do que os front-
runners, porém terão benefícios drasticamente menores.
Entretanto, o que isso nos mostra exatamente? Uma primeira verdade importantíssima em Inteligência
Arti cial para os negócios: em Inteligência Arti cial, força gera força, talvez mais do que em qualquer
outra tecnologia ou transformação que vivenciamos em nossa história. A velocidade e o pioneirismo
na adoção de Inteligência Arti cial são fatores decisivos. Discutiremos mais sobre esse assunto e
compreenderemos os porquês desse efeito ao longo do Capítulo 4.
Por m, temos os laggards, os mais lentos, aqueles que não absorverão essa tecnologia até 2030, mesmo
observando ou não percebendo, os fortes incrementos em valor obtidos em maior escala pelos front-runners, e em
menor escala pelos followers. Essas organizações (laggards) muito provavelmente experimentarão
intensos declínios em seus uxos de caixa ou até mesmo vivenciarão a extinção de seus negócios em
um futuro próximo.
Obviamente que, ao entender esse grá co, parece ser muito simples a decisão a ser tomada pelas organizações:
investir imediatamente em Inteligência Arti cial, de forma transversal. Mas será que é assim tão simples? A
resposta certamente é não. Como todo investimento, há muitas incertezas e riscos relacionados com o sucesso
dos resultados futuros. Algumas questões essenciais são: em quais atividades posso aplicar Inteligência Arti cial
para automação ou otimização? Quais atividades devo priorizar? Quanto vai custar? Como posso calcular os
benefícios e mensurar os resultados futuros desses investimentos? Quais fornecedores devo usar? Devo contratar
uma empresa de consultoria ou fazer projetos somente com as equipes internas? Devo criar uma área de
Inteligência Arti cial e contratar um Chief Arti cial Intelligence O cer (CAIO)? Como essa nova tecnologia se
relaciona com os sistemas que já tenho? Como fazer para engajar a parte mais importante: as pessoas? E se os
investimentos não derem certo? Pois é, este livro não tem a ambição de responder a todas essas perguntas, mas
certamente trataremos de muitas delas e daremos a direção para o tratamento de tantas outras, sempre com a
lógica de que os primeiros passos para a realização de qualquer projeto de investimento, e Inteligência Arti cial é
um deles, é possuir a maior quantidade e qualidade de informações sobre todos os detalhes do projeto. Nesse
sentido, este livro lhe auxiliará a compreender as reais capacidades da Inteligência Arti cial, como identi car as
oportunidades de uso de suas aplicações e como dar os primeiros passos.
Outra previsão relevante foi feita pela PWC. Com o título Sizing the Prize – What’s the real value of AI for business
and how can you capitalize15, a PWC chega a previsões, no geral, bastante semelhantes às da Mckinsey Global
Institute, variando apenas a magnitude da agregação de valor advinda da Inteligência Arti cial: serão
US$ 15,7 trilhões gerados pela adoção de Inteligência Arti cial até 2030, globalmente.
Se a McKinsey previu que a distribuição do valor gerado pela Inteligência Arti cial será muito diferente entre
organizações de um mesmo setor, para a PWC essa desigualdade se traduzirá em enormes disparidades
entre nações. Observe a Figura 1.5 em que é ilustrada a estimativa de distribuição da riqueza gerada pela
Inteligência Arti cial, até 2030, entre as diferentes regiões do planeta.
A gura mostra que a estimativa é que a China sozinha cará com US$ 7 trilhões ou cerca de 44% do
total de US$ 15,7 trilhões que serão adicionados pela Inteligência Arti cial ao PIB mundial. A América do
Norte, com forte predominância norte-americana, cará com US$ 3,7 trilhões ou cerca de 24% da
geração total de valor. Essa concentração na China e nos Estados Unidos não é por acaso. Ela é re exo de
intensos investimentos em Inteligência Arti cial que essas nações e suas organizações já vêm
realizando há anos.
As formas de investir dos Estados Unidos e da China, os dois maiores bene ciados da agregação de valor
advindo da Inteligência Arti cial, são bem diferentes entre si. Isso nos mostra que não há apenas um caminho
para uma jornada de sucesso em Inteligência Arti cial.
Nos Estados Unidos, com o seu histórico liberalismo econômico, predomina a quase totalidade de
investimentos privados. Esses investimentos vêm de organizações que estão na fronteira da pesquisa e aplicação
de Inteligência Arti cial, como Google, Amazon, Microsoft, IBM e Facebook; além do forte apoio e proximidade
com grandes universidades locais que estão, sem dúvida, na fronteira do conhecimento do tema, tais como MIT,
Stanford e Berkeley. Lá, vemos a quase ausência do Estado nesse sentido. O modo autônomo de funcionamento
do Vale do Silício ilustra bem essa realidade.
Na China, temos um cenário bastante distinto. No gigante asiático, observamos fortes investimentos
governamentais, sejam investimentos diretos em empresas do segmento, seja por meio da criação de
infraestrutura para o desenvolvimento da Inteligência Arti cial. O anúncio do investimento de US$ 583 bilhões
em Xiong’an16, uma cidade próxima a Beijing, para torná-la a primeira cidade do mundo construída totalmente
adaptada para a circulação de carros autônomos, com segurança, é um ótimo exemplo do envolvimento
governamental chinês no desenvolvimento e incremento do uso de aplicações de Inteligência Arti cial. Esse, no
caso, é um exemplo de parceria público-privada: entre o governo chinês e a gigante privada Baidu.
De todo modo, tanto na China quanto nos Estados Unidos vemos a enorme proliferação de empresários e
empreendedores com suas startups focadas em produtos ou serviços baseados em Inteligência Arti cial.
Agora, vamos deixar o assunto Estados Unidos e China um pouco de lado para retomarmos a análise dos
resultados da pesquisa da PWC. A Figura 1.5 nos mostra também que a Europa inteira caria com US$ 2,5
trilhões ou 16% da geração total de valor, sendo US$ 1,8 trilhão vindo do norte da Europa e US$ 0,7 trilhão
vindo do sul da Europa. A Ásia desenvolvida caria com US$ 0,9 trilhão ou 6% da geração total de valor.
África, Oceania e outros países Asiáticos com US$ 1,2 trilhão ou 8% da geração total de valor.
Finalmente, para nós, brasileiros, qual parte nos caberia? Bem, o prognóstico é no mínimo preocupante, para
não dizer alarmante: a América Latina inteira caria com US$ 0,5 trilhão, ou seja, 3% da geração total de
valor advinda da Inteligência Arti cial. Obviamente é muito pouco e trata-se de uma estimativa que nos deveria
causar muita apreensão. Tão pouco valor vindo para nós, especialmente quando comparado com as demais
regiões do planeta, pode nos afetar muitíssimo, tendo o potencial de mudar drasticamente a riqueza comparativa
das nações, a ponto de, por exemplo, não nos con gurarmos mais entre as dez maiores economias do mundo.
Sim, há de se fazer algo a respeito.
Os parágrafos anteriores deixaram evidente que as diferentes estimativas preveem que a Inteligência Arti cial
agregará muito valor para as organizações e, consequentemente, para as nações que a adotarem. Deixaram claro,
também, que os ganhos serão desiguais entre nações e, até mesmo, entre organizações concorrentes pertencentes
a um mesmo setor da economia de um país. Em suma, os parágrafos anteriores mostraram as previsões do peso
da Inteligência Arti cial no futuro dos negócios.
No entanto, a Inteligência Arti cial não é apenas o futuro dos negócios. É o presente! A seguir, observe
o quadro da Figura 1.6. Nele, são apresentadas as dez maiores empresas em valor de mercado (Market
capitalization) e seu respectivo país de origem. Só para efeito de comparação e para termos uma ideia da
magnitude do valor dessas companhias, o PIB brasileiro é de cerca de US$ 2 trilhões, apenas cerca de três vezes o
valor de mercado da Amazon (US$ 0,8 trilhão), a primeira da lista. E a empresa com maior valor de mercado na
B3 – a bolsa de valores o cial do Brasil, o Grupo Itaú, é de apenas 90 bilhões de dólares. Todos os valores foram
calculados utilizando a cotação média do dólar de janeiro de 2019.
Figura 1.6: Valor de mercado (Market capitalization) das dez maiores companhias do mundo,
calculado em 14 de janeiro de 2019.
: .
As empresas em destaque no quadro são companhias que utilizam a Inteligência Arti cial de forma transversal.
Em outras palavras, elas podem ser consideradas como tendo seus negócios, hoje, baseados em
Inteligência Arti cial. São elas: Amazon, Microsoft, Alphabet (nome societário do Google), Apple, Facebook,
Tencent e Alibaba. E notem: elas são sete das dez maiores! Impressionante, não? O que isso mostra?
Aparentemente, a Inteligência Arti cial já está sendo monetizada e criando centenas de milhares de
dólares para as empresas que a adotaram de forma transversal.
Sabemos que os valores de mercado das ações das companhias podem sofrer inúmeros vieses, além de conterem
a expectativa de geração de valor futuro dessas organizações. Mas, certamente, elas já demostraram ter produtos
e serviços (prontos ou em desenvolvimento, ou mesmo a capacidade de criá-los), mercado consumidor (atual ou
potencial) e capacidade de gestão e inovação, além de resultados passados, su cientemente fortes para
justi carem essa enorme expectativa de geração de resultados no futuro.
Vale ressaltar que o fato de termos deixado Berkshire Hathaway, Johnson & Johnson e China Unicom de fora
da lista, das organizações baseadas em Inteligência Arti cial, não signi ca que elas não utilizem Inteligência
Arti cial. Isso signi ca que, na minha humilde análise, não o fazem de forma transversal ou não têm os seus
negócios baseados em Inteligência Arti cial. Além disso, temos o caso de holdings, com portfólio muito grande e
heterogêneo de empresas investidas, tornando a análise de intensidade de uso dessa tecnologia um enorme
desa o. Berkshire Hathaway, holding de empresas, cujo maior acionista é o multibilionário Warren Bu ett, é um
ótimo exemplo disso.
Outro fato que merece destaque na lista das dez maiores é: sete organizações serem de origem norte-
americana e três serem de origem chinesa. Assim, ca evidente não ser coincidência os estudos da PWC,
comentados anteriormente, estimarem que a maior parte dos valores criados pela Inteligência Arti cial serão
absorvidos justamente pela China e pelos Estados Unidos. A nal, as organizações privadas têm um papel decisivo
na geração de riqueza de qualquer nação. E, se você, leitor, ainda não está acostumado com os nomes chineses,
como Tencent, Alibaba, Baidu e Toutiao, prepare-se para elas passarem a fazer cada vez mais parte do seu
cotidiano, dado que essas companhias avançam de forma exponencial assim como seus ganhos com Inteligência
Arti cial.
Agora, vamos começar a juntar as peças para procurar entender o que esses estudos, quando tomados em
conjuntos, podem nos dizer. Para começar, vamos antes sumarizar o ponto principal de cada estudo visto neste
capítulo:
i) O McKinsey Global Institute prevê que as primeiras organizações a adotarem a Inteligência Arti cial, em cada
setor da economia, serão, em geral, as únicas a experimentarem os seus benefícios monetários de forma
exponencial.
ii) A PWC estima que China e Estados Unidos carão com a maior parte da riqueza criada pela Inteligência
Arti cial no mundo.
iii) Os dados reais atuais mostram que sete das dez maiores organizações do mundo, medidas por valor de
mercado, utilizam a Inteligência Arti cial transversalmente e têm suas origens na China e nos Estados Unidos.
Neste momento, ca bem fácil unir tudo! Organizações com origem na China e nos Estados Unidos são
muitas das que já saíram na frente na adoção transversal de Inteligência Arti cial e isso já está
monetizado no preço de suas ações. Se saíram na frente, são elas quem continuarão a se bene ciar de forma
exponencial dessa tecnologia, uma vez que os front-runners capturam a maior parte do valor criado pela
Inteligência Arti cial. Além disso, eles seguirão pressionando as demais organizações de sua cadeia produtiva
(clientes e fornecedores) para também mergulharem cada vez mais profundamente em Inteligência Arti cial.
Esse ecossistema de Inteligência Arti cial seguirá gerando cada vez mais riqueza para essas nações.
Por isso, China e Estados Unidos aparecem como os principais bene ciados da Inteligência Arti cial nos
prognósticos apresentados. Não é coincidência, pois eles começaram antes, muito antes e de forma
muito consistente.
E, para nós, no Brasil? Nas diversas palestras, debates e conversas que tenho participado sobre esse tema com
alunos, empreendedores, executivos e empresários nos últimos meses, ao menos uma pergunta se repete: “Mas,
em sua opinião, ainda dá tempo de modi carmos esse cenário?”. A minha resposta até hoje (este livro foi
concluído em dezembro de 2019) é: “Bem, eu honestamente acho que ainda dá”.
Sim, ainda dá tempo! Especialmente, porque a Inteligência Arti cial, após muitos anos de intenso
desenvolvimento, entrou em sua fase de aplicação, de uso. Nesse sentido, não acho que haja muito espaço
(ou tempo) para nos tornarmos grandes desenvolvedores de Inteligência Arti cial, mas temos enormes
oportunidades para nos tornarmos exímios aplicadores. Em muitos ramos da Inteligência Arti cial, já temos, à
nossa disposição, algoritmos muito bem desenvolvidos e prontos para serem aplicados, adaptados e treinados.
Esses algoritmos poderiam ser usados principalmente nos setores em que já somos fortes, como o agronegócio,
com o objetivo de reforçar as nossas fortalezas.
De todo modo, não há mais tempo a perder! Temos de começar já! Cabe destacar que não é a minha
intenção ser pessimista ou alarmista, mas sim ser realista. O que mais me preocupa é uma eventual
letargia em relação a esse tema. É importante discuti-lo: muito e mais rapidamente. É preciso discutir o tema
como política de Estado, é imprescindível tratar do assunto com prioridade nas organizações, tanto no nível
executivo quanto no nível mais estratégico, dos conselhos de administração. O maior desa o é que a
Inteligência Arti cial não espera os atrasados!
Além disso, em Inteligência Arti cial não há espaço para o dito “jeitinho” brasileiro, muito menos para algum
hábito de procrastinação ou de deixarmos para a última hora. Este é o principal motivo que me fez escrever o
livro: auxiliar a desmiti car o tema, apresentar o que é mito e o que é realidade, quais são as reais capacidades da
Inteligência Arti cial, bem como onde estão e como identi car as reais oportunidades de criação de valor nos
negócios com a adoção dessa incrível tecnologia. Mas precisamos correr, correr muito, pois há muitas
organizações, na China e nos Estados Unidos que entraram nessa corrida há muito tempo.
VOCÊ SABIA?
Computação cognitiva ou Cognitive computing , termo especialmente utilizado pela IBM no mundo, pode ser
entendido como um sinônimo de Inteligência Arti cial1.
Outro empecilho, para o entendimento da Inteligência Arti cial, é que ela é um campo de
conhecimento muito amplo, que engloba diferentes grupos e subgrupos de técnicas, por mais que
estejamos integralmente focados na Inteligência Arti cial Estreita. Dessas técnicas, algumas estão
prontas para uso e já são comercialmente viáveis. Outras, nem tanto, tendo mais espaço na esfera
acadêmica.
Assim, acredito que o ideal para termos uma compreensão efetiva da Inteligência Arti cial é a
separarmos em grupos e subgrupos de técnicas que estão mais amadurecidos, prontos para uso
comercial e que são responsáveis pela criação de centenas de milhares de dólares para as empresas
que já os adotaram2.
Neste contexto, o objetivo principal deste e do próximo capítulo é entendermos esses grupos de
técnicas mais relevantes. Para isso, começaremos com a apresentação e discussão das de nições
mais comuns de Inteligência Arti cial e veremos como elas precisam ser “lidas com moderação”. Na
sequência, faremos uso de um exemplo bastante didático para começarmos, de uma vez por todas, a
compreender o que é Inteligência Arti cial. Por m, fecharemos o capítulo trazendo algumas
importantes nomenclaturas utilizadas em Inteligência Arti cial.
Ter esses pontos em mente permite que nossos cérebros não voem para a Inteligência Arti cial
Genérica e nos desviem do foco de compreender a Inteligência Arti cial Estreita. Porém, mesmo
destacando esses pontos, certamente essas de nições ainda são abertas o su ciente para que
possamos nos fazer inúmeros questionamentos com relação às a rmações nelas contidas. Vejamos
alguns:
É fato que a Inteligência Artificial pode entender nossa linguagem, falada e escrita, mas será que
ela é mesmo capaz de ver e interpretar o mundo da mesma forma que nós o fazemos?
Sinceramente, eu diria que a resposta a essa pergunta é não. Ou, no mínimo, inde nível. De
qualquer forma, não me parece muito apropriado responder sim, sem titubear. Isso porque ainda
estamos longe de entender satisfatoriamente como o nosso próprio cérebro funciona, como
aprendemos e como interpretamos os fatos, apesar de todo o avanço da Neurociência e dos
diferentes ramos da Psicologia e Psiquiatria. E, se ainda não entendemos su cientemente bem o
nosso cérebro, como dizer que a Inteligência Arti cial interpreta o mundo da mesma forma que nós
o fazemos3?
Se interpretar pode ser definido por “determinar com precisão o sentido ou o significado de”4, é
possível afirmar que a máquina é capaz de interpretar? Em casos mais simples, eu diria que sim,
a Inteligência Artificial é capaz de interpretar.
Identi car a presença de um gato em determinada imagem, por exemplo, é uma proeza que a
Inteligência Arti cial já consegue realizar há alguns anos. Em certa medida, podemos dizer que se
trata de uma interpretação. Simples, mas uma interpretação de imagem.
Mas, e em casos mais complexos, como a interpretação de uma lei ambígua e dúbia? A Inteligência
Arti cial é capaz de interpretar algo tão complexo? Bem, nesse caso, provavelmente a resposta seria:
não. Ou, pelo menos, ainda não5.
Certamente uma pergunta como essa é um prato cheio para discussões nas salas de aula de
Filoso a. Eu confesso que tenho muitas dúvidas se quem tem insights são as máquinas ou somos
nós, seres humanos, mesmo que baseados em tratamentos e análises de dados realizados pela
máquina, pelos algoritmos de Inteligência Arti cial6.
Viu como é fácil questionar essas de nições? Eu poderia car aqui questionando cada palavra das
de nições mencionadas anteriormente, preenchendo páginas e mais páginas apenas com perguntas.
Isso sem grandes esforços, mas acho que já deu para compreender: o simples fato de termos de
destacar alguns pontos, implícitos e explícitos, e a facilidade que temos de levantar tantos
questionamentos sobre essas de nições nos leva a crer que elas, apesar de aparentemente
fascinantes, estão bem longe de efetivamente ajudarem a responder a nossa questão inicial, tema do
capítulo, de forma minimamente satisfatória: Mas, a nal, o que é Inteligência Arti cial?7 Por isso,
mencionei, no início da seção, que essas de nições comumente encontradas na internet precisam
ser “lidas com moderação”.
Bem, a essa altura do campeonato, ou melhor, da leitura, imagino que você possa estar mais calmo.
Mas obviamente ainda sem entender muito bem o que é Inteligência Arti cial. Ou você pode estar
ainda mais confuso. Será? É bem possível. Então, saiba que é normal. Essa confusão é saudável, faz
parte do processo de aprendizagem de um tema tão intrigante e complexo. Então, sigamos rmes!
Para sairmos de de nições mais genéricas e abertas, que pouco contribuem para a nossa discussão,
e começarmos a compreender o que de fato é Inteligência Arti cial, faremos uso de um exemplo
didático.
Observando essas variáveis, é possível a rmar que as cinco primeiras, que são características dos
imóveis, podem ajudar sobremaneira a explicar a última, o preço dos imóveis. Vamos compreender
um pouco melhor isso.
É razoável pensarmos que, quanto maior for o tamanho do imóvel e quanto mais quartos ele tiver,
maior tenderá a ser o seu preço. O CEP também pode ajudar, pois sabemos que imóveis de mesmo
tamanho, em bairros distintos, podem ter valores bem diferentes. Por m, o fato de o imóvel ter sido
reformado recentemente, assim como o fato de ele apresentar infraestrutura de lazer, como piscina,
quadra de esportes, playground e academia de ginástica, também podem valorizar o imóvel.
Claro que poderíamos pensar em outros fatores que ajudem a explicar os valores de imóveis, mas, a
título de exemplo, caremos com esses.
VOCÊ SABIA?
Alguns estatísticos discordarão da a rmação de que a Estatística é um ramo da Matemática, pois muitos acreditam
que, dada a sua relevância, a Estatística pode ser considerada um campo apartado8.
Assim, poderíamos facilmente fazer uso de técnicas estatísticas para chegarmos a um modelo
matemático que represente a relação das características dos imóveis com os seus respectivos preços
de venda. Poderíamos utilizar, por exemplo, uma técnica estatística conhecida como regressão linear
múltipla.
Assim, após rodarmos uma regressão linear múltipla com os dados da tabela da Figura 2.1,
chegaríamos, por exemplo, em uma expressão hipotética como essa:
Interpretando a equação da Figura 2.2: o preço do imóvel é dado pela quantidade de metros
quadrados multiplicado por R$ 9.500, que é o valor médio do metro quadrado encontrado na base de
dados. Ao resultado dessa multiplicação, será adicionado 17% em caso de ter havido reforma recente
no imóvel. Em outras palavras, o preço médio do metro quadrado é de R$ 9.500 e o fato de o imóvel
ter sido reformado recentemente incrementa-se a esse valor 17%. As demais variáveis foram
desconsideradas pelo modelo*.
Observe que, no nal da tabela da Figura 2.2, aparece a expressão: “Nível de acurácia do modelo: 73%”. Isso signi ca que essa
expressão ou modelo matemático tem um poder de explicação dos preços de imóveis de 73%. Para os mais entendidos em estatística,
trata-se de R2 ajustado. Em outras palavras, de forma simpli cada, o erro do modelo é de 27% (100% - 73% = 27%). De forma geral,
podemos considerar 73% uma boa acurácia.
Acredito que você deva estar se perguntando: “Ok, chegamos a um modelo estatístico com boa
acurácia, que explica ou estima o preço dos imóveis em função de suas características. Mas até aí,
parece ser só estatística, não? Onde está a Inteligência Arti cial?”. Sim, verdade! O seu pensamento
está correto. Até aqui é somente a boa e velha estatística. Agora, vamos adicionar alguns elementos
ao nosso modelo estatístico para chegarmos à Inteligência Arti cial:
iii) Separação da base de dados em duas: uma para treinamento e outra para validação do modelo
Outra diferença entre a Estatística pura e a Inteligência Arti cial é que a IA sugere a separação da
base de dados em duas partes: uma parte é utilizada para se obter o modelo estatístico (ou “treinar”
o modelo, como é utilizado em Inteligência Arti cial), e outra é utilizada para validar a sua acurácia.
Esse procedimento é bastante importante para aumentar a robustez da aplicação, dado que há um
pressuposto estatístico de que a acurácia de um modelo é superestimada quando utilizamos a
mesma base para treiná-lo e para veri car a sua acurácia, sem testar a sua capacidade preditiva.
Deixe-me explicar esse ponto um pouco melhor.
Voltando ao nosso exemplo de modelo para estimativa dos preços de imóveis, a acurácia de 73% só
é válida para imóveis com características semelhantes aos que fazem parte da base de dados
utilizada para seu desenvolvimento. Mas essa acurácia pode ser bem menor, na prática, se o modelo
for utilizado para prever ou estimar preços de imóveis com características diferentes dos imóveis
constantes na base de dados. Vamos detalhar um pouco mais essa ideia.
Imagine que o imóvel de determinado usuário de nosso App está localizado em um bairro e
apresenta determinado CEP, não contido na base de dados utilizada para se treinar o modelo. O CEP
desse imóvel refere-se a uma região muito nobre da cidade, onde os preços estão extremamente
elevados. Como o nosso modelo não conhece os preços dos imóveis com esse CEP, pois os dados
originais não continham nenhum imóvel dessa região, a estimativa do valor desse imóvel que o
modelo traria, muito possivelmente, seria menor do que o seu valor real. E muito possivelmente a
acurácia do resultado para esse usuário seria muito baixa, inferior aos 73%.
Assim, a separação da base em duas partes poderia ajudar os pro ssionais de Inteligência Arti cial
a antever esse tipo de problema e veri car a real acurácia do modelo para predição de preços de
outros imóveis que, a nal de contas, é a nalidade para a qual ele foi criado. Com o problema
identi cado, ca mais fácil a busca por soluções para deixar os modelos mais robustos e menos
suscetíveis a esses efeitos. Em outras palavras, se utilizamos diferentes bases de dados para treinar e
validar o modelo, temos condições de saber a real acurácia que esse modelo vai apresentar em
diferentes situações, especialmente as de predição. Só assim, identi cando essas de ciências, é que
poderemos, na sequência, buscar soluções estatísticas mais complexas que minimizem os efeitos
negativos mencionados.
Agora, re ita comigo: o que de fato aconteceu quando treinamos um modelo para estimar o preço
dos imóveis de forma automática, buscando o melhor modelo estatístico, testando inúmeras
possibilidades e procurando garantir a sua robustez para o uso preditivo em situações não contidas
na base de dados? A máquina ou o algoritmo aprendeu! Aprendeu a estimar o preço de imóveis com
elevada acurácia e de forma robusta. Eis aí a aprendizagem de máquina, a inteligência, no caso
a Inteligência Arti cial.
Dessa forma, agora podemos arriscar a tecer uma primeira de nição, mais simples e efetiva de
Inteligência Arti cial. Trata-se de uma de nição minha, ainda incompleta, porém mais “pé no chão”,
essencial para começarmos a desmiti car o tema e avançarmos em nossos entendimentos:
Inteligência Arti cial refere-se ao uso de modelos estatísticos ou matemáticos em aplicações
especí cas para predição de resultados, buscando sempre a máxima acurácia e robustez
possíveis (por meio da busca do melhor modelo estatístico e da separação da amostra em
duas partes, uma para treinar e outra para validar o modelo).
Figura 2.3: Da estatística para a Inteligência Arti cial.
: .
Já sei! Achou essa de nição pouco inspiradora? Pouco audaciosa? Bem, eu não sei, mas acredite em
mim: essa de nição é muito mais el ao que realmente é a Inteligência Arti cial. Essa de nição,
aparentemente pouco inspiradora, nos permitirá compreender muito bem o que é a Inteligência
Arti cial. Portanto, vamos seguir.
VOCÊ SABIA?
Como os algoritmos de Inteligência Arti cial são baseados em dados, muitas instituições, como a Universidade de
Columbia, por exemplo, consideram que a IA faz parte de um grupo maior conhecido como Ciência de Dados ou Data
Science
.
VOCÊ SABIA?
Como um computador entende melhor números do que textos, as etapas de um algoritmo são normalmente
reunidas como equações matemáticas11.
Como Input – A, temos as características dos imóveis que foram mantidas no modelo (tamanho em
metros quadrados e o fato de ele ter sido ou não reformado recentemente); como Output – B, temos
os preços estimados dos imóveis. Assim, dizemos ser essa uma relação do tipo A => B, ou seja, com
base nos dados, que são as características dos imóveis (Input – A), que o modelo lhe fornecerá o
preço estimado (Output – B) de cada imóvel. Uma relação de “causa e consequência”, uma relação de
“Se... Então”.
O quadro a seguir ilustra essa relação A => B:
Figura 2.5: Quadro de resumo lógico do modelo de estimativa de preço dos imóveis como uma relação A => B.
: .
Vamos recordar como zemos para criar essa aplicação. Precisamos de uma série de dados,
contendo as características dos imóveis (tamanho, quantidade de quartos etc.) e o seu respectivo
preço de venda. Necessitamos, então, ter tanto os dados do Input – A quanto os dados do Output – B
para criar ou treinar o modelo.
Sistema anti-spam
Figura 2.6: Quadro de exemplo de relação A => B – aplicação de Inteligência Arti cial para identi cação de spams em e-mails
recebidos.
: .
Como essa aplicação foi desenvolvida ou treinada? Da mesma forma que zemos para criar o nosso
modelo de estimativa de preços de imóvel: uso de métodos estatísticos ou matemáticos aplicados a
uma enorme base de dados de e-mails (Input – A) e seu respectivo Output – B, ou seja, a informação
de tratar-se ou não de spam. Uma base de dados como a ilustrada no quadro da Figura 2.7.
Figura 2.7: Quadro de exempli cação da tabela de dados utilizada para treinar o algoritmo de Inteligência Arti cial que identi ca
spams em e-mails recebidos.
: .
VOCÊ SABIA?
“Output – B” é também conhecido como rótulo, do termo em inglês label.
Com base nisso, a Inteligência Arti cial procura identi car padrões existentes nos e-mails, que
diferenciem spams de não spams para, na sequência, sistematizá-los por meio de cálculos. Em outras
palavras, alguém, humano (certamente mais de um), precisou analisar uma longa série de e-mails
para incluir o label, o Output – B, ou seja, indicar se tratava ou se não se tratava de spam para que
fossem aplicados os modelos estatísticos que aprendessem a discriminar spams de não spams.
Como essa aplicação é continuamente aperfeiçoada? Com a chegada diária de novos e-mails. Toda
vez que recebemos um novo e-mail, o sistema faz a classi cação e prediz se é ou não um spam. Se
algum e-mail recebido, que é de fato um spam, não foi identi cado como tal e o sistema o colocou
erroneamente em sua caixa de entrada, você provavelmente visualiza-o, identi ca tratar-se de um
spam e clica em “classi car como spam” (ou outro termo parecido de seu sistema de e-mails). Com
isso, você está, na realidade, adicionando novos dados na base de dados e permitindo que o sistema
seja retreinado e aperfeiçoado. Sim, nesse momento você está treinando um robô! Você já havia
pensado nisso?
O sistema incluirá esse novo dado na base de dados e irá refazer todas as rotinas do algoritmo,
melhorando a sua acurácia. Agora, imagine milhares de usuários realizando diariamente o mesmo
procedimento. É isso que permite que esses sistemas tenham níveis de e ciência e acurácia
absolutamente incríveis.
Outra aplicação que vem ganhando bastante espaço hoje em dia é a transcrição de áudios,
conhecido por seu termo em inglês speech to text. Com esse serviço, o computador é capaz de
capturar a fala de um ser humano, um áudio, e transformá-la em um texto, transcrevê-la. Observe
que essa aplicação também segue a mesma lógica A => B: a entrada de dados, Input – A, é um áudio
contendo a fala; o resultado, a saída de dados, o Output – B, é a transcrição desse áudio.
Figura 2.8: Exemplo de relação A => B – aplicação de Inteligência Arti cial para transcrição de áudios (speech to text).
: .
Como esse modelo foi treinado? Da mesma forma que os demais, com inúmeros dados de Input –
A, ou seja, áudios contendo incontáveis falas humanas e seus respectivos Outputs – B, as
transcrições desses áudios.
Já imaginou? Para que esse serviço pudesse se tornar realidade, foram necessárias milhares de
horas de áudios de falas humanas em determinado idioma e as suas respectivas transcrições.
Essa é outra característica muito importante da Inteligência Arti cial: os algoritmos precisam de
tempo e muitos dados (de Input – A e de Output – B) para aprender. Mas a vantagem é que, uma vez
que o algoritmo está su cientemente treinado, ele pode ser in nitamente escalado. Em outras
palavras, os algoritmos de speech to text, por exemplo, uma vez treinados podem ser usados em
inúmeras aplicações e ter milhões de usuários, sem grandes esforços adicionais. Além disso, o uso
em escala é o que permite que o algoritmo seja constantemente aperfeiçoado da mesma forma que o
nosso modelo de estimativa de preços de imóveis ou o sistema anti-spam, que conseguem aprender
com os novos dados gerados por cada um dos usuários.
Raciocínio semelhante pode ser estendido para as aplicações que executam a leitura de textos,
também conhecidas pelo seu termo em inglês, text to speech, que tiveram seus algoritmos treinados
com dados de textos e seus respectivos áudios:
Figura 2.9: Exemplo de relação A => B – aplicação de Inteligência Arti cial para leitura de textos (text to speech ).
: .
Tradução de textos
O mesmo ocorre para tradução de textos de um idioma para outro:
Figura 2.10: Exemplo de relação A => B – aplicação de Inteligência Arti cial para leitura e traduções de textos.
: .
Uma das aplicações de Inteligência Arti cial (relação A => B) que mais tem criado valor para as
organizações é a que considera como entrada de dados, Input – A, determinada propaganda ou
banner e informações dos usuários. Tal aplicação tem como saída ou resultado, Output – B, a
predição se um usuário irá ou não clicar na propaganda, conforme está exempli cado na gura a
seguir:
A mesma lógica tem sido utilizada em aplicações para reconhecimento automático de animais,
objetos ou faces em fotogra as.
Figura 2.12: Exemplo de relação A => B – aplicação de Inteligência Arti cial para identi cação de faces, animais e objetos em
fotogra as.
: .
Vale ressaltar, mais uma vez, e generalizar a ideia de como essas aplicações de Inteligência Arti cial
tem os seus algoritmos criados, treinados e retreinados
ou aperfeiçoados:
São necessários milhares de dados dos Inputs – A e seus respectivos Outputs – B, os rótulos ou
labels, para criá-los e treiná-los;
O simples uso de milhares de usuários é suficiente para retreinar as aplicações ou os algoritmos
diariamente.
Figura 2.13: Exemplos de algoritmos e aplicações de Inteligência Arti cial que utilizam relações do tipo A => B.
: .
Depois de entendermos todos esses exemplos de relação do tipo A => B, que engloba a maior parte
das aplicações e usos relevantes de Inteligência Arti cial, observamos que eles se encaixam muito
bem em nossa de nição inicial de Inteligência Arti cial:
“Inteligência Arti cial se refere ao uso de modelos estatísticos ou matemáticos em aplicações
especí cas para predição de resultados, buscando sempre a máxima acurácia e robustez
possíveis (por meio da busca do melhor modelo estatístico e da separação da amostra em
duas partes, uma para treinar; outra para validar o modelo).”
Todos os exemplos utilizados são baseados em modelos estatísticos e matemáticos para predição
de resultados (que são os Outputs – B), que utilizam dados de entrada (que são os Inputs – A) . Todos
os modelos ilustrados certamente se mostraram os melhores entre uma in nidade de modelos e
métodos estatísticos testados, apresentando-se robustos para uso em situações de predição de
resultados. Boa parte dos modelos podem ser atualizados e melhorados periodicamente com a
entrada de novos dados (normalmente gerados por nós, usuários das aplicações). Viu como a
Inteligência Arti cial é muito mais simples do que parece?
Figura 2.14: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial.
: .
Acredito que agora você esteja apto a identi car aplicações e sistemas que fazem parte do
seu dia a dia e que utilizam a Inteligência Arti cial. Quais são elas?
Quais delas lhe parecem ser de Supervised Learning , ou seja, baseadas em relações do tipo
A => B?
Como você avalia a qualidade desses serviços?
Em nossas vidas, temos relações do tipo A => B em muitas situações.
Você consegue identi car relações do tipo A => B em situações e atividades de sua vida
pessoal?
Existem dados disponíveis, tanto de Input
– A quanto de Output
– B, dessas relações ou
atividades, tanto pro ssionais quanto pessoais? Lembre-se que, em caso positivo, elas
podem ser sérias candidatas a serem automatizadas pela Inteligência Arti cial.
Para saber mais sobre as de nições de Inteligência Arti cial e suas principais terminologias:
Para saber mais sobre Machine Learning e Supervised Learning:
Capítulo 3
Por que agora? Deep
Learning, o protagonista
da Inteligência Artificial
Inteligência
Arti cial, como a regressão linear múltipla, que usamos no App de estimativa de
preço de imóveis do capítulo anterior, pertence a um subgrupo de Supervised
Learning, conhecido como Statistical Machine Learning ou Statistical Learning –
Aprendizagem Estatística, em tradução livre para o português1.
VOCÊ SABIA?
Alguns outros exemplos de técnicas estatísticas multivariadas que se encaixam nesse subgrupo
de Statistical Machine Learning
são Análise Discriminante e Regressão Logística2.
Figura 3.1: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial, incluindo
Statistical Machine Learning e Deep Learning.
: .
3.1 Deep Learning - um sinônimo de Artificial
Neural Network (ANN)
Deep Learning pode ser entendida, de forma simpli cada, como um sinônimo de
Arti cial Neural Network (ANN) – ou Redes Neurais Arti ciais. Para ser mais
preciso, Deep Learning é um tipo de Arti cial Neural Network, um tipo mais
complexo, com mais camadas. Porém, como atualmente a maioria das ANN são
justamente de Deep Learning, é comum usarmos esses termos como sinônimos3.
Você deve estar pensando: “Redes neurais arti ciais... Então, o termo neurais se
refere a neurônios? Neurônios como os nossos, humanos?”. Sim, refere-se a
neurônios, mas uma “rede de neurônios arti ciais”. Logo, não são exatamente como
os nossos neurônios. Essa associação é muito mais no sentido de que esse nome é
inspirado, e apenas inspirado, na organização do cérebro humano, sua rede de
neurônios naturais e nas suas sinapses, do que no funcionamento do cérebro em si.
Por isso, a ênfase em apenas inspirado. E não poderia ser diferente, pois até hoje
sabemos muito pouco sobre o funcionamento de nossos cérebros, apesar de todo o
avanço recente da Neurociência, das diferentes áreas da Psicologia e de áreas
correlatas.
Então, as Redes Neurais Arti ciais são inspiradas na organização do cérebro
humano, mas não funcionam da mesma forma que o nosso cérebro. Funcionam com
base em técnicas matemáticas, técnicas matemáticas essas que são mais avançadas
do que as utilizadas em Statistical Machine Learning, mas que ainda são apenas
técnicas matemáticas.
Na gura, temos seis neurônios arti ciais. Observe que a rede neural está
organizada em camadas: uma camada inicial de entrada de dados (primeira camada à
esquerda), conhecida como Input – A; uma camada nal de resultado (última
camada à direita), conhecida como Output – B, e uma camada intermediária
escondida, conhecida como Camada Oculta ou Hidden Layer. Cada linha
pontilhada que conecta os neurônios representa os pesos que cada variável da
camada anterior tem na formação do novo neurônio, na camada seguinte.
Esses são os elementos básicos que compõem a estrutura de Deep Learning ou de
Arti cial Neural Network. Vale ressaltar que um modelo de DL ou de ANN pode
chegar a ter centenas de milhares de neurônios e camadas, especialmente camadas
ocultas.
VOCÊ SABIA?
A aprendizagem ou o uxo de aprendizagem numa Arti cial Neural Network se dá essencialmente
de duas formas:Forward-Propagation Back-Propagation
e .
Forward-Propagation é aplicada quando a rede é usada para fazer “palpites” sobre os
resultados, as respostas que o modelo poderia dar.
Back-Propagation é uma tentativa de minimizar os erros entre a resposta encontrada pelo
modelo e a resposta correta e real4.
A primeira camada da nossa rede neural será a de entrada, conhecida como Input –
A, o mesmo Input – A, visto no capítulo anterior, que está representada na Figura
3.3. Dela fazem parte todas as variáveis que podem nos ajudar a explicar os preços
dos imóveis. Observe como cada variável é representada por um neurônio na camada
de entrada.
Figura 3.3: Camada de entrada da rede neural arti cial para estimativa de preço dos imóveis.
: .
A segunda camada de nossa rede neural, conhecida como Camada oculta ou Hidden
Layer, conterá diferentes combinações das variáveis que compõem a camada de
entrada – Input – A.
Vamos analisar as duas primeiras variáveis: tamanho em metros quadrados e
quantidade de quartos. Elas parecem se sobrepor uma à outra, ou tecnicamente, elas
devem apresentar alto nível de correlação entre si. Isso porque, em geral, quanto
maior o imóvel, mais quartos ele tende a ter. Quanto mais quartos o imóvel tiver,
maior ele tende a ser. Provavelmente, por esse motivo, o nosso modelo de regressão
linear múltipla do capítulo anterior, manteve apenas uma delas, o tamanho, em sua
versão nal, desprezando a quantidade de quartos.
No entanto, nas redes neurais, variáveis como essas recebem outro tratamento. Em
vez de o modelo escolher uma em detrimento da outra, essas duas variáveis juntas
serão combinadas para formar uma terceira e nova variável, composta por essas
duas.
A Figura 3.4 ilustra essa criação de uma nova variável ou neurônio, que
chamaremos de tamanho da família, justamente pelo fato de tamanho do imóvel e
quantidade de quartos, combinados, poderem indicar o tamanho da família que o
imóvel comporta. Essa nova variável, representada por um novo neurônio, o
primeiro que fará parte da Camada oculta, está ilustrada na Figura 3.4. As linhas que
saem de tamanho e quantidade de quartos para formar o tamanho da família trazem
os respectivos pesos que cada neurônio tem na formação do neurônio tamanho da
família. Esses pesos serão de nidos pelos algoritmos de Deep Learning, de forma a
maximizar a explicação do preço dos imóveis, ou seja, aumentar a sua acurácia.
Figura 3.4: Formação do primeiro neurônio da Camada oculta (Hidden Layer 1) de nossa rede neural arti cial.
: .
Figura 3.5: Formação do segundo neurônio da Camada oculta (Hidden layer 1) de nossa rede neural arti cial.
: .
Por m, a variável CEP em si pode indicar se o imóvel está em um bairro passível
de caminhar, especialmente no que se refere à estrutura das ruas, à existência ou não
de ladeiras e à estrutura das calçadas, formando um terceiro e último neurônio da
primeira Camada oculta de nossa rede neural, que nomearemos Passível de
caminhar. Nesse caso, o peso do neurônio CEP na formação do neurônio Passível de
caminhar será 100%. A Figura 3.6 ilustra a formação do neurônio Passível de
caminhar.
Figura 3.6: Formação do terceiro neurônio da Camada oculta (Hidden layer 1) de nossa rede neural arti cial.
: .
Observem que, até o momento, temos três neurônios na Camada oculta, que nada
mais são do que nós de decisão matemáticos ou probabilísticos.
VOCÊ SABIA?
O professor Geo rey Hinton é conhecido como o pai da Inteligência
Arti cial moderna, pois foi o responsável pelo grande desenvolvimento dos modelos de Deep
Learning 8.
VOCÊ SABIA?
A elevada acurácia dos modelos de Deep Learning pode ser escalada. Estudos dizem que nós, seres
humanos, somos capazes de identi car em média cerca de 3.000 pessoas, ou seja, conseguimos
Deep Learning
reconhecer a face de cerca de 3.000 pessoas. Por sua vez, os algoritmos de , podem
ser usados repetidas vezes e escalados de tal forma que podem identi car a face de cerca de 3
milhões de pessoas, com 95% de assertividade. Por isso, dizemos que os algoritmos de Deep
Learning fazem com que a Inteligência Arti cial seja, em alguns domínios ou tarefas, muito
superior ao mais treinado dos seres humanos. Isso já é realidade em diversas esferas, de jogos
recreativos a identi cação de tumores em imagens.
Para ilustrar as vantagens do Deep Learning, vamos conhecer um exemplo real que
utiliza variáveis que, certamente, seriam desconsideradas por nós, seres humanos
(ou pelo menos a maioria de nós). Para isso, utilizarei uma empresa que tive o
privilégio de conhecer durante o meu pós-doutorado na Columbia University: a Tala,
ntech que opera em concessão de microcréditos, no formato mobile wallet, em
regiões paupérrimas do planeta13.
Além de realizar um trabalho social belíssimo, gerando crédito e favorecendo a
economia de regiões de muitas restrições pelo mundo, a Tala é interessante por ser
uma pioneira em uso de algoritmos de Deep Learning para a análise de crédito.
VOCÊ SABIA?
Estima-se que cerca de 1,7 bilhões de pessoas pelo mundo não têm conta bancária, estando à
margem do sistema nanceiro e sem acesso às opções tradicionais de crédito14.
1º-) é que os dados colhidos e analisados pela Tala são exclusivamente dados
gerados pelos smartphones de seus clientes ou potenciais clientes, como Apps
baixados, características desses Apps, tempo dedicado em cada App, nível de
uso, usos por horário, nível de bateria, localização, locais frequentados, entre
tantos outros gerados diariamente pelos aparelhos de
cada usuário.
2º-) a Tala utiliza modelos de Deep Learning em suas análises. Bancos
tradicionais normalmente utilizam técnicas de Statistical Machine Learning,
como Análise Discriminante e Regressão Logística, para essa nalidade.
VOCÊ SABIA?
Nem todos os pesquisadores concordam com o termo “caixa preta”. Eles alegam que, embora seja
uma tarefa difícil explicar o funcionamento dos algoritmos deDeep Learning, ainda assim, é uma
15
tarefa possível .
Alguns algoritmos de Deep Learning são construídos com o objetivo especí co de nos ajudar a
compreender a “caixa preta”, ou seja, o funcionamento de outros algoritmos16.
VOCÊ SABIA?
Atribuem os primeiros registros de Redes Neurais Arti ciais, na década de 1940, a Walter Pitts e
Warren McCulloch, quando criaram um modelo de computador com base nas redes neurais do
cérebro humano18.
A capacidade de processamento se refere ao fato de os algoritmos de Deep
Learning envolverem procedimentos matemáticos complexos ou, no mínimo, muito
trabalhosos, para serem executados. Assim, esses algoritmos precisam de hardwares
poderosos para serem processados em tempo adequado.
Em nosso exemplo de Deep Learning para a criação do App de estimativa de preços
de imóveis, utilizamos uma rede neural arti cial bastante simples, com poucos
neurônios, apenas para ns didáticos. Na prática, algoritmos de DL utilizam
modelos muito mais complexos, chegando a ter milhares de camadas e neurônios,
exigindo alta capacidade de processamento.
Além dos avanços naturais observados na capacidade de processamento das CPUs
(Central Processing Unit), que já atingiu patamares elevadíssimos a custos cada vez
mais baixos, os algoritmos de Deep Learning se bene ciaram de outra descoberta. Há
alguns anos descobriu-se que os GPUs (Graphic Processing Units) – processadores de
placas de vídeo, historicamente utilizados em videogames para a produção daqueles
grá cos de altíssima resolução, típicos dos jogos – eram enormemente poderosos
para a construção e o treinamento de algoritmos de Deep Learning19.
As expectativas com relação ao desenvolvimento crescente dos processadores
tende a continuar, dado que os investimentos e pesquisas na área seguem a todo
vapor. Além disso, ainda temos a expectativa referente à computação quântica20, que
tende a modi car completamente o que entendemos por computador e capacidade
computacional, permitindo o uso de algoritmos cada vez mais complexos, com uma
velocidade sem precedentes.
VOCÊ SABIA?
Computação quântica são sistemas avançados de computação, capazes de fazer cálculos
ultrarrápidos em conjuntos de dados muito maiores e mais complexos do que os que temos hoje,
com muito mais e ciência. Eles usam os fundamentos da Mecânica Quântica para acelerar
cálculos complexos, podendo incorporar um número aparentemente ilimitado de variáveis. A IBM
e o Google disputam a liderança nesse promissor segmento21.
O segundo grande fator, que explica por que o Deep Learning decolou somente
agora, diz respeito à disponibilidade de dados. Vamos utilizar o grá co da Figura
3.10 para explicar esse efeito.
VOCÊ SABIA?
Tem surgido com muita força uma tecnologia, ou grupo de tecnologias, conhecida como
Internet of Things
(IoT) – ou Internet das Coisas, que tem intensi cado fortemente o movimento
de Big Data
e, por consequência, potencializado ainda mais a Inteligência Arti cial. De forma bem
simples, a IoT pode ser de nida pela geração de dados por equipamentos que usamos em nosso
dia a dia, de todos os tamanhos e tipos, por meio de sensores, radares, GPS, lidares etc. neles
instalados.
Um exemplo real e corriqueiro desse efeito são os nossos smartphones. Esses aparelhos geram
diariamente centenas de milhares de dados dos seus usuários: tempo gasto olhando para a tela,
quantidade de passos dados, caminhos percorridos, sites e Apps acessados, tempo de acesso,
ligações feitas e as respectivas durações, entre tantos outros. Esses e outros dados são
continuamente lançados na nuvem23.
A tendência é que outras “coisas” que usamos em nosso dia a dia também passem a gerar
dados: carros, geladeiras, câmeras, bicicletas
etc. Conforme a rma Kevin Kelly, autor do livroO inevitável , nas próximas décadas, quase todos
os objetos fabricados conterão pequenas lascas de silício conectadas à internet.
Esse movimento é um prato cheio para o maior desenvolvimento e para a criação de inúmeras
(e ainda inimagináveis) aplicações de
Inteligência Arti cial nos mais diferentes setores da economia24.
Você consegue identi car situações do seu cotidiano pro ssional em que
você poderia aplicar algoritmos de Deep Learning
? Procure pelas situações
em que você dispõe de enormes quantidades de dados, tanto de –A Input
quanto de Output
– B.
E quanto a situações de seu cotidiano pessoal?
Você consegue identi car situações do tipo A => B, de causa e efeito, em
que você conhece os dados de entrada, o Input
– A? Em caso positivo,
procure re etir se as variáveis de entrada, Input
– A, que você considera não
são somente as de correlação forte com os resultados. Você conseguiria
imaginar outras variáveis que poderiam ser adicionadas como dados de
entrada, mesmo que com correlações mais fracas?
4.4 Dados
Se o produto ou serviço for habilitado para dados, os usuários, ao consumirem
esses produtos ou serviços, gerarão dados para a organização. Dados dos mais
variados tipos, de toda a jornada do cliente na interação com o produto e
com a organização. Dados que ajudem a organização a responder às questões do
tipo: Como o produto chamou a atenção dos usuários? De quais canais vieram
esses usuários? Qual foi a jornada que transformou leads em usuários? O que eles
consumiram? Como eles consumiram? Do que eles mais gostaram e por quê? Do
que eles menos gostaram e por quê? O que cou faltando? O que eles mais
valorizam? O que eles menos valorizam e por quê? Entre os que desistiram, por
que desistiram?
Atenção! Para que, de verdade, a organização entre no Ciclo virtuoso de
Inteligência Arti cial, os dados têm de ajudar a responder às questões
descritas no parágrafo anterior, sem que a organização tenha de
perguntá-las explicitamente aos seus usuários. Isso se deve especialmente a
quatro motivos:
CURIOSIDADE
Já há alguns anos, o professor Andrew Ng a rma que a Inteligência Arti cial é a nova energia
elétrica. Se isso é verdade, como de fato parece ser, os dados seriam as fontes geradoras dessa
nova energia elétrica. Os dados estão para Inteligência Arti cial assim como a força dos rios
está para energia hidrelétrica ou a força dos ventos está para a energia eólica5.
Quando nos referimos a dados, é importante ressaltar que eles podem ser de
dois tipos: estruturados ou não estruturados. Os dados estruturados são
tipicamente valores numéricos, datas e endereços, aqueles contidos em sistemas
de gestão, tabelas Excel e demais bancos de dados usuais. Eles são, normalmente,
representados por tabelas organizadas em colunas e seus respectivos cabeçalhos.
São, na essência, o que estamos acostumados a chamar de dados. A tabela de
características e preços dos imóveis, que utilizamos para a criação de nosso
sistema de estimativa de preços de imóveis no Capítulo 2, é um bom exemplo de
dados estruturados.
Já os dados não estruturados são essencialmente imagens, vídeos e áudios. Mas
agora você, leitor, pode estar se perguntando: “Uma imagem pode ser considerada
um dado?”. Sim, um conjunto de dados! Vamos compreender isso com um pouco
mais de detalhes.
Observe a imagem a seguir, uma imagem em preto e branco (ou tons de cinza).
Para nós, trata-se da Angelina Jolie: famosa atriz, que atuou em diferentes
lmes, como Tomb Raider, A Troca e Sr. e Sra. Smith. Poderíamos descrever o seu
cabelo, a cor da sua pele, a sua feição e até o seu humor típico. Mas, para um
computador, essa fotogra a signi ca, a priori e originalmente, apenas um
emaranhado de números.
Vamos dar um zoom nessa foto, por exemplo, na região dos olhos:
4.5 Talentos
Quando me re ro a talentos no Ciclo virtuoso de Inteligência Arti cial, re ro-
me
principalmente a dois tipos de talento, que devem trabalhar juntos,
continuamente, em todas as etapas, desde o início do planejamento do produto9:
1. Pro ssionais técnicos de Inteligência Arti cial, com competência
su ciente para entender minimamente as necessidades do negócio e com
profunda capacidade de customizar os algoritmos de Inteligência Arti cial.
2. Pro ssionais de negócios, que entendam minimamente das
capacidades da Inteligência Arti cial e com profunda competência no
entendimento do negócio e dos clientes.
Explicarei mais detalhadamente a necessidade desses dois per s distintos
trabalharem em conjunto.
Nós, pro ssionais de negócios, sabemos o que pode criar valor para os nossos
clientes e, consequentemente, para nossas organizações e stakeholders. Já os
pro ssionais técnicos de Inteligência Arti cial sabem o que realmente é possível
de ser feito com as técnicas e algoritmos de Inteligência Arti cial disponíveis.
Como os norte-americanos gostam de dizer: nós sabemos o que é valuable
(o que cria valor), e eles sabem o que é feasible (factível). Juntos podemos
encontrar a interseção desses dois mundos, que é exatamente onde estão as reais
oportunidades de Inteligência Arti cial para os negócios: projetos factíveis e que
criam valor para a organização. A Figura 4.4 ilustra essa interseção.
Figura 4.4: A necessidade de pro ssionais de negócios e de pro ssionais de Inteligência Arti cial trabalharem
juntos para a criação de aplicações valiosas.
: .
Obviamente que poder contar com pro ssionais desses dois mundos é de suma
importância para o sucesso de projetos em Inteligência Arti cial. No entanto,a
comunicação entre eles também tem de funcionar para o êxito dos
empreendimentos. Para isso, os pro ssionais técnicos conhecerem minimamente
de negócios, e os pro ssionais de negócio conhecerem minimamente de
Inteligência Arti cial, pode fazer a diferença.
A propósito, espero genuinamente que este livro esteja auxiliando você,
pro ssional de negócios, a compreender um pouquinho do mundo técnico da
Inteligência Arti cial e a facilitar a comunicação e a execução de projetos de
Inteligência Arti cial em sua organização, hoje ou num futuro próximo.
Outro comentário merece ser tecido com relação aos talentos técnicos
necessários para que o Ciclo virtuoso de Inteligência Arti cial aconteça. Devido
ao forte desenvolvimento do Deep Learning, visto nos últimos cinco a sete anos,
podemos dizer que a Inteligência Arti cial entrou, nalmente, em um estágio de
relativa maturidade, que permite a sua aplicação no mundo dos negócios em larga
escala11.
Esse estágio de relativa maturidade signi ca que hoje, para colocar a
Inteligência Arti cial em prática, são necessários talentos apenas capazes de
adaptar, de customizar os diferentes algoritmos de Deep Learning, que foram
outrora desenvolvidos. Cabe ressaltar que talentos para criar e para customizar
algoritmos são muito diferentes entre si.
Para criar ou desenvolver algoritmos são necessários pro ssionais
pesquisadores de ponta, que estejam na fronteira do conhecimento sobre o tema.
Eles são raros e certamente muito caros, encontrados somente nas melhores
universidades do mundo, como Stanford, MIT e Barkeley ou em pouquíssimas
organizações localizadas em pontos especí cos do mundo, como o Vale do Silício,
sendo praticamente inacessíveis para as organizações mais comuns.
Entretanto, customizar algoritmos de Inteligência Arti cial para colocá-los em
prática, ou seja, utilizá-los em aplicações (softwares, por exemplo), é muito mais
fácil do que os criar. São necessidades e complexidades muito diferentes. Para
fazer uma analogia: você não precisa saber construir o Excel para criar aplicações
e macros, por mais so sticadas que elas sejam. Então, são capacidades distintas.
Dadas as características de cooperação do segmento, especialmente no âmbito
acadêmico, uma parcela considerável desses algoritmos são totalmente abertos e
estão disponíveis a literalmente qualquer um, seja em formato de artigos
acadêmicos, códigos, ou em plataformas de Inteligência Arti cial que seguem a
lógica plug and play e cobrança por uso, como o Watson da IBM.
Assim, se estamos hoje na fase de aplicação da Inteligência Arti cial e os
códigos são majoritariamente abertos, a necessidade de encontrar
pro ssionais técnicos para os seus projetos é tarefa menos hercúlea do
que foi no passado recente.
Agora que você já compreendeu conceitualmente o que é Ciclo virtuoso de
Inteligência Arti cial, seus componentes e uxos, chegou a hora de ilustrarmos
com exemplos práticos reais de organizações que conseguiram entrar nesse
desejado ciclo em seus negócios.
O exemplo do iFood não termina aqui, pois ele passou a aproveitar a in nidade
de dados que tem à disposição, não somente para melhorar o serviço a seus
clientes, mas também para gerar novos serviços, desta vez tendo como cliente os
estabelecimentos fornecedores de comida.
Em 2019, o iFood começou a testar a entrada na outra ponta da cadeia de
valor: o de fornecimento de insumos para os estabelecimentos
alimentícios (restaurantes, lanchonetes, padarias etc.)12.
Imagine que o iFood é responsável por cerca de 80% das vendas de determinada
pizzaria, a Mussa’s Pizza. Assim, ele sabe que, só no último nal de semana, a
Mussa’s Pizza vendeu 140 pizzas de muçarela. Conhecendo um pouco o estoque
de muçarela da pizzaria, ele consegue prever que o estoque está acabando. Ele
oferece muçarela à pizzaria, antecipadamente e a um preço atraente, bem como
realiza a entrega na porta do cliente. E o preço é acessível e atraente, pois
obviamente o iFood faz isso em larga escala para uma enorme quantidade de
pizzarias. Incrível, não?
Esse é um exemplo de como um bom serviço, baseado em Inteligência
Arti cial, consegue criar ainda mais elementos geradores de resultados para uma
organização e para a sua cadeia de valor, ao mesmo tempo em que cria barreiras à
entrada de concorrentes.
Microempréstimos da Tala
Figura 4.5: Exemplos de organizações que já tem inúmeros produtos e serviços em Ciclos virtuosos da
Inteligência Arti cial.
: .
CURIOSIDADE
CAPEX é o nome técnico utilizado em Finanças para designar o montante de dinheiro gasto
por uma organização na aquisição (ou realização de melhorias) de bens de capital.
Bens de capital, por sua vez, são aqueles bens utilizados na operação da empresa, itens que
auxiliam a produção de bens ou serviços, de acordo com a natureza de cada negócio. Assim,
podemos entender que se trata de um gasto realizado para expandir (ou manter) as
operações de uma determinada empresa.
Em termos contábeis, o CAPEX é representado por Ativos, especialmente Ativos Não
Circulantes (ANC) – Imobilizado ou Intangível – e impactam os resultados (o lucro ou prejuízo)
de uma empresa por meio das Depreciações e Amortizações, efetuadas conforme a vida útil
de cada bem14.
Para deixar esse conceito de dados como o novo CAPEX mais claro, vou discutir
aqui alguns exemplos reais.
Tala
A Tesla, assim como o Google e a Uber, tem investido uma soma considerável de
recursos para o desenvolvimento de veículos autônomos. Nesses casos, são
necessários os investimentos nos CAPEX mais tradicionais – máquinas e
equipamentos para a montagem dos veículos . Porém, depois de produzidos, esses
veículos não são comercializados, não ainda. Eles são feitos para realização de
testes, intensos e exaustivos.
Você pode estar pensando: “Mas a produção de um único veículo ou poucos já
não seria su ciente para a realização de testes para se veri car as principais
funcionalidades dos veículos?”. A resposta é: sim, um ou poucos veículos já seriam
su cientes para a realização dos testes de funcionalidades. Porém, a questão é que
os testes têm objetivos que vão muito além da veri cação das principais
funcionalidades dos veículos.
Figura 4.6: Veículo autônomo Tesla.
: / .
As lojas ainda estão longe de terem o funcionamento perfeito. Pegar um produto das mãos de outro
consumidor e não da prateleira, por exemplo, é algo que pode confundir os algoritmos e atrapalhar toda a
automação e autonomia esperada para o funcionamento da loja (pelo menos até a data de publicação deste
livro, esse era um desa o para as lojas autônomas, como a Amazon Go).
Mas, então, por que “lançar” um serviço que ainda está longe de atingir um
nível razoável de qualidade e que certamente gera fortes prejuízos para a
companhia? Somente para causar impacto ou criar novos hábitos nos usuários?
Certamente, a resposta é: não! Claramente, o objetivo é a obtenção de dados
que servirão para o aperfeiçoamento dos algoritmos e,
consequentemente, dos serviços aos consumidores nais.
Assim, não somente os gastos para a construção das lojas físicas, mas também
os prejuízos dos primeiros meses (ou anos) de operação, com o objetivo de se
obter dados que alimentem os algoritmos, podem ser considerados um tipo de
CAPEX18.
Conforme pôde ser visto nesses exemplos, o investimento para obtenção de
dados iniciais passa a ser, para muitas organizações, tão ou mais importante do
que os tradicionais investimentos em ativos imobilizados ou intangíveis. Esse
tipo de investimento, antes impensável, passará a ser cada vez mais frequente
nos negócios, principalmente nos negócios (ou no mínimo, nos produtos ou
serviços) baseados em Inteligência Arti cial.
Figura 4.8: Ilustração de uma organização ganhando uma corrida, protegida pelo Ciclo virtuoso de
Inteligência Arti cial.
: .
Essa onda se refere à Inteligência Arti cial baseada em regras exatas, lógicas e precisas para a solução de
problemas muito bem de nidos. Ela consiste na transferência de conhecimento sobre determinado tema, de
seres humanos especialistas para o computador. São sistemas capazes de tomar decisões muito assertivas,
em condições perfeitamente claras, especí cas e bem de nidas.
Trata-se de programas que conseguem jogar xadrez, programas de agendamentos logísticos, softwares de
gestão, softwares que auxiliam a confecção de declaração de imposto de renda e até mesmo sistemas operacionais,
como o Windows, são alguns dos exemplos de produtos dessa primeira onda da
Inteligência Arti cial.
Para explicar o poder e o nível de inteligência de cada onda da IA, a DARPA divide o conceito de inteligência em
quatro dimensões:
1. Percepção: capacidade de perceber informações complexas e sutis.
2. Aprendizagem: capacidade de aprender com o ambiente.
3. Abstração: capacidade de abstrair os conhecimentos para a criação de novos signi cados.
4. Raciocínio: capacidade de raciocinar de forma lógica para planejar e decidir.
A Figura 5.1 apresenta o nível de inteligência da primeira onda da Inteligência Arti cial em cada uma dessas
quatro dimensões. Como podemos observar, os sistemas dessa primeira onda são capazes de realizar muito
bem tarefas que requerem raciocínio puramente lógico, de acordo com regras que lhes foram transferidas
por experts no tema. Tarefas caracterizadas por soluções fechadas do tipo: “Se... então...”.
Apesar de a primeira onda produzir sistemas ainda muito relevantes e amplamente utilizados nos dias de hoje,
essas são aplicações com baixo nível de percepção do mundo a sua volta, nenhuma capacidade de aprendizado
motivado por novas situações e nenhuma condição de abstração, necessária para lidar com incertezas.
Figura 5.1: As dimensões da inteligência atingidas pela primeira onda da Inteligência Arti cial: Conhecimento Artesanal.
: .
Aprendizagem Estatística é, segundo a DARPA, a fase em que hoje estamos com a Inteligência
Arti cial. Trata-se da Inteligência Arti cial com base em modelos estatísticos para endereçar certos tipos de
problemas. Esses modelos estatísticos são treinados com enormes bases de dados, contendo exemplos de
diferentes situações, para torná-los mais precisos e e cientes. A principal técnica dessa segunda onda é
justamente a principal protagonista da Inteligência Arti cial: nossa já conhecida Deep Learning.
Aqui, diferente do que ocorre na primeira onda, os programadores e engenheiros não se preocupam em ensinar
regras exatas e precisas ao algoritmo. Ao contrário, eles ensinam os algoritmos a encontrar a melhor
resposta para determinada situação, ou seja, a resposta que otimiza determinada condição, baseada
em técnicas estatísticas.
Essa onda compreende a maioria dos exemplos usados neste livro, especialmente os do Capítulo 2. De todo
modo, não poderia ser diferente, dado que essa onda levou ao desenvolvimento de praticamente tudo o que
conhecemos hoje de aplicações da Inteligência Arti cial: algoritmos para reconhecimento facial, transcrição de
textos, identi cação de pessoas e objetos em imagens, entre outros sistemas e produtos que auxiliam os
computadores a compreenderem o mundo à nossa volta.
Diferentemente do que ocorre na primeira onda, os sistemas aqui não tomam a decisão perfeita, mas sim a
melhor decisão dado o contexto, baseado no aprendizado coletivo dos dados e não em casos
individuais. Então a decisão é tomada mesmo em condições de incerteza. Por isso, esses sistemas têm
percentual de acerto inferior a 100%. Um bom exemplo disso é o famoso sistema de reconhecimento de gatos em
imagens: o algoritmo irá a rmar ser ou não um gato com até 95% de acurácia, que não dá sinais de conseguir
chegar a 100%, mas o algoritmo nem por isso deixará de dar uma resposta: conter ou não um gato na imagem.
Com relação às dimensões da inteligência, conforme ilustrado na Figura 5.2, os sistemas dessa “onda do
momento” são excelentes em perceber o mundo à sua volta (ao reconhecer um rosto em determinada
imagem, por exemplo), ótimos em aprender com novos dados e adaptar-se a novas situações (desde que
os algoritmos sejam treinados com enormes quantidades de dados variados), além de poderem realizar
predições com alto nível de acurácia. Por outro lado, esses sistemas apresentam baixa capacidade de criação
de novos signi cados ou de contextualização, pois são apenas sistemas estatísticos. Além disso, eles apresentam
mínimas habilidades de raciocínio lógico.
Figura 5.2: As dimensões da inteligência atingidas pela segunda onda da Inteligência Arti cial: Aprendizagem Estatística.
: .
Essa é uma onda do futuro, aquela que ainda não chegou. É de nida pela própria DARPA como o “estado da
arte” da Inteligência Arti cial Estreita. Trata-se da IA que construirá modelos que explicarão as decisões
tomadas pelos sistemas da segunda onda.
São sistemas que compreenderão, por exemplo, porque determinada decisão foi tomada pelo algoritmo e
porque outras possíveis decisões não foram escolhidas. Possibilitarão que identi quemos quando
determinado algoritmo terá sucesso e quando ele não o terá; em que situações podemos con ar nele e em quais
não, além de compreendermos porque ele cometeu determinado erro no processo de tomada de decisões. Isso
tudo, além de melhorar a assertividade na escolha e no uso dos algoritmos na vida real, permitirá que eles sejam
fortemente aperfeiçoados, continuamente.
Dado que os algoritmos da segunda onda da Inteligência Arti cial tomam decisões com bases estatísticas, estas
são as melhores decisões para a maioria dos dados, que são coletivos. Conforme vimos, isso faz com que os
algoritmos tenham alto nível de acurácia, 95% por exemplo, mas que di cilmente atingirão os 100%; a menos
que possamos compreender os seus processos e mecanismos de decisão.
Para situações com consequências menos sérias, como identi car um defeito em uma xícara no nal da linha de
produção, esse percentual de 95% é mais do que su ciente e já é capaz de trazer fortes resultados de
produtividade e e ciência para a indústria que adotar tal algoritmo.
No entanto, para decisões com consequências mais sérias, como identi car se o objeto à frente de um veículo
autônomo é uma sombra ou um pedestre de verdade, decidindo a aceleração ou desaceleração do veículo, 95% de
acurácia (ou 5% de chance de erro) pode não ser su ciente, inviabilizando o seu uso. A nal, há uma vida em jogo.
A terceira onda da Inteligência Arti cial, ao fornecer explicações sobre as decisões tomadas pelo algoritmo e
sobre os porquês das decisões erradas, pode nos ajudar a mudar essa situação, auxiliando-nos na escolha de
algoritmos e possibilitando o seu aperfeiçoamento contínuo. A nal de contas, é só reconhecendo e especi cando
detalhadamente o erro que podemos corrigi-lo.
Outro ponto que prevemos que será endereçado por essa terceira onda da Inteligência Arti cial é a criação de
sistemas que possam aprender baseados em poucos exemplos, poucos dados, o que se aproximaria do
processo de aprendizagem humana e da Inteligência Arti cial Genérica. A nal de contas, nós, seres
humanos, não precisamos de milhares de imagens de gatos, quando crianças, para aprender a identi car um gato
em determinada imagem. Esse avanço eliminaria a necessidade de enormes quantidades de dados capturados,
organizados e armazenados para alimentar os algoritmos da Inteligência Arti cial, resolvendo, portanto, uma
forte restrição da segunda onda.
Figura 5.3: As dimensões da inteligência a ser atingidas pela terceira onda da Inteligência Arti cial: Adaptação Contextual.
: .
Apesar de a classi cação da DARPA ser bastante útil e auxiliar na compreensão do status real e nas projeções
sobre o futuro da Inteligência Arti cial, conforme mencionei no início do capítulo, considero-a demasiadamente
técnica e pouco didática, pelo menos para pessoas não especialistas no tema, di cultando a assimilação prática
dos conceitos nela envolvidos.
VOCÊ SABIA?
Outra classi cação que ganhou notoriedade recentemente foi a proposta pela PWC8. Eles também propõem três ondas, mas dando
quase que total ênfase ao futuro da Inteligência Arti cial. Trata-se de um modelo da expectativa de como a Inteligência Arti cial irá
se desdobrar até 2030. As ondas são:
• Onda 1:Algorithmic Wave – automação de simples tarefas computacionais e análise estruturada de dados. Essa onda já está
acontecendo e se amadurecerá nos primeiros anos da década de 2020.
• Onda 2:Augmentation Wave – automação de tarefas repetitivas por meio de suporte tecnológico dinâmico e análise estatística de
dados
não estruturados em ambientes semicontrolados. Essa onda também está acontecendo e se amadurecerá ao longo da década de
2020.
• Onda 3: Autonomy Wave – automação de trabalhos físicos e manuais e solução de problemas em situações dinâmicas no mundo
real que requerem ações responsivas. As tecnologias dessa onda estão em desenvolvimento e deverão estar maduras para uso
intensivo ao longo da década de 2030.
O ponto positivo da classi cação da PWC é que, claramente, tem enfoque menos técnico do que a da DARPA, sendo bastante
direcionada para o uso e aplicações da Inteligência Arti cial no mundo real dos negócios. Por outro lado, lamentavelmente, a PWC
não apresenta (pelo menos ao público em geral) mais detalhamentos e discussões sobre
essas ondas, não permitindo que nos aprofundemos no seu entendimento e nos seus critérios de classi cação.
Assim, apesar da importância das classi cações da DARPA e da PWC e de elas serem bastante utilizadas e
facilmente encontradas nas comunidades de Inteligência Arti cial (ou mesmo na internet aberta), eu,
particularmente, pre ro outra classi cação das ondas de avanço da Inteligência Arti cial: o modelo de quatro
ondas desenvolvido pelo professor Kai-Fu Lee9.
Os motivos dessa preferência são muito simples: o professor propõe uma classi cação altamente didática,
facilmente identi cável na prática, que requer poucos conhecimentos técnicos para ser compreendida e que
consegue explicar com muita clareza os avanços da Inteligência Arti cial nos diferentes tipos de organizações.
Por isso, aprofundaremos o entendimento do modelo do professor Kai-Fu Lee.
O professor Kai-Fu Lee é um dos principais defensores da ideia de que, nalmente, entramos na era da
implementação da Inteligência Arti cial, após o forte desenvolvimento do Deep Learning. Ele explica que as
quatro ondas são, na realidade, quatro ondas possíveis para a implementação da IA e a rma que, hoje, estamos
vivendo bem no meio dessas ondas, mesmo que talvez não percebamos10.
O autor explica que cada uma dessas quatro ondas explora o poder da Inteligência Arti cial de
forma diferente e causa fortes mudanças (e até mesmo disrupções) em diferentes setores da
economia, com aplicações que alteram profundamente o nosso cotidiano.
As duas primeiras ondas – Inteligência Arti cial da Internet e Inteligência Arti cial dos Negócios – já estão
em curso há mais tempo e fazem parte de nosso dia a dia, especialmente de nosso mundo digital,
rede nindo as formas pelas quais fazemos as coisas. Elas mudaram a forma com que nos locomovemos, lemos,
comunicamo-nos, compramos, investimos, aprendemos, diagnosticamos doenças ou o modo como temos nossas
relações de consumo.
A terceira onda – a Inteligência Arti cial Perceptiva – está agora digitalizando o nosso mundo físico,
aprendendo a “ver” e “ouvir” o mundo à nossa volta. Essa onda promete revolucionar a forma como nós
interagimos com o mundo, deixando a linha entre o mundo físico e o digital praticamente imperceptível11.
A quarta onda – a Inteligência Arti cial Autônoma – a última a chegar, ainda longe de estar completa,
mas certamente a que modi cará as nossas vidas de forma mais intensa e profunda. Carros e drones
autônomos e robôs inteligentes são alguns exemplos dessa IA que age com autonomia. Essa última onda promete
automatizar e transformar tudo: agricultura, comércio, indústria e serviços, modi cando drasticamente o mundo
como nós o conhecemos hoje.
Figura 5.4: As quatro ondas da Inteligência Arti cial proposta por Kai-Fu Lee.
: .
VOCÊ SABIA?
A Bytedance, proprietária da Toutiao e do aplicativo de vídeo TikTok, foi em 2018 avaliada em US$ 75 bilhões, tornando-se uma das
maiores startups do mundo17.
Antes de prosseguirmos, é importante mencionarmos que, apesar de esta ser a primeira onda, com início há
cerca de 20 anos, e de já terem sido criadas inúmeras organizações, aplicações e sistemas baseados nessa lógica de
sistemas de recomendação, isso não signi ca que não possam surgir outras organizações e aplicações que tenham
essa mesma base tecnológica. Isso é válido inclusive para países desenvolvidos como os Estados Unidos e,
obviamente, ainda mais verdadeiro para a nossa realidade.
VOCÊ SABIA?
A chinesa 4th Paradigm e a brasileira NeoWay são dois exemplos de empresas que desenvolveram tecnologias para aplicação dos
algoritmos de Inteligência Arti cial em enormes bases de dados de empresas tradicionais, concorrendo em alguns segmentos com as
enormes IBM e Palantir.
Como vimos anteriormente, a Inteligência Arti cial dos Negócios está explorando esses dados em busca de
correlações escondidas entre os dados de entrada (Input – A) e de saída (Output – B), que tenham escapado aos
olhos humanos. Trata-se daquelas correlações que algoritmos de Deep Learning são especialmente hábeis em
identi car.
Essas organizações oferecem a empresas tradicionais seus serviços, que consistem em deixar que
seus cientistas de dados se debrucem sobre as bases de dados das empresas tradicionais em busca de
relações, padrões e otimizações. Eles têm ajudado empresas a melhorar os sistemas de detecção de fraudes,
conceder empréstimos mais assertivos, realizar vendas mais inteligentes e personalizadas, endereçar
ine ciências na cadeia de suprimentos, entre outras otimizações e reduções de custos de alta relevância.
Dessa forma, considerando que a existência de dados estruturados nos diferentes sistemas das organizações é
fator decisivo para o uso de algoritmos de Inteligência Arti cial, podemos entender que essa segunda onda afeta
alguns setores mais velozmente do que outros. Certamente, estamos ainda em seus estágios iniciais.
Os setores securitário e bancário são dois exemplos de segmentos cujos negócios estão baseados em obtenção e
análise de dados e que contam com órgãos reguladores muito presentes e exigentes, que requerem dos
participantes do setor a manutenção de longas séries históricas de dados dos clientes e de suas operações. Assim,
não resta dúvida que esses setores têm vantagens para surfarem a segunda onda da Inteligência Arti cial.
O professor Kai-Fu Lee destaca que a segunda onda da Inteligência Arti cial não traz somente lucros para
empresas adotantes e seus provedores dessa tecnologia. Quando aplicada a outros produtos e serviços públicos
direcionados pela informação ou habilitados para dados, a Inteligência Arti cial pode signi car uma
massiva democratização de serviços de alta qualidade para muitos, que antes não poderiam pagar por
eles.
Nesse sentido, um dos setores mais promissores é o da medicina, especialmente a diagnóstica. Até agora, o
conhecimento médico – e, portanto, o poder de dar diagnósticos precisos de doenças – está restrito a um
pequeno grupo de seres humanos extremamente talentosos. Diagnósticos médicos de primeira linha ainda são
amplamente restritos com base em geogra a e, principalmente, capacidade de pagamento por esses serviços.
A segunda onda de Inteligência Arti cial tem o potencial de modi car esse cenário e já começou o processo.
Isso porque a essência do diagnóstico de doenças consiste em coletar dados (sintomas, histórico médico, fatores
ambientais etc.), Input – A, que predizem determinada doença, Output – B. É exatamente esse tipo de tarefa que
o Deep Learning faz com maestria. Considerando determinada quantidade de dados – arquivos médicos –, uma
ferramenta de diagnóstico, baseada em Inteligência Arti cial bem treinada, pode transformar qualquer
pro ssional médico em um excelente diagnosticador de doenças, com experiência em milhões de casos reais,
identi cador de correlações escondidas e com memória perfeita e não enviesada.
Apesar de ser provavelmente a onda com a maior capacidade transformacional de nosso cotidiano, a
Inteligência Arti cial Autônoma certamente demandará muito mais tempo para se desenvolver e
maturar do que as demais. Isso porque “o desenvolvimento massivo de hardware (que caracteriza a quarta
onda) requer muito mais tempo para ocorrer do que o desenvolvimento de software (típico das demais ondas da
Inteligência Arti cial)”27. O desenvolvimento e a produção de hardwares são mais custosos e complexos, além de
serem difíceis de ser transportados, instalados e mantidos.
Figura 5.5: Resumo das quatro ondas da Inteligência Arti cial propostas pelo professor Kai-Fu Lee28.
: - .
Há espaço para a primeira onda – a Inteligência Arti cial da Internet – modi car a sua organização ou
o seu segmento de atuação? Em quais atividades?
E quanto à segunda onda – Inteligência Arti cial dos Negócios?
E quanto à terceira onda – Inteligência Arti cial Perceptiva?
Finalmente, e quanto à quarta onda – Inteligência Arti cial Autônoma?
Em sua opinião, qual ou quais das quatro ondas da
Inteligência Arti cial têm maior potencial de transformar a sua organização e o seu segmento de
atuação?
Agora, procure expandir a sua re exão para diferentes setores da economia. Quais setores você acredita que serão mais
fortemente impactados em cada onda da Inteligência Arti cial?
Para saber mais sobre as ondas desde os primórdios da Inteligência Arti cial, incluindo os seus períodos de
“inverno”:
Capítulo 6
As 12 dicas essenciais
para identificar oportunidades em IA
, entendemos quais são as
técnicas mais relevantes, hoje, para uso nas organizações, compreendemos os fatores que levaram à sua
decolagem nos últimos anos, conhecemos o seu Ciclo virtuoso e as suas quatro ondas de
desenvolvimento, imagino que já começaram a se formar em sua cabeça as áreas de interesse em que se
encontram as oportunidades em Inteligência Arti cial nas organizações.
Algo como “procurar situações do tipo A => B”, “focar em tarefas repetitivas” são alguns exemplos de
pensamentos que podem já ter passado pela sua mente. Mas, possivelmente, as coisas ainda não estejam
completamente claras, restando ainda muitas dúvidas com relação às oportunidades de uso da
Inteligência Arti cial. Este capítulo tem como objetivo
estruturar de forma bastante direta, em formato de dicas, como identi car e selecionar oportunidades
para uso de Inteligência Arti cial. Para isso, faremos uso de muitos dos aspectos já abordados neste livro,
mas em outros contextos.
Você notará que todas as dicas apresentam um pano de fundo pragmático: colher (e saborear) primeiro
os frutos mais baixos. A nal de contas, a Inteligência Arti cial já é complexa o su ciente para que
queiramos, logo de início, sem qualquer experiência relevante, desenvolver projetos mais desa adores ou
audaciosos. Além do mais, que, os frutos mais baixos são su cientes para trazer inúmeros benefícios às
suas organizações e iniciar uma jornada contínua e enormemente grati cante.
As dicas estão separadas em três grandes blocos: o olhar das tarefas, o olhar das tecnologias e o olhar
das estratégias.
VOCÊ SABIA?
Manoj Saxena, um dos pioneiros líderes do Watson da IBM, destaca que estamos diante de um mar de oportunidades de
automação via
Inteligência Arti cial e diz que há 1,3 bilhão de trabalhadores no mundo cujos trabalhos serão dramaticamente aprimorados
e aperfeiçoados por meio da Inteligência Arti cial1.
i) Tarefas repetitivas, que possam ser otimizadas por meio de dados, ou seja, tarefas que já tenham
passado pelo processo de digitalização.
ii) Tarefas que não requeiram altos níveis de interação social ou de criatividade.
Pense em todos os exemplos abordados até aqui, de traduções básicas a veículos autônomos,
praticamente todos se encaixam nessas duas condições.
Dessa forma, procurar tarefas que satisfaçam a essas duas condições é algo essencial na busca por
oportunidades de aplicação da Inteligência Arti cial.
DICA 1
Procure tarefas com alto nível de repetição e com baixa necessidade de interação social, sejam elas manuais ou cognitivas.
Entretanto, nesse contexto, há outro aspecto muito importante que devemos reforçar na busca por
oportunidades de uso da Inteligência Arti cial e que talvez tenham passado despercebido: os algoritmos
de Inteligência Arti cial estão focados em automações de tarefas, mas não de cargos, funções ou
ocupações inteiras. Isso porque tarefas têm caráter muito mais estreito do que cargos, sendo o foco
perfeito para a Inteligência Arti cial3 4 5.
Assim, o nosso olhar na procura por ensejos de uso de Inteligência Arti cial, deveria também estar
focado em tarefas, não em cargos. Então, para termos o modelo mental ajustado para a Inteligência
Arti cial, é fundamental que façamos o exercício de quebrar cargos em tarefas para que possamos
analisar cada uma delas, individualmente.
Esse detalhamento, muitas vezes, precisa ser muito mais minucioso do que uma simples descrição de
cargos, como aquela que normalmente utilizamos para recrutar candidatos para as vagas abertas em
nossa organização.
Essa pormenorização deve ir, de fato, até o nível das tarefas. Observe o exemplo no Quadro 6.1. Trata-
se de um detalhamento hipotético das tarefas do cargo de Analista de crédito sênior de determinada
instituição nanceira. Note como as descrições de tarefas são mais especí cas do que uma descrição de
cargo convencional.
Quadro 6.1: Exemplo hipotético de descrição de tarefas executadas pelo cargo de Analista de crédito sênior de uma
determinada instituição nanceira.
Observe como os ocupantes do cargo de Analista de crédito sênior executam diferentes tipos de tarefas. Algumas delas mais propensas a
serem automatizadas pelos algoritmos de Inteligência Arti cial e outras menos. É aí que está a importância de separarmos cargos em
tarefas.
Por um lado, “alimentar a planilha de geração de indicadores nanceiros do cliente, com base em suas
demonstrações nanceiras” e “analisar os indicadores nanceiros do cliente”, por exemplo, não parecem
ser tarefas muito desa adoras para a Inteligência Arti cial, pois apresentam caráter altamente repetitivo
e com pouca necessidade de interação social.
Por outro lado, “realizar visita técnica ao cliente, in loco, para validação das informações fornecidas e
conhecimento de seus acionistas e administradores” e “apresentar e discutir a proposta de crédito no
comitê de crédito local”, por terem caráter menos repetitivo e baseadas em interações sociais, não
parecem ser tarefas candidatas à automação.
DICA 2
Foque em tarefas especí cas e não em cargos ou ocupações. Procure sempre quebrar cargos em tarefas.
Focado em tarefas, outra recomendação importante é que você procure tarefas que se con guram em
relações do tipo A => B, causa e consequência, entrada e saída de dados.
Tecnicamente, busque relações possíveis de ser automatizadas com emprego das técnicas de Supervised
Learning. Como vimos no Capítulo 2, trata-se da técnica que concentra a quase totalidade das aplicações
reais de Inteligência Arti cial nos negócios em todo o mundo6.
Se as técnicas de Supervised Learning são as mais usadas, isso não é à toa. São as técnicas mais maduras,
prontas para uso em Inteligência Arti cial. Assim, é razoável pensar que você terá mais facilidade para
aplicar e adaptar os algoritmos já prontos ao contexto de suas necessidades. Além disso, por serem as
técnicas mais utilizadas, será muito mais fácil encontrar pro ssionais, os talentos, com as competências
adequadas ao desenvolvimento de seus projetos.
DICA 3
Procure, inicialmente, relações do tipo A => B, típicas de Supervised Learning, de escopo estreito.
Uma vez focados em tarefas repetitivas, com baixa necessidade de interação social e baseadas em
relações do tipo A => B, uma próxima restrição que precisa ser considerada para que seus projetos de
Inteligência Arti cial sejam factíveis e obtenham êxito é que você tenha dados disponíveis para alimentar
tais algoritmos.
Em outras palavras, os algoritmos estão disponíveis para ser usados e adaptados, porém você precisará
buscar, organizar ou facilitar a geração dos dados. São necessários dados que tenham integridade e
consistência. Lembre-se: dados são o combustível dos algoritmos de Inteligência Arti cial.
Sei que você pode estar pensando: “Mas dados não são um problema. Com o desenvolvimento de IoT
(Internet das Coisas), Cloud (Computação em Nuvem) e os incontáveis sistemas presentes em todas as
organizações, os dados estão cada vez mais abundantes e disponíveis”. Isso é verdade, IoT, Cloud e os
sistemas corporativos favorecem sobremaneira a geração e disponibilização de dados. Porém, há um
enorme desa o que persiste: os dados precisam ser apropriadamente gerados, devidamente coletados,
adequadamente armazenados, convenientemente organizados e corretamente tratados para poderem
alimentar os algoritmos de Inteligência Arti cial. Nesse sentido, há, sim, muitos desa os.
Para compreender essas incitações, basta pensarmos um pouco na geração de dados por sistemas de
gestão, tipicamente encontrados nas organizações tradicionais. Nessas organizações, é comum termos
sistemas gerando dados constantemente, num volume e com uma velocidade assombrosa. Porém,
frequentemente, esses dados são gerados em uma realidade de múltiplos sistemas funcionando
concomitantemente, sistemas esses que, não necessariamente, se conversam e cujos dados conjuntos
carecem de integridade e consistência.
Além disso, se a organização não planejou os seus produtos ou serviços pensando no Ciclo virtuoso de
Inteligência Arti cial, ou seja, re etindo sobre os dados desde o início e, minimamente, projetando as
potenciais melhorias que o emprego de Machine Learning poderia causar a esses produtos ou serviços, os
sistemas podem estar, de fato, gerando uma in nidade de dados, mas não necessariamente os dados de
que necessitamos (ou pelo menos não no formato que precisamos).
VOCÊ SABIA?
Os dados passaram a ser tão relevantes nas organizações e na economia que é comum encontrarmos a expressão: “dados
são o novo petróleo”, na lógica de que o recurso mais valioso na nova economia deixa de ser o petróleo e passam a ser os
dados7.
Pensar em como gerar dados, após o lançamento dos produtos ou serviços (e não antes), pode ser uma
tarefa árdua, com alto nível de di culdade, que demanda muito tempo, além de envolver grandes somas
de recursos em customização e integração de sistemas.
Ainda com relação a dados, lembre-se que, para que as técnicas de Supervised Learning funcionem
adequadamente, você precisará alimentar os algoritmos tanto com os dados de entrada, Input – A, quanto
com os dados de saída ou resultados esperados, Output – B.
VOCE SABIA?
O Merrill Lynch e a Revista Computer World estimam que, de todos os dados comerciais do mundo, entre 70% e 90% dos
dados não são estruturados8.
DICA 4
Concentre-se em situações, produtos ou serviços que você tenha os dados necessários.
Para complementar tudo o que já discutimos com relação às tarefas passíveis de ser automatizadas
pelos algoritmos de Inteligência Arti cial, muito interessante é a sugestão do professor Andrew Ng
referente ao que pode ou poderá ser automatizado pela Inteligência Arti cial, Ng a rma:
“Qualquer coisa que você pode fazer que requeira poucos segundos de pensamento, provavelmente
agora ou em breve será automatizado pela Inteligência Arti cial.”9
Obviamente se trata de uma regra imperfeita, dado que há vários falsos negativos e falsos positivos
nela. Em outras palavras: há várias atividades que demoram frações de segundos para um ser humano
realizar que não poderão ser automatizadas pela Inteligência Arti cial; e várias atividades que demandam
mais de nosso tempo para ser realizadas, que poderão ser automatizadas pela Inteligência Arti cial.
Apesar de imperfeita, essa regra do professor Ng ajuda sobremaneira a identi car oportunidades em
Inteligência Arti cial.
VOCE SABIA?
O professor Andrew Ng conta que sempre utiliza essa regra para ajudar os pro ssionais de negócios a pensarem em
potenciais usos e aplicações de Inteligência Arti cial nas empresas, nas quais ele trabalha e trabalhou, como o Google e a
Baidu. Ele comenta que é muito comum encontrar muitos desses pro ssionais passando o dia todo andando pela
organização, observando os colegas de trabalho e pensando no que os seres humanos são capazes de fazer em frações de
segundos10.
Vamos analisar essa a rmação à luz dos nossos exemplos de Supervised Learning contidos no Capítulo 2.
Para isso, utilizarei a Figura 6.3, que reúne a maior parte dos exemplos de relação A => B lá utilizados:
Figura 6.3: Exemplos de relações do tipo A => B (Supervised Learning) utilizados ao longo do livro.
: .
Analisando os itens da tabela, é fácil perceber que realmente a maioria deles se refere a atividades ou
tarefas que um ser humano é capaz de fazer em poucos segundos. Identi cação de spams em e-mails
recebidos, identi cação da presença de gatos em imagens, tradução de uma palavra do inglês para o
português (se conhecer o idioma, obviamente), transformação de uma palavra falada (áudio) em texto ou
a transformação de uma palavra escrita em um áudio são todas tarefas que um ser humano consegue
realizar muito velozmente e parecem validar a regra do professor Ng.
Entretanto, você pode estar pensando: “Espera um pouco. Um ser humano pode transcrever uma
palavra em segundos, mas não um texto inteiro contendo milhares de palavras”. Se pensou isso, você tem
toda a razão. Aí é que entra em cena a grande vantagem competitiva da Inteligência Arti cial: poder
concatenar inúmeras pequenas tarefas, realizando-as simultaneamente, com paralelismo, em poucos
segundos. Como nós, humanos, não conseguimos paralelismo similar, essas atividades nos exigiriam um
esforço enorme em termos de tempo, por mais capacitados que possamos ser. A transcrição de palavras é
um ótimo exemplo disso. A tradução de longos textos é outro.
Nesse sentido, até mesmo atividades que pareçam mais complexas, como dirigir um veículo, se for
quebrada em pequenas atividades que requeiram poucos segundos de pensamento ou ação de um ser
humano, podem ser (e estão sendo) completamente automatizadas. É para lá que caminham os veículos
autônomos (self-driving car), por exemplo.
DICA 5
Qualquer coisa que um ser humano pode fazer, que requeira poucos segundos de pensamento, provavelmente agora ou em
breve será automatizado pela Inteligência Arti cial.
Vamos detalhar um pouco mais o exemplo dos veículos autônomos. Esses veículos possuem radares,
câmeras e lidares: equipamentos que fornecem inúmeros dados por segundo, de tudo o que ocorre dentro
e fora do veículo.
Entre outros dados, eles geram, por exemplo, imagens do que está à frente do veículo em determinado
momento. Essas imagens podem ser entendidas pela Inteligência Arti cial como a entrada de dados
(Input – A). Se o algoritmo for bem treinado, com uma série de exemplos, ele conseguirá identi car se há
ou não outro veículo à frente com base nessas imagens, que seria o Output – B. Assim, teríamos a
primeira de uma série de relações A => B (Supervised Learning):
Figura 6.4: Primeira relação do tipo A => B utilizada em veículos autônomos: há veículos à frente?
: .
Agora, vamos supor que o resultado dessa primeira relação A => B con rmou a presença de um veículo
à frente. Na sequência, a con rmação de que há um veículo à frente se torna a entrada de dados (Input –
A), e o resultado (Output – B) passa a ser qual a distância em que o veículo se encontra atualmente:
Figura 6.5: Segunda relação A => B utilizada em carros autônomos: qual a distância do veículo à frente?
: .
Na próxima etapa, uma nova decisão precisará ser tomada: com base na distância do veículo à frente –
que passa a ser a entrada de dados (Input – A) –, o carro deve aumentar, diminuir ou manter a velocidade
atual? A resposta para essa pergunta passa a ser o resultado (Output – B):
Figura 6.6: Terceira relação A => B utilizada em carros autônomos: acelerar, manter a velocidade ou frear?
: .
É importante notar que essa sequência de relações A => B é feita em fração de segundos. Neste ponto,
acredito que você, leitor, já percebeu que o processo continua sucessivamente, com a execução de
pequenas tarefas, que, quando concatenadas, levam o veículo a se tornar autônomo.
Agora, se voltarmos à dica do professor Andrew Ng, notaremos algo bastante especial, que talvez não
tenha lhe chamado tanto a atenção: ele se refere à automatização de tarefas que um ser humano é capaz
de fazer. Apesar de parecer óbvio, essa ênfase é muito necessária e pode ser decisiva para a de nição de
um projeto exitoso em Inteligência Arti cial.
Por mais estranho que isso possa acontecer, é muito comum os executivos tentarem começar as suas
jornadas em Inteligência Arti cial com projetos que são os maiores problemas ou dilemas de suas
organizações. Dilemas esses que estão ainda longe de ser resolvidos e tão grandes e de escopo tão amplo,
que o emprego de algoritmos de Inteligência Arti cial di cilmente terá sucesso.
Mesmo que sejam tarefas pequenas, de escopo estreito, se ainda não forem possíveis de ser executadas
por seres humanos, as chances de sucesso de automação via algoritmos de Inteligência Arti cial
diminuem sensivelmente.
No entanto, por que isso acontece? Por que temos de focar em tarefas que nós, seres humanos, somos
capazes de realizar hoje? Bem, isso se deve principalmente a três fatores, que se inter-relacionam. Vamos
conhecê-los:
DICA 6
Concentre-se em atividades que hoje já são realizadas por seres humanos e, portanto, exequíveis.
VOCÊ SABIA?
“Um robô pode fazer o seu trabalho?”
O Financial Times criou uma ferramenta muito interessante e útil cujo nome é essa intrigante pergunta. A ferramenta traz a
quantidade estimada de tarefas de cada ocupação ou área de atuação que podem ser automatizadas pela Inteligência
Arti cial e pelas demais tecnologias emergentes. Vale a pena conferir.
DICA 7
Concentre-se, inicialmente, em projetos típicos das Ondas 1 e 2 da Inteligência Arti cial. A tecnologia aqui está mais madura
e sua jornada terá mais chance de êxito.
Não restam dúvidas de que concentrar as atenções em situações típicas das Ondas 1 e 2 da Inteligência
Arti cial aumenta consideravelmente as chances de êxito das aplicações de Inteligência Arti cial. Porém,
mesmo na área de interesse das Ondas 1 e 2, ainda ocorrem enormes volumes de pesquisas, criações e
desenvolvimento de novos algoritmos. Dizemos que as Ondas 1 e 2 estão mais maduras quando
comparadas com as Ondas 3 e 4, porém nas Ondas 1 e 2 ainda há muita oportunidade de
desenvolvimento e evolução.
Assim, da dica 7, podemos derivar uma dica adicional importantíssima:
DICA 8
Veri que se há algoritmos existentes para a sua necessidade. Utilizar ou adaptar algoritmos existentes é muito menos
complexo do que desenvolver algoritmos.
Essa dica faz muito sentido se considerarmos algo de fundamental relevância: a Inteligência Arti cial
nalmente entrou, há poucos anos, em sua primeira fase de aplicação. A tecnologia, especialmente
Supervised Learning, está desenvolvida o su ciente para ser colocada em prática em larga escala, de forma
massi cada. Isso abre oportunidades únicas de aplicação dos algoritmos existentes, sem a necessidade de
criação de algoritmos novos, pelo menos no início de sua jornada.
O fato de a Inteligência Arti cial ter amadurecido suaviza demais uma das principais restrições para o
desenvolvimento de projetos de Inteligência Arti cial: o per l dos talentos necessários. Encontrar
talentos para adaptar algoritmos prontos é muito mais fácil do que encontrar pro ssionais com a
competência de criá-los.
Essa foi uma restrição que, historicamente, di cultou demais o desenvolvimento de aplicações com uso
dessa tecnologia, além das bordas das organizações nativas da internet, aquelas baseadas em Inteligência
Arti cial e, portanto, aquelas que já contavam há anos com os melhores pro ssionais criadores dos
principais algoritmos de Inteligência Arti cial.
6.3 O olhar das estratégias
Não há dúvida que hoje uma das empresas que mais utilizam Inteligência Arti cial de forma transversal
é a Amazon. Porém, note que você di cilmente a vê exibindo robôs humanoides incríveis ou qualquer
outra atração pitoresca, que renderia boas páginas de notícias na mídia. Não é assim que a verdadeira
Inteligência Arti cial funciona. Não é assim que ela cria valor. Nas palavras de Je Bezos, fundador e
CEO da Amazon:
“Muito do que nós fazemos com ML (Machine Learning) acontece abaixo da superfície. Usamos
algoritmos de ML para previsão de demanda, ordenação de produtos como resultado de buscas no site,
recomendação de produtos, detecção de fraudes, traduções e muito mais. Apesar de menos visível, muito
do impacto de ML no futuro próximo será deste tipo – silencioso, mas com melhorias signi cativas no
coração de nossa operação.”13
O ponto é exatamente esse: a criação de valor em Inteligência Arti cial está abaixo da superfície, muito
longe do barulho e da distração causada pela Inteligência Arti cial Genérica ou por ações que são mais de
Marketing do que de Inteligência Arti cial.
Outro ótimo exemplo ilustrativo, destacado pelo professor omas H. Davenport, é o DBS Bank, de
Singapura14. O DBS, apesar de pouco conhecido aqui no Ocidente, foi eleito pela Euromoney, em 2016,
como o “Melhor banco digital do mundo” e, em 2018, pela Global Finance, como o “Melhor banco do
mundo”15. Trata-se de um banco reconhecido internacionalmente pelo uso intenso de tecnologia criadora
de valor, mas a sua jornada em Inteligência Arti cial não começou tão bem.
O banco iniciou um projeto bastante audacioso e bem acima da superfície16: juntou informações
contidas nos relatórios de Researches, nas bolsas de valores, nas diferentes fontes de notícias sobre as
companhias listadas em bolsa, nos dados que procuram capturar os sentimentos do mercado, no
conhecimento dos analistas e dos diferentes portfólios de clientes para criar uma aplicação de
Inteligência Arti cial capaz de dar recomendações de investimentos para os seus gerentes, especialistas
em investimentos e clientes. Recomendações essas que maximizassem os retornos dos investimentos de
seus clientes.
Observem que esse exemplo se refere a uma situação de Supervised Learning, A => B, sendo o Input – A
todas essas informações sobre as ações e os mercados e, por sua vez, o Output – B sendo as
recomendações de compra e venda de ações. Apesar de a lógica proposta fazer bastante sentido, a
verdade é que a Inteligência Arti cial não está pronta para atuar numa situação-problema tão genérica,
de domínio tão amplo.
Além do mais, nesse caso não há relações claras e conhecidas de causa-efeito entre os Inputs e os
Outputs. Os Inputs são muito diversos e podem inclusive ser contraditórios. Uma informação pode levar à
sugestão da venda de uma ação, e outra informação, também muito con ável, pode sugerir a compra da
mesma ação. Ademais, os Outputs também são praticamente in nitos: já imaginaram quantas
possibilidades de composição de carteiras de investimentos podemos ter para atingir determinado
objetivo nanceiro? Não bastasse isso, ainda temos de considerar se o objetivo nanceiro das pessoas e
empresas é claro o su ciente, o que em geral não acontece.
Bem, eu não preciso me prolongar muito mais para dizer que o resultado do projeto foi um completo
fracasso! Porém, o DBS fez do limão uma limonada. Ele não desistiu e tomou esse fracasso como um
enorme e excepcional aprendizado. A principal lição foi: a tecnologia ainda não está madura para projetos
de tamanha complexidade, de domínio tão amplo.
Com o fracasso de sua primeira e grande tentativa de uso de Inteligência Arti cial, o DBS absorveu a
aprendizagem, mas não desistiu da tecnologia. Eles apenas reduziram o escopo de seus projetos e
recomeçaram. Decidiram utilizar a Inteligência Arti cial em projetos menores e menos barulhentos, ou
seja, projetos que estavam abaixo da superfície e, dessa vez, obtiveram enorme sucesso. Hoje, eles
utilizam algoritmos de Inteligência Arti cial para uma in nidade de pequenas tarefas:
DICA 9
Tenha sempre em mente que a verdadeira Inteligência Arti cial é silenciosa e está abaixo da superfície.
Com base no exemplo da Amazon e do DBS Bank, é possível extrapolarmos outra aprendizagem
fundamental: devemos começar a jornada em Inteligência Arti cial com pequenos projetos pilotos,
validadores de conceitos e geradores de aprendizagem. Isso deve vir antes de embarcarmos, ou sequer
pensarmos num projeto grandioso (num moonshot, como o pessoal de tecnologia gosta de dizer).
Para ser bem sincero, eu não conheço nem ao menos um projeto de aplicação de Inteligência Arti cial
que tenha começado com enormes ambições e que essas expectativas tenham se con rmado. Projetos
grandes são geralmente caros e complexos o su ciente para que se aumentem consideravelmente as
chances de fracasso.
Além do mais, se você se lembrar do Ciclo virtuoso de Inteligência Arti cial, recordará que os projetos
em Inteligência Arti cial requerem inúmeras iterações com clientes para atingir a sua verdadeira
potencialidade. Assim, começar pequeno, com uma pequena quantidade de clientes, aprender com eles,
melhorar os produtos, para depois conseguir mais clientes e reiniciar o ciclo, parece combinar mais com
projetos que nascem pequenos (mas tem potencial de se tornarem grandes) do que com projetos que já
nascem enormes17.
DICA 10
Comece com projetos pequenos e validadores de conceitos. Moonshots não combinam com Inteligência Arti cial.
Outra discussão interessante, que sempre tenho visto nas organizações no processo de identi cação das
oportunidades de uso da Inteligência Arti cial, é a questão de por qual aspecto começar em termos mais
estratégicos: pelas operações internas, pelo modelo de negócio ou pela experiência do cliente18?
Para responder a essa importante pergunta, poderíamos debater por horas, mas gostaria aqui de
destacar uma dica muito prática do professor Davenport19: na dúvida, comece pela experiência do
cliente. Sei que você pode estar se questionando: “Ok, mas por quê?”. Bem, por exclusão.
Vamos primeiro pensar nas operações internas da companhia. Podemos descartar essa como foco
inicial de projetos de Inteligência Arti cial com uma pergunta: Por que começar com as operações
internas, se elas já devem estar minimamente adequadas? Lembre-se, se as operações não estivessem
minimamente adequadas, provavelmente sua organização já teria deixado de existir (ou estaria a
caminho de).
Então, vamos à segunda opção: mudar o modelo de negócio. Já sei! Sentiu até um frio na espinha, não é
mesmo? Eu sei, eu sei. Eu também. Modi car todo o modelo de negócios, apesar de muitas vezes
necessário, pode ser muitíssimo complicado, além de arriscado. Envolve mudanças muito complexas com
colaboradores, acionistas, fornecedores e parceiros. Inclui alterações culturais profundas. Adiciona a isso
a necessidade de enormes montantes de recursos nanceiros, além de recursos técnicos. Além do mais,
qual seria o novo modelo de negócio? Se ainda não temos experiência com Inteligência Arti cial, vamos
começar justamente a aplicá-la na complexa missão de alterarmos o modelo de negócio? Difícil, não?
Dessa forma, só nos resta focar na experiência do cliente, por exclusão. Já sei! Achou muito simplista a
explicação, não é mesmo? De fato é bem simplista, talvez seja prática demais. Então, para melhorar, o
professor Davenport apresenta alguns argumentos mais relacionados com as vantagens de se iniciar com
foco no cliente20:
i) Maximizar a experiência do cliente é a opção que mais tem chances de manter a organização
economicamente viável, a nal, no m do dia é o cliente quem gera a única linha com sinal positivo
em nossos uxos de caixa.
ii) Clientes satisfeitos e pagantes podem ajudar a minimizar muitas das ine ciências internas por
bastante tempo.
iii) As principais ameaças ao status quo das organizações tradicionais são certamente as startups.
Normalmente o que faz uma startup mais atraente para os clientes é o foco que elas têm na melhoria
da qualidade da experiência e do relacionamento com os clientes. Assim, focar na experiência do
cliente signi ca focar nos pontos sensíveis de eventual disrupção que ocorra em seu setor.
DICA 11
Na dúvida, priorize projetos que foquem na melhoria da experiência do cliente.
Por m, é muito comum as organizações embarcarem em projetos de Inteligência Arti cial com a
expectativa de obter resultados ou retornos de curto prazo. O ponto é que isso não é condizente com as
características inerentes à Inteligência Arti cial. Você se lembra do Ciclo virtuoso de Inteligência
Arti cial? Pois é, ele é a base da lógica de criação de valor em Inteligência Arti cial. Entretanto, para que
ele atinja uma maturidade relevante, a ponto de tornar os produtos ou serviços altamente indispensáveis
para os clientes, constituindo-se em uma vantagem competitiva fortíssima e invisível, além de uma
barreira para a entrada de novos competidores, é preciso tempo. Tempo para que o ciclo aconteça
repetidas vezes, para que haja inúmeros ciclos de iteração com os clientes.
É muito comum pensarmos em retornos exponenciais quando re etimos sobre Inteligência Arti cial. É
verdade, curvas exponenciais são típicas de investimentos em projetos de Inteligência Arti cial. Observe
a Figura 6.8, trata-se do desenho típico de uma curva exponencial. Se você observar atentamente essa
curva, verá que ela é uma “quase reta horizontal” durante a maior parte do tempo. Demora bastante para
que a curva atinja o ponto de in exão (ponto “I” ilustrado no grá co) e comece, efetivamente, a crescer
com intensidade. Então, o que acontece durante esse longo período que antecede o ponto “I”? Ocorrem
inúmeras iterações do Ciclo virtuoso de Inteligência Arti cial.
DICA 12
Espere resultados de longo prazo, jamais de curto prazo.
VOCE SABIA?
O Instituto do Futuro da Humanidade (Future of Humanity Institute) da Universidade de Oxford conduziu o estudo
intitulado When Will AI Exceed Human Performance?.
Um estudo bastante vasto, no qual foram entrevistados 352 pesquisadores de Inteligência Arti cial de todo o mundo,
para saber as previsões de quando a Inteligência Arti cial será capaz de exceder o desempenho humano em diversas
tarefas. Alguns resultados apontam que a Inteligência Arti cial será melhor do que um ser humano nas seguintes
atividades e datas:
O Quadro 6.2 apresenta a lista das 12 dicas essenciais para a identi cação e seleção de oportunidades
de uso da Inteligência Arti cial.
DICAS OLHAR
DICA 1: Procure tarefas com alto nível de repetição e com baixa necessidade de interação Das Tarefas
social, sejam elas manuais, sejam cognitivas.
DICA 2: Foque em tarefas especí cas, e não em cargos ou ocupações. Procure sempre Das Tarefas
quebrar cargos em tarefas.
DICA 3: Procure, inicialmente, relações do tipo A => B, típicas de Supervised Learning, de Das Tarefas
escopo estreito.
DICA 4: Concentre-se em situações, produtos ou serviços que você tenha os dados Das Tarefas
necessários.
DICA 5: Qualquer coisa que um ser humano pode fazer, que requeira poucos segundos de Das Tarefas
pensamento, provavelmente agora ou em breve será automatizada pela Inteligência
Arti cial.
DICA 6: Concentre-se em atividades que hoje já são realizadas por seres humanos e, Das Tarefas
portanto, exequíveis.
DICA 7: Concentre-se, inicialmente, em projetos típicos das Ondas 1 e 2 da Inteligência Das
Arti cial. A tecnologia aqui está mais madura e sua jornada terá mais chance de êxito. Tecnologias
DICA 8: Veri que se há algoritmos existentes para a sua necessidade. Utilizar ou adaptar Das
algoritmos existentes é muito menos complexo do que desenvolver algoritmos. Tecnologias
DICA 9: Tenha sempre em mente que a verdadeira Inteligência Arti cial é silenciosa e está Das
abaixo da superfície. Estratégias
DICA 10: Comece com projetos pequenos e validadores de conceitos. Moonshots não Das
combinam com Inteligência Arti cial. Estratégias
DICA 11: Na dúvida, priorize projetos que foquem na melhoria da experiência do cliente. Das
Estratégias
DICA 12: Espere resultados de longo prazo, jamais de curto prazo. Das
Estratégias
Quadro 6.2: Resumo das 12 dicas essenciais para a identi cação de oportunidades em Inteligência Arti cial nos negócios.
: .
Quais delas são altamente repetitivas e necessitam de baixo nível de interação social?
Quais delas podem ser caracterizadas por relações do tipo A => B?
Para quais delas você possui dados gerados e armazenados tanto de – A quanto de Input
Output – B?
Quais delas são caracterizadas pela necessidade de poucos segundos de pensamento humano
quando tomadas unitariamente?
Quais delas são situações típicas das Ondas 1 e 2 da
Inteligência Arti cial?
Se uma ou mais tarefas que você executa passarem no crivo das condições listadas acima,
provavelmente você está diante de potenciais candidatas a ser automatizadas pela
Inteligência Arti cial.
Recomendamos fortemente que, com base nas análises efetuadas anteriormente, você
procure conversar com especialistas em Inteligência Arti cial para que esse pro ssional o
ajude na identi cação de algoritmos existentes para a realização dessas atividades e
direcione-o na compreensão do que é factível de ser feito por esses algoritmos.
Faça o mesmo exercício com os cargos que estão sob sua liderança hoje.
Faça o mesmo exercício com os cargos que se dedicam à realização de tarefas core de sua organização.
impactos nos negócios, nas startups e até mesmo nos países. Mas e quanto
ao seu impacto no indivíduo? Na empregabilidade de nossos atuais
pro ssionais? Na pessoa? Em mim? Em você?
Ao longo dos capítulos anteriores, discutimos que a expectativa é que a
Inteligência Arti cial traga muito aumento de produtividade e,
consequentemente, dê valor e riqueza para as organizações e para os países
que a adotarem de forma consistente. Os estudos da PWC1 e da McKinsey2,
abordados no Capítulo 1, tangibilizaram bem essa perspectiva.
No mesmo sentido, o ganhador do prêmio Nobel de Economia, Christopher
Pissarides, e o diretor do Instituto Global McKinsey, Jacques Bughin3,
enfatizam que, numa era em que a produtividade permanece praticamente
estagnada há alguns anos, e em que as populações economicamente ativas
diminuem nos países desenvolvidos, a Inteligência Arti cial, em conjunto
com outras tecnologias como Internet das Coisas (IoT), Cloud e Blockchain,
têm o potencial de proporcionar o tão esperado impulso econômico.
No que diz respeito ao impacto dessas transformações para os países e
negócios, resta uma importante dúvida: como elas impactam o indivíduo?
Qual o seu impacto no trabalho? Como essas transformações e tecnologias
impactam a vida e a pro ssão de cada um de nós, individualmente, e como
deveríamos então nos preparar – e preparar nossos lhos e netos – para esse
contexto? Na Parte 3 deste livro, abordaremos o tema não mais sob o prisma
das organizações, mas sim sob o prisma dos indivíduos, mais precisamente,
sob a ótica dos empregos.
Nesse sentido, é fato que esse pacote de novas tecnologias traz também
algumas consequências indesejáveis ou desa os que devemos considerar.
Uma delas é certamente o impacto no emprego: o risco do desemprego em
massa, sem precedentes, ocorrendo de forma quase simultânea nos
diferentes setores de nossas economias e impactando tanto ocupações
manuais quanto as cognitivas. Essa é uma preocupação extremamente
pertinente que está (ou deveria estar) na pauta de economistas, futuristas,
pro ssionais de tecnologia e governos.
Obviamente, as opiniões a respeito desse tema são bastante divergentes,
indo dos prognósticos mais pessimistas aos mais otimistas, variando tanto
com relação ao sentido (bené co ou malé co) quanto com relação à
magnitude do impacto que a Inteligência Arti cial terá no futuro do
trabalho.
Para abordarmos esse assunto, o dividiremos em duas partes: a primeira
parte, discutida neste capítulo, é uma análise dos impactos sob um ponto de
vista mais global, macroeconômico, que procura discutir as consequências da
Inteligência Arti cial na economia e no mercado de trabalho como um todo;
a segunda parte, que será abordada no próximo capítulo, concentra-se na
discussão do impacto da Inteligência Arti cial em cada tipo de ocupação de
forma individual, tratando-se, portanto, de uma análise microeconômica.
Para a análise macro, começaremos discutindo a visão econômica
tradicional, que aposta na capacidade de autoajuste de nossas economias aos
impactos da tecnologia na produtividade e no emprego. Veremos também
que há inúmeros contrapontos essenciais com relação a essa capacidade de
autoajuste econômico, especialmente devido às características peculiares das
novas tecnologias, como é o caso, principalmente, da Inteligência Arti cial.
Na sequência, analisaremos as principais pesquisas e estudos que buscam
quanti car o impacto das novas tecnologias na criação e na destruição dos
postos de trabalho.
VOCÊ SABIA?
Nem toda boa tecnologia é uma GPT. Por exemplo, por mais que a fotogra a digital
tenha modi cado fortemente algumas indústrias, como a de câmeras fotográ cas,
celulares e impressões, essa tecnologia não pode ser considerada uma GPT. Isso porque
o seu impacto se restringiu a poucos setores da economia, não se generalizando.
VOCÊ SABIA?
Em 2017, o governo chinês publicou um documento chamado Development Plan for a
New Generation of Arti cial Intelligence , no qual ele compartilha recomendações,
predições e ações para que a China se torne uma superpotência da Inteligência Arti cial
até 2025 e a líder mundial dessa tecnologia até 203012.
/
Universidade de e Future of 2013 Os autores Alarmantes
Oxford - Carl Employment: How analisaram 702 47% do total
Benedikt Frey e susceptible are jobs ocupações, dos empregos
Michael A. to utilizando um nos Estados
Osborne computerization? 14 processo de Unidos estão
classi cação em risco
gaussiano. O
trabalho focou
na
probabilidade
técnica de
automação de
ocupações ou
postos de
trabalho, via
Machine
Learning
OCDE - Melanie e Risk of 2016 Os autores Apenas 9% do
Arntz, Terry Automation for estimaram a total de
Gregory e Jobs in OECD possibilidade de empregos nos
Ulrich Zierahn Countries: a automação de países da OCDE
comparative tarefas que estão em risco.
analysis15 compõem as Os resultados
ocupações, em foram bastante
vez de heterogêneos
ocupações nos diferentes
inteiras. Eles países do
consideraram estudo
ocupações em
risco, quando
pelo menos
70% das tarefas
que compõem a
ocupação são
passíveis de ser
automatizadas.
Os objetos de
estudo foram
21 países da
OCDE
McKinsey Jobs lost, Jobs 2017 O objeto do Cerca de 50%
Global Institute gained: workforce estudo foram das atividades
– equipe de transition in a time 46 países que desempenhadas
colaboradores of automation 16 somam cerca de pelos
McKinsey 90% do PIB trabalhadores
mundial e mais são passíveis de
de 800 automação até
ocupações. Os 2030. A cada 10
autores ocupações, 6
estimaram a tem mais de
possibilidade de 30% das tarefas
automação de passíveis de ser
tarefas que automatizadas.
compõem as De 15% a 30%
ocupações e das ocupações
também estão em risco,
ocupações dependendo da
inteiras velocidade de
adoção das
novas
tecnologias
PWC - John Will robots really 2018 Os autores O percentual de
Hawksworth, steal our jobs? An estimaram a empregos em
Richard international possibilidade de riscos variou de
Berriman e analysis of the automação de cerca de 20% a
Saloni Goel potential long term tarefas que 43%,
impact of compõem as dependendo do
automation 17 ocupações. O país e de suas
objeto de características
estudo foram os
27 países da
OCDE, mais
Singapura e
Rússia,
quebrando os
resultados em
termos de
setores,
ocupações e
características
dos
trabalhadores
(sexo, idade e
nível
educacional)
OCDE – Ljubica Automation, skills 2018 Muito similar 14% das
Nedelkoska use and training18 ao estudo ocupações dos
e Glenda anterior da países da
Quintini OCDE, de 2016, amostra são
porém com altamente
maior automatizáveis
amplitude de (com
países (32 automação de
países) e de mais de 70%
ocupações, das tarefas da
além de outros ocupação).
ajustes Adicionais 32%
metodológicos das ocupações
apresentam
possibilidade de
automação de
suas tarefas
entre 50% e
70%
Quadro 7.2: Resumo dos principais estudos de empregos em risco decorrentes da Inteligência
Arti cial e demais tecnologias emergentes.
: .
Ao analisarmos o Quadro 7.2, observamos que todos os estudos, sem
exceção, estimam haver empregos em risco, causados pela adoção das
tecnologias emergentes, em especial a Inteligência Arti cial (mais
precisamente o Machine Learning). Porém, observamos também a existência
de fortes discrepâncias entre os estudos quanto ao percentual de empregos
em riscos. À parte das diferenças entre países e setores da economia
incluídos em cada estudo, observamos que o percentual de empregos em
risco varia de 9% no primeiro estudo da OCDE a 47% no estudo de Oxford.
Por isso vale a pena mergulharmos mais profundamente nas características e
metodologias de cada pesquisa.
O único estudo que tomou como base unicamente os empregos (e não as
tarefas desempenhadas pelas diferentes ocupações) foi o de Oxford,
justamente o que apresentou o maior percentual de empregos em risco
(47%). Os demais partiram da lista de tarefas desempenhadas pelas
ocupações, para depois estimar quais ocupações poderiam ser substituídas
pelas máquinas, a partir de determinado percentual de tarefas que podem
ser automatizadas em cada ocupação. Obviamente, essa diferença de
metodologia causa divergência nos resultados. Partir do olhar de tarefas, em
vez de partir da ocupação como um todo, faz bastante sentido no contexto
da Inteligência Arti cial, dado que os algoritmos e aplicações de IA, como
vimos ao longo deste livro, têm foco na automação de tarefas e nenhuma
preocupação direta com as ocupações em si.
Observamos também que no quadro aparecem dois estudos da OCDE, um
de 2016 e outro de 2018. O segundo estudo pode ser considerado como um
aperfeiçoamento do primeiro, no sentido de que foram incluídos mais países
(32 contra 21), considerando-se uma quantidade maior de ocupações, além
de eles realizarem análises mais detalhadas das variações nas tarefas que
compõem determinada ocupação.
Assim, se desconsiderarmos o estudo de Oxford (devido à sua forte
diferença metodológica com relação aos demais estudos) e considerarmos
apenas o segundo estudo da OCDE (dado que pode ser entendido como um
aperfeiçoamento do primeiro), a variação entre os resultados dos estudos
ca menor: de 14% no segundo estudo da OCDE a 43% no estudo da PWC.
Essa diferença pode ser ainda mais reduzida se levarmos em conta que,
para chegar nos 14% de ocupações em risco, o estudo da OCDE considerou
somente as ocupações com alto risco de automação: aquelas que mais de 70%
das tarefas são passíveis de ser automatizadas. Porém, há outros adicionais
de 32% de ocupações que estão com um nível relativamente alto de risco de
automação: aquelas que têm de 50% a 70% das tarefas passíveis de ser
automatizadas. E cá entre nós: acima de 50% já é bastante! Então, se
somarmos esses dois percentuais (14% de alto risco mais 32% de relativo
alto risco de automação) chegamos a 46%. Dessa forma, podemos considerar
que o percentual de ocupações em risco para a OCDE vai de 14% a 46%,
sendo que 46% é mais pessimista do que o mais pessimista dos estudos, o da
PWC, que considerou que 43% dos empregos estão em risco pela automação.
São números impressionantes e preocupantes!
E para complementar tais alarmantes prognósticos, o professor Kai-Fu
Lee19 destaca um ponto muito importante de limitação de todos esses
estudos: eles constituem a melhor aposta de experts em determinado
momento. Isso signi ca que avanços signi cativos na acurácia e poder do
Machine Learning não necessariamente estão sendo levados em consideração,
mesmo pelos experts. Nem os mais otimistas dos experts em Inteligência
Arti cial poderiam prever os enormes e incríveis avanços nos algoritmos de
Deep Learning ocorridos nos últimos cinco anos. Em 2013, quando o
primeiro estudo foi realizado, o Deep Learning ainda engatinhava e estava
longe de ter o nível de acurácia e alcance que observamos hoje.
VOCÊ SABIA?
Deep Learning
Hoje os erros dos modelos de podem ser muito baixos, de cerca de apenas
5%. Algo inimaginável até 2015, mesmo para os mais otimistas dos pesquisadores da
área20.
Porém, as tecnologias avançaram com tamanha profundidade e velocidade nos últimos anos que passaram a
afetar inclusive e principalmente as tarefas cognitivas. Por isso, o pensamento passa a ser:
Já que as tecnologias emergentes são capazes de automatizar quase tudo, quais são as tarefas que dificilmente
serão automatizadas?
Em outras palavras, quais são as características das tarefas que não apresentam potencial de ser automatizadas
pelas tecnologias emergentes?
Com base nessa lógica, os professores de Oxford, Carl Benedikt Frey e Michael A. Osborne1, autores do
primeiro estudo de empregos em risco discutido no capítulo anterior, identi caram as tarefas humanas que são
mais difíceis de ser automatizadas, mesmo pela Inteligência Arti cial. Eles as nomearam “gargalos da automação”
(tradução livre do termo em inglês bottlenecks to automations) e incluem:
i) Inteligência social: a habilidade de negociar e lidar com relações sociais complexas, incluindo o cuidado
com os demais ou o reconhecimento de sensibilidades culturais.
iii) Percepção e manipulação de alta precisão: a habilidade de desempenhar tarefas físicas mais complexas
em um ambiente de trabalho não estruturado.
No mesmo sentido que os professores de Oxford, a PWC2 considera que as ocupações mais focadas em
competências sociais, empatia e criatividade são as mais difíceis de ser diretamente substituídas por máquinas,
mesmo considerando os potenciais avanços tecnológicos dos próximos 10 ou 20 anos.
O professor Andrew Ng3 destaca que a Inteligência Arti cial se mantém muito pouco efetiva para automatizar
atividades que requeiram interações naturais com pessoas, a destreza manual dos seres humanos ou atividades
de domínios múltiplos ou escopos muito amplos, como as atividades relacionadas ao planejamento estratégico
das companhias, por exemplo. De forma mais prática, isso signi ca dizer que a Inteligência Arti cial não
funciona adequadamente naquelas tarefas cujos Inputs (entradas de dados) e Outputs (saída de dados ou
resultados) não podem ser facilmente quanti cados.
Os professores Autor, Levy e Murnane4 destacam que as tecnologias, mesmo as cognitivas, apresentam baixo
desempenho em tarefas que requeiram exibilidade, criatividade, solução de problemas e comunicação
complexas.
Com base nesses autores, o Quadro 8.1 apresenta um resumo das principais características das tarefas mais
difíceis de serem automatizadas pela Inteligência Arti cial:
Figura 8.1: Grá co de impacto da Inteligência Arti cial nos diferentes tipos de ocupações individuais.
: - .
Na Figura 8.1, o eixo vertical diz respeito à necessidade de interação social requerida pela ocupação; o eixo
horizontal, por sua vez, mensura o nível de repetição e de criatividade requerida pela ocupação. Com a utilização
desses dois eixos, chegamos a uma estrutura de quadrantes.
O quadrante 1 – Zona segura – é preenchido por ocupações que requerem alto nível de interação social e alto
nível de criatividade (ou baixo nível de repetições). Por representar os dois pontos fracos da Inteligência Arti cial
(interação social e criatividade), as ocupações nesse quadrante foram nomeadas de Zona segura, correndo
poucos riscos de automação via Inteligência Arti cial, pelo menos num futuro previsível. C’levels, como CEOs,
pro ssionais de Merger & Acquisitions (M&A) e gerentes de Relações Institucionais são ótimos exemplos de
ocupações que poderiam fazer parte desse quadrante.
No outro extremo temos o quadrante 3, nomeado de Zona de risco. Ele é preenchido por ocupações que
requerem baixo nível de criatividade (alto nível de repetições) e baixa necessidade de interações sociais. Essas são
as características perfeitas para a ação dos algoritmos de Inteligência Arti cial. Aqui, os algoritmos podem
desempenhar tarefas muito melhores do que os mais treinados seres humanos. Por isso, ocupações nesse
quadrante estão sob um altíssimo risco de substituição nos próximos anos. Radiologistas, tradutores básicos,
certos tipos de atendentes de telemarketing e muitos pro ssionais de back-o ce são ótimos exemplos de
ocupações que poderiam ser classi cadas como pertencentes a esse quadrante.
VOCÊ SABIA?
É fato que há ocupações em risco, mas também é certo que novas ocupações surgirão.
James Wilson e sua equipe, da Accenture, acreditam que os novos empregos criados pela Inteligência Arti cial se dividirão em três
categorias: treinadores, explicadores e sustentadores. Os treinadores treinarão tecnologias cognitivas; os explicadores, é claro,
explicarão o processo e os resultados das decisões baseadas em Inteligência Arti cial, principalmente para os executivos seniores, não
técnicos. E, os sustentadores, garantirão e os sustentadores garantirão que os sistemas cognitivos tenham bom desempenho ao longo
do tempo, em áreas como desempenho de tarefas e conformidade ética7.
Os quadrantes 2 e 4, por sua vez, são menos claros e menos previsíveis. No quadrante 2 – Verniz humano –,
temos ocupações que requerem baixo nível de criatividade (alto nível de repetições) e altos níveis de interação
social. Para muitas ocupações que preenchem esse quadrante, inúmeras tarefas que compõem a ocupação podem
ser feitas pelos algoritmos, porém as ocupações requerem também muitos elementos de interação social,
tornando mais difícil a automação e substituição do trabalho em massa e de forma completa. Muitas ocupações
aqui são compostas de uma in nidade de tarefas que estão fora das tarefas core. O nome Verniz humano vem
justamente dessa simbiose: boa parte do trabalho feito nos bastidores pelas máquinas, com os seres humanos
agindo como interfaces sociais com os clientes ou demais agentes humanos. A velocidade da substituição desses
trabalhos vai depender sobremaneira do interesse, exibilidade e velocidade das empresas em reorganizar as
tarefas executadas por seus diferentes colaboradores ou pelo nível de abertura dos consumidores para
interagirem com máquinas. Professores, médicos, arquitetos, consultores nanceiros e analistas de crédito são
ótimos exemplos de ocupação pertencentes a esse quadrante.
No quadrante 4, Mudança lenta, temos ocupações com alta necessidade de criatividade (baixo nível de
repetições) e baixa necessidade de interações sociais. Ocupações desse quadrante não têm relação com as
competências humanas sociais, mas sim com a criatividade ou habilidade de se adaptar a ambientes não
estruturados. Isso ainda é um desa o substancial para a Inteligência Arti cial e para as demais tecnologias
emergentes. A substituição de trabalhos nesse quadrante depende menos dos processos de inovação e
reestruturação das empresas (adoção de tecnologias e reorganização do trabalho) e muito mais da real expansão
das capacidades da Inteligência Arti cial. Cientistas, pesquisadores, artistas e designers são excelentes exemplos
de ocupações desse quadrante.
Eu poderia me arriscar a incluir muitos outros exemplos de ocupações pertencentes a cada um dos quadrantes.
Porém, fato é que quanto mais profunda e detalhadamente conhecermos as tarefas que compõem cada ocupação,
bem como sabermos a importância relativa de cada uma, mais acurada e precisa será a classi cação da ocupação
em cada quadrante.
Pensando dessa forma, eu diria que não há ninguém melhor do que você, leitor, para re etir e responder as
seguintes questões: Como a sua ocupação ou o seu cargo se enquadraria nesse grá co? Em outras palavras, em
qual quadrante você está hoje?
Para responder a essas difíceis e intrigantes perguntas, procure listar todas as tarefas que fazem parte da sua
ocupação e não deixe de incluir nenhuma, por menor ou mais rápida que ela seja. Esse exercício de autoanálise
lhe ajudará a identi car os riscos de sua ocupação, possibilitando que você elabore planos pessoais para mitigá-
los ou até mesmo para transformá-los em oportunidades de crescimento pro ssional.
O WEF vê essa simbiose como uma situação de risco, obviamente, mas também de grande oportunidade, como
um excepcional caminho para um futuro menos ardiloso e mais marcado pelas atividades que realmente nos
de nem como humanos. Eles acreditam que, à medida que os trabalhos que hoje são realizados por pessoas estão
sendo potencializados por máquinas e algoritmos, as organizações deveriam ver essas automações como
melhoria da força comparativa dos pro ssionais e um caminho para empoderá-los a atingir todo o seu potencial.
Isso tenderia a aumentar a produtividade global, com consequências positivas no emprego, pelo menos a longo
prazo.
Assim, o WEF acredita que a questão relevante para os negócios, governos e indivíduos não deveria ser somente
o quanto a automação afeta o número de empregos, mas sim como e sob quais condições o trabalho pode atingir
um novo equilíbrio na divisão entre humanos e robôs.
Nesse sentido, o caminho para as empresas seria desconstruir cada posição em tarefas especí cas, para
recon gurá-las em uma distribuição homem-máquina mais e ciente. Para as pessoas, o aumento da
produtividade possibilitará foco em atividades de alto valor, aquelas que efetivamente nos distinguem das
máquinas.
VOCÊ SABIA?
Nem todos estão otimistas com relação à simbiose homem + máquina. O professor Raj Ramesh, PhD em Inteligência Arti cial,
pesquisador e praticante do tema, faz um alerta importante: “A visão utópica é que homem e máquina trabalharão juntos para
aumentar substancialmente a produtividade, mas a realidade é que muitas habilidades acabarão desatualizadas”11.
Uma solução que começou a ser discutida é a redução da carga horária de trabalho de cada trabalhador para três
ou quatro dias por semana, por exemplo, na lógica de que a Inteligência Arti cial reduz a necessidade de
trabalhadores humanos. Dessa forma, mais de um trabalhador poderia ocupar um mesmo posto de trabalho, hoje
ocupado somente por uma pessoa.
Essa poderia ser uma solução paliativa e transitória, especialmente para as ocupações do quadrante Verniz
humano, dado que mais pessoas poderiam dividir as tarefas de humanizar o trabalho analítico, repetitivo e sem
interações sociais realizados pelas máquinas.
Porém, obviamente essa é uma solução bastante simplista e controversa. Inúmeros aspectos precisariam ser
amplamente discutidos e aprofundados. Entre eles, como trataríamos a eventual diminuição de salário e,
portanto, de renda de cada trabalhador? Além disso, se a Inteligência Arti cial continuar a se desenvolver rápido,
o que de fato deve ocorrer, essa estratégia poderia rapidamente se mostrar ine caz ou inviável, pois
precisaríamos dividir um mesmo trabalho em mais pessoas com muita frequência, o que seguramente se
mostraria inviável.
VOCÊ SABIA?
A Gartner Inc., empresa de pesquisa de mercado, previu que, embora houvesse um número substancial de empregos perdidos para a
Inteligência Arti cial em curto prazo, essa mesma tecnologia gerará enormes oportunidades de empregos novos, que desconhecemos
hoje e que certamente requererão novas competências. Até 2025, a empresa argumenta, haverá dois milhões de novos empregos
reskilling
líquidos. Mas para que isso ocorra, é necessário um intenso processo de 14.
O estudo do WEF mostrou que as três principais estratégias, em ordem de preferência, que as empresas
esperam adotar para cobrir os gaps de competência são:
A quase totalidade das empresas que se utilizarão de treinamento para a força de trabalho existente irão focar
seus esforços apenas nos cargos-chave e nos pro ssionais de alta performance. Assim, quem mais precisa (os
colaboradores menos capacitados), não aparecem como foco das intenções de treinamentos corporativos. Desta
forma, o reskilling passa a ser imperativo, mas a maior parte das pessoas terá que buscar as competências por
conta própria o que, por si só, constitui um enorme desa o. As organizações que buscam desenvolver o
protagonismo de carreira e de desenvolvimento em seus colaboradores sabem da di culdade, de fato, de
conseguirmos pro ssionais com essas características.
Por outro lado, analisando esse desa o ou limitação sob outro ponto de vista, podemos dizer que o reskilling é a
única alternativa de solução que pode ser colocada em prática exclusivamente por cada um de nós,
individualmente. Obviamente, as organizações privadas e os governos podem ajudar, especialmente, provendo
escala, nanciamento e sistematização dos retreinamentos. Contudo, cada um de nós é sim capaz de ir à luta,
buscar atualização de competências e protagonizar o próprio reskilling. Essa alternativa é a única que está em
nossas mãos. O desa o está lançado.
E à medida que as novas tecnologias, lideradas por Inteligência Arti cial, permeiam todos os níveis e processos
organizacionais, não há muita dúvida que conhecer mais profundamente essas tecnologias passa a ser
fundamental. É possível a rmarmos que parece não haver dúvidas de que a Inteligência Arti cial e as demais
tecnologias emergentes passam a ser a nova linguagem universal dos negócios.
E agora você, leitor, deve estar pensando: “mas o nado e brilhante Peter Drucker não dizia que a Contabilidade
era a linguagem universal dos negócios”. É verdade! No entanto, se Peter Drucker ainda estivesse entre nós,
suspeito que ele diria que a partir de agora teremos que ser pro ssionais, no mínimo, bilíngues. A língua da
contabilidade e a língua das tecnologias hão de ser linguagens universais.
Figura 8.3: As novas tecnologias, lideradas por Inteligência Arti cial como a nova linguagem universal dos negócios.
: .
VOCÊ SABIA?
O Fórum Econômico Mundial desataca as top 10 competências do futuro. Observe como algumas delas estão diretamente
relacionadas com as novas tecnologias, como Análise e avaliação de sistemas e Design tecnológico e programação. Outras fazem
parte das características humanas mais difíceis de ser substituídas pelas máquinas e que, portanto, deveriam ser intensi cadas como
criatividade, originalidade e iniciativa, inteligência emocional, liderança e in uência social e solução de problemas complexos. Por
m, outras podem ser consideradas competências de base e acabam in uenciando todas as outras competências, pois se referem à
capacidade intrínseca de aprendizagem, como Aprendizagem ativa e Estratégias de aprendizagem.
Essa alternativa consiste em redistribuir a riqueza gerada pela Inteligência Arti cial e concentrada em poucas
organizações, por meio da instituição de uma renda básica ou mínima àqueles que tiverem os seus empregos
substituídos pela automação. A origem dos recursos seria a cobrança de tributos mais pesados sobre os lucros
obtidos pelas empresas baseadas no uso de Inteligência Arti cial.
Com pensamento nitidamente Keynesiano, essa alternativa é, sem dúvida, uma das mais polêmicas e mais
difíceis de ser implementadas. Uma condição ou regra básica parece se tornar consenso: o indivíduo,
obrigatoriamente, ter que participar de programas de retreinamento. Nesse sentido, a renda mínima e a
necessidade de reskilling parecem aqui se encontrar e, de alguma forma, se sobrepor.
Mas ainda há muito o que se discutir. Questões como: “Quem poderia receber essa renda mínima?” “Por quanto
tempo?” “Quem acompanhará se o indivíduo está provendo a contrapartida necessária?” “Quais são as empresas
que seriam taxadas?” E “qual a taxa?” Precisariam ser ampla e profundamente discutidas para que essa
alternativa seja levada adiante.
O professor Kai-Fu Lee, em especial15, defende que as três primeiras soluções, apesar de relevantes, não são de
forma alguma su cientes para resolvermos o problema. Ele acredita que a velocidade e a amplitude de impacto da
Inteligência Arti cial serão grandes demais para reagirmos apenas com essas três soluções técnicas.
Nesse sentido, mesmo com todas essas ações, sobrarão inúmeros pro ssionais desocupados. O professor então
defende que a renda mínima ajudaria a suprir a falta de recursos nanceiros (permitindo a subsistência) mas não
conseguiria suprir os efeitos psicológicos e sociais causados a esses indivíduos, que seriam devastadores.
Especialmente com a Revolução Industrial, aprendemos a ver nosso trabalho não apenas como meios de
sobrevivência, mas como fonte de orgulho pessoal, identidade, signi cado na vida real.
Por isso, como solução adicional às outras três alternativas, o professor defende a criação de uma quarta: passar
a remunerar dignamente às atividades que realmente nos distinguem das máquinas, aquelas que requerem
empatia, compaixão, carinho e amor.
Ele sugere começarmos pelas atividades sociais e demais atividades centradas no ser humano, que hoje são mal
(ou nada) remuneradas. Nesse rol de atividades, entrariam trabalhos de cuidados (como cuidar de idosos, mesmo
que esses sejam familiares), serviços comunitários (como a pintura e manutenção de escolas) e educação de
crianças e adultos. A proposta é que esses serviços, que geram benefícios sociais, passem a ser remunerados como
são os serviços que geram benefícios econômicos.
Parece haver um consenso que nenhuma das soluções apresentadas acima, apesar de relevantes, poderiam ser
discutidas e aplicadas exclusivamente pelos agentes de mercado do livre mercado, com uma possível exceção
sendo apenas o retreinamento, que poderia existir por iniciativa particular dos indivíduos, independente de
ações institucionais, apesar de ser pouco provável que isso acontença de forma sistêmica.
Para detalhar melhor essa ideia, vamos utilizar como exemplo a proposta de renda mínima. Nesse caso, quem
seriam as pessoas elegíveis? Quais seriam os critérios? Por quanto tempo eles receberiam a renda? Quem
decidiria que tipos de treinamento eles fariam para se adaptarem aos novos postos de trabalho? Quem veri caria
se de fato eles estão participando dos treinamentos ou das atividades sociais? Essas e outras questões me
parecem muito difíceis de ser respondidas apenas pelas forças de mercado, sem qualquer interferência
governamental.
O mesmo poderia acontecer com a iniciativa de passarmos a remunerar atividades que causam bem-estar social,
aquelas centradas no ser humano, conforme proposto pelo professor Kai-Fu Lee. O livre mercado não me parece
estar propenso a fazer essas correções sozinho, ou seja, passar a remunerar esse tipo de atividades
por livre e espontânea vontade. Certamente seria necessário algum tipo de empurrão governamental, mesmo que
ainda não saibamos de qual forma e com qual intensidade.
E que que bem claro nesse ponto do texto: não sou a favor de um Estado grande, protagonista e cada vez
maior em nossa economia. Acredito que o governo tenha, sim, de desempenhar um papel mais organizador e
regulatório nas diferentes economias, cuidando especialmente de alguns serviços e condições básicas como
segurança pública. Porém, os impactos causados pela Inteligência Arti cial me parecem ser um desses casos nos
quais o empurrão e a regulação governamental parecem ser indispensáveis, pelo menos no curto e médio prazo,
até que novas dinâmicas de mercado sejam criadas.
Quanto a sua ocupação atual, está baseada nas características mais difíceis de ser substituídas ou
automatizadas pela Inteligência Arti cial, como alto nível de interações sociais, criatividade, empatia
e raciocínio complexo?
E quanto às ocupações que você almeja ter para si num futuro próximo?
Como a sua ocupação e aquelas que você almeja ter para si num futuro próximo se enquadrariam no
grá co do professor Kai-Fu Lee? Listar as tarefas que compõem a sua ocupação irá lhe auxiliar nessa
análise.
Como as ocupações das equipes que você lidera se enquadrariam no mesmo grá co?
Como você enxerga a simbiose homem + máquina acontecendo na sua ocupação? Quais tarefas
poderiam ser feitas pelos algoritmos de Inteligência Arti cial e quais continuariam a ser feitas por
você?
Nessa simbiose, surgiriam oportunidades de você realizar tarefas mais humanas, que hoje não são
possíveis por falta de tempo, por exemplo?
Quais as competências, técnicas ou comportamentais, você poderia desenvolver para tirar o maior
proveito dessa simbiose?
Você tem um plano para o seu próprio reskilling
? E para o de sua equipe?
Se não, pense pelo menos nos pontos gerais que deveriam conter esse plano: Quais competências
desenvolver? Por que desenvolver essas competências? Como desenvolvê-las? Onde desenvolvê-las?
Se você for um líder de equipes ou pessoal, como seria esse plano para os seus times?
Para saber mais sobre a interessante discussão sobre o futuro do emprego, os empregos do futuro e como se
preparar para eles:
Capítulo 8
As demais técnicas de
Inteligência Artificial e suas perspectivas
, técnicas de Supervised Learning,
especialmente Statistical Machine Learning e a grande protagonista da Inteligência Arti cial, o Deep Learning,
responsável pela decolagem da Inteligência Arti cial nos últimos anos.
Essa ênfase deve-se ao fato de que a maioria esmagadora das aplicações de Inteligência Arti cial, já utilizadas
por diversas organizações ao redor do mundo e que geram centenas de milhares de dólares, são justamente
baseadas em Supervised Learning.
É fato que Inteligência Arti cial é um campo de estudo muito amplo. Mais do que isso, um campo
assustadoramente fértil, dinâmico e ativo, com novos experimentos e achados sendo evidenciados em
diferentes centros de excelência espalhados pelo mundo, sejam universidades ou empresas privadas. O grá co a
seguir ilustra o incrível crescimento do volume de publicações em periódicos relevantes sobre o tema nos últimos
anos.
Figura 9.1: Crescimento do volume de artigos publicados sobre Inteligência Arti cial e Computer Science.
1
: .
VOCÊ SABIA?
Em 2017, 25% de todos os artigos publicados sobre Inteligência Arti cial eram de autores chineses e 17% de autores norte-americanos.
Porém, quando o assunto é qualidade ou relevância, os números vão fortemente a favor dos Estados Unidos: os autores norte-
americanos são citados cerca de 90% mais do que os chineses3.
Neste capítulo, nos dedicaremos a compreender as demais técnicas de Inteligência Arti cial, especialmente as
mais promissoras, que apresentam, pelo menos até a publicação deste livro, maior potencial para amadurecer e
ser utilizadas na prática dos negócios em larga escala.
São elas:
Nas próximas seções explicaremos cada uma delas, apresentando as aplicações existentes e as principais
promessas, que poderão se tornar realidade num futuro próximo. Para concluirmos, discutiremos a relação
entre a Inteligência Arti cial e a Robótica.
9.1 Unsupervised Learning – Aprendizagem não
supervisionada
Unsupervised Learning é uma técnica que pertence ao grupo de Machine Learning, assim como a técnica de
Supervised Learning. A Figura 9.2 a seguir ilustra a inserção de Unsupervised Learning em nosso diagrama geral de
hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial4.
Figura 9.2: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial, com a inserção de Unsupervised Learning.
: .
Antes de mais nada, vamos recordar um pouco sobre Supervised Learning, pois isso nos ajudará a compreender
Unsupervised Learning.
Supervised Learning é uma técnica caracterizada pela existência de relações A => B: entrada de dados (Input – A)
e saída de dados (Output – B). Para que os algoritmos funcionem, precisamos prover, como insumos de seu
desenvolvimento e treinamento, tanto os dados de entrada quanto os dados de resultado. Vimos muitos
exemplos dessas relações A => B no Capítulo 2. Certamente você deve se lembrar de nosso App de estimativa de
preços de imóveis, que tinha como Input – A algumas características dos imóveis e como Output – B, os preços dos
respectivos imóveis. Recorde-se que, para treiná-lo, precisamos fornecer todos esses dados ao algoritmo.
Os algoritmos de Unsupervised Learning, por sua vez, funcionam de forma distinta. Nos modelos de
Unsupervised Learning é preciso fornecer os dados de entrada, Input – A, mas não é necessário fornecer os dados
de resultado, Output – B, porque o emprego dessa técnica se justi ca justamente em situações nas quais o Output
– B é desconhecido5.
Usamos as técnicas de Unsupervised Learning quando temos uma série de dados de entrada, mas não
conhecemos o que esses dados devem explicar6. Vejamos um exemplo para facilitar o entendimento.
Um dos principais usos de Unsupervised Learning tem como objetivo realizar a segmentação de
clientes7. Vamos entender como isso funciona?
Adriano é proprietário de uma loja especializada em venda de cervejas nacionais e importadas. Ele gostaria de
compreender um pouco melhor os seus clientes e hábitos, para poder segmentá-los e realizar ações de marketing
e comerciais mais direcionadas para cada público. Para tal, ele conseguiu levantar os seguintes dados de histórico
de vendas: preço pago em cada cerveja e a quantidade de cervejas vendida. Com base nesses dados, ele elaborou o
seguinte grá co:
Figura 9.3: Representação grá ca da relação de preço e quantidade de vendas de uma cervejaria.
: .
Observe que o grá co mostra a existência de dois tipos principais de clientes: os que compram cervejas mais
baratas (maior quantidade vendida), representado pelo Grupo B no grá co; e os que compram cervejas mais caras
(menor quantidade vendida), representado pelo Grupo A. Um ponto importante a se destacar é que Adriano não
conhecia a existência desses dois grupos a priori, ele possuía apenas uma tabela de dados contendo a quantidade
de cerveja comprada e o preço de cada cerveja vendida. Em outras palavras: ele não conhecia o Output – B. Agora,
a partir da informação da existência de dois grupos bem distintos de consumidores, ele pode estudá-los em
detalhes.
Essa técnica de agrupamento é conhecida como Clusterização ou Agrupamento, e con gura-se como
a principal técnica de Unsupervised Learning. A essa altura você, leitor, que entende um pouco mais de
estatística, pode estar se perguntando: ““Mas Clusterização é uma técnica estatística, correto?”. Sim. Mais uma
vez observamos a forte presença da estatística e da matemática no coração das técnicas de Inteligência Arti cial.
Voltando ao exemplo da loja de cervejas do Adriano, agora podemos aprofundar no entendimento de cada
grupo que o processo de clusterização sugeriu. Ao fazermos isso, percebemos, por exemplo, tratar-se de dois
tipos de clientes: o Grupo B, formado essencialmente por jovens estudantes com menor poder aquisitivo, e o
Grupo A, formado essencialmente por pessoas de meia-idade, mais estabilizados nanceiramente. Baseado
nessas informações, o Adriano poderá realizar ações de marketing e comerciais direcionadas e personalizadas
para esses dois grupos tão distintos, no intuito de potencializar as vendas.
Generalizando, Unsupervised Learning pode ser de nido como um sub-grupo de técnicas de
Inteligência Arti cial (mais especi camente, de Machine Learning) que busca encontrar algo
interessante (padrões) nos dados e sumarizá-los ou agrupá-los, sem que algum ser humano lhe
direcione algum caminho8.
E mais, realizar agrupamentos que, normalmente, não são possíveis de serem percebidos por seres humanos. É
por esse motivo que muitos consideram Unsupervised Learning muito mais próximo da verdadeira Inteligência
Arti cial: os algoritmos podem aprender a identi car processos complexos e padrões por conta
própria, sem termos seres humanos direcionando os caminhos ou os objetivos (como acontece em
Supervised Learning)9.
As técnicas de Unsupervised Learning têm sido muito usadas também para se explorar, aprender e
aumentar a compreensão dos dados. Em outras palavras: encontrar as suas estruturas. Considerando que
cerca de 80% dos dados que geramos na internet não são estruturados, há um grande espaço para o emprego de
técnicas de Unsupervised Learning num futuro próximo10.
Outra vantagem das técnicas de Unsupervised Learning é que elas podem funcionar com menores
quantidades de dados, quando comparadas às enormes quantidades de dados requeridas pelas técnicas de
Supervised Learning. E esse é um forte motivo para que os grandes experts em Inteligência Arti cial tenham
expectativas elevadas para o desenvolvimento de aplicações de Unsupervised Learning11.
Agora, vamos analisar alguns usos atuais e reais das técnicas de Unsupervised Learning. Em outras palavras,
vamos conhecer o que Unsupervised Learning já está fazendo pelos negócios.
Talvez o principal uso hoje ocorra nos bastidores. É cada vez mais recorrente a aplicação de clusterização
nos dados como uma ação prévia que visa a identi cação de padrões e de estruturas. Uma vez que os
dados já estão melhor compreendidos, ca mais fácil a aplicação de outras técnicas como as de
Supervised Learning 12.
Está se tornando frequente, por exemplo, o uso da clusterização em aplicações de reconhecimento de áudio.
Imagine que temos um arquivo contendo as falas de determinada pessoa em ambiente natural de nosso
cotidiano. Esse tipo de áudio certamente contém tanto a voz da pessoa principal, na qual queremos focar, quanto
muitas interferências (som de carros passando, pássaros piando, outras pessoas conversando ao fundo, entre
outras). Essas interferências podem di cultar muito o trabalho de algoritmos de Inteligência Arti cial, por
exemplo, no serviço de transcrição das falas contidas no áudio (speech to text). Aí é que entra a clusterização. Ela
consegue agrupar cada tipo de som em um determinado grupo, permitindo que isolemos as falas principais,
aquelas que serão objeto da aplicação de speech to text, e descartemos os demais grupos que contém os diferentes
tipos de interferência13.
As redes sociais como o Facebook e o LinkedIn também fazem uso intenso de Unsupervised Learning.
Eles utilizam clusterizações para identi car similaridades entre os usuários, com o objetivo de depois agrupá-los,
sugerir conexões que façam sentido, além de sugerir conteúdo personalizado para cada grupo identi cado14.
A medicina também tem usado intensamente Unsupervised Learning para tentar identi car, por exemplo, os
diferentes grupos de pessoas existentes dentre os que contraíram determinada doença, partindo do pressuposto
que certamente existe mais de um caminho de hábitos e costumes que podem levar a determinadas doenças15.
Por exemplo, ao estudar indivíduos com determinado tipo de câncer, a clusterização pode ajudar a identi car
alguns diferentes grupos de indivíduos, com características e hábitos que se diferenciam entre os grupos, mas
que são similares dentro de cada grupo. Pessoas que fumam poderia ser um grupo; pessoas sedentárias outro;
pessoas com hábitos saudáveis, mas com históricos familiares de desenvolvimento da doença, outro e assim
sucessivamente.
Outra aplicação muito interessante de Unsupervised Learning acessível a todos é o Google News16,
disponível em www.news.google.com. Nesse serviço, o Google realiza uma busca em milhares de notícias
diariamente para, então, clusterizar ou agrupar as diferentes fontes que falam a respeito do mesmo fato. Um
ótimo serviço para quem quer conhecer os diferentes pontos de vista de determinado acontecimento, sem ter que
fazer qualquer esforço para isso. A Figura 9.4 ilustra um exemplo do que a página apresentava de manchetes para
a versão brasileira, na seção de 18 de junho de 2019.
Figura 9.4: Exemplo da versão brasileira da página do Google News em 18 de junho de 2019.
: .
Observe a primeira manchete circulada na Figura 9.4: “Polícia analisa sangue do cachorro do pastor executado
em Niterói em busca de substância que o teria dopado”. Observe que esse título de manchete é a do Jornal o
Globo. Porém, via clusterização de milhares de notícias da web, o Google conseguiu identi car diferentes fontes
(TNH1, Extra, G1 e Metrópolis) sobre a mesma notícia e disponibilizou o link para os usuários.
Além disso, ao clicar no link “cobertura completa”, o site nos mostra mais fontes dessa notícia, conforme pode
ser visualizado na Figura 9.5. Observe que essa página traz tanto as notícias de diferentes fontes quanto distintas
opiniões, cobertura local, entre outros agrupamentos.
Figura 9.5: Detalhamento do exemplo da versão brasileira da página do Google News em 18 de junho de 2019.
: .
Agora, é importante dizer que, em termos de uso nos negócios, ou seja, o uso em aplicações por organizações
que possam criar um valor nanceiro e econômico com o uso dessas técnicas, o uso de Unsupervised
Learning ainda está em estágio incipiente19. E não há dúvidas de que, pelo menos por enquanto, as técnicas
de Supervised Learning são mais frequentemente usadas nos negócios e agregam muito mais valor às organizações
que as adotaram quando comparadas com as técnicas de Unsupervised Learning.
Para nalizarmos, vale ressaltar que, apesar da clusterização ser a mais importante e mais usada das técnicas de
Unsupervised Learning, existem outras: Dimensionality Reduction20 21, por exemplo, é uma técnica utilizada para
diminuir a quantidade de colunas em determinada série de dados, eliminando dados redundantes com a
nalidade de facilitar o processamento das informações; Anomaly Detection22, por sua vez, é uma técnica utilizada
para identi car anomalias em série de dados. Ambas são exemplos de técnicas que complementam a
clusterização no subgrupo Unsupervised Learning.
Figura 9.6: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial, com a inserção de Generative Adversarial Network
(GAN).
: .
Essa técnica foi criada pelo então estudante de Stanford e Montreal, Ian Goodfellow, em 2014, inicialmente
com o intuito de aumentar a e ciência e diminuir os altos custos de processamento em algoritmos de redes
neurais arti ciais mais complexas24. Vamos entender a sua criação de modo simples?
Ian teve a ideia de colocar duas redes neurais para competir entre si, sendo adversárias (origem do termo
Adversarial de Generative Adversarial Network – GAN). Uma rede neural foi colocada para realizar determinado
trabalho, como classi car e-mails em spams ou não spams. Essa rede neural produtiva foi denominada Generator
nos modelos de GAN. Outra rede neural – conhecida nos modelos de GAN por Discriminator – foi colocada para
atrapalhar e di cultar o trabalho da Generator em um processo de interação contínua. Como a rede neural
Generator foi programada para “se livrar” do incômodo da rede neural adversária – a Discriminator – ela passou a
se aperfeiçoar continuamente e, desse modo, realizar o seu trabalho de forma cada vez mais
otimizada25.
Porém, o avanço da Generative Adversarial Network (GAN) mostrou que a técnica tem outros efeitos, podendo
ser usada para outras nalidades. O mais importante deles é que, na tentativa de confundir ou se livrar da
Discriminator, a rede neural Generator é capaz de criar, gerar dados completamente novos, dados que não
existiam, com base em pequenas amostras de dados originais. Em outras palavras, ela é capaz de aprender a
imitar qualquer distribuição de dados. Por exemplo, ela é capaz de gerar imagens de pessoas que nunca
existiram com base em imagens de pessoas que existem, como uma celebridade, por exemplo. Com o treino
contínuo, essas imagens podem se aproximar da perfeição, apresentando tamanha qualidade a ponto de ser
difícil percebermos não tratar-se de seres humanos reais26. A Figura 9.7 traz algumas dessas imagens 100%
criadas por algoritmos de GAN.
Figura 9.7: Exemplos de imagens de pessoas criadas integralmente por algoritmos de Generative Adversarial. Network (GAN)27.
: . .
O mesmo raciocínio pode ser aplicado para a geração de vozes que não existem ou textos que nunca foram
escritos por seres humanos. Alguns experimentos na utilização de GAN, para a criação de imagens com base
apenas em textos, já começaram a ser feitos28. Incrível, não?
GAN apresenta duas grandes vantagens quando comparadas com as técnicas de Supervised Learning29:
1) Ela funciona com uma quantidade muito pequena de dados, uma vez que sua grande capacidade é
justamente a criação, a geração de dados com base em pequenas amostras;
2) Ela não necessita de supervisão humana (por isso se enquadra no subgrupo de Unsupervised
Learning). O ser humano é responsável apenas pelas de nições de seus parâmetros e objetivos.
É importante destacarmos que o uso de GAN por organizações que possam criar valor nanceiro e econômico
também ainda se encontra em estágio incipiente. Porém, é certo que as técnicas de GAN têm potencial incrível
de utilização e de criação de valor no futuro em alguns segmentos de nossa economia como a indústria
cinematográ ca, o de editoração, o de arquitetura e design de interiores, o de videogames, entre tantos
outros.
Figura 9.8: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial, com a inserção de Reinforcement Learning.
: .
Para compreender a Reinforcement Learning vamos fazer uso de um exemplo real mencionado pelo professor
Andrew Ng: helicópteros autônomos31. Antes de mais nada, vamos conhecer a sua principal problemática.
Helicópteros autônomos são equipados com GPS, compass e acelerômetros, de tal forma que a máquina
consegue saber precisamente a sua própria localização. Isso já não é mais um desa o para a tecnologia. Porém,
uma vez conhecida a sua localização exata, o principal desa o passa a ser escrever um programa ou programar
um algoritmo que o faça voar sozinho, de forma autônoma. Isso porque é deveras complexo utilizar, por exemplo,
técnicas de Supervised Learning, relações do tipo Input – A e Output – B, pois precisaríamos estimar quais seriam
os Outputs – B (possíveis movimentos) para cada posição que o helicóptero se encontra. Em outras palavras, seria
complexo demais indicarmos qual o caminho ou trajeto otimizado, dado que existem incontáveis possibilidades
para a posição do helicóptero em cada segundo. É aqui que entra em cena a técnica de Reinforcement Learning32.
A Reinforcement Learning oferece uma solução diferente. Ela é similar ao treinamento de bons comportamentos
de cachorros, por exemplo. No processo de ensinar um cachorro de estimação, é natural que inicialmente o
deixemos fazer o que ele quiser; então, após cada comportamento ou ação, nós vamos dando a ele um feedback.
Se ele age corretamente, conforme a nossa expectativa ou conforme o que nós, seres humanos, consideramos
bons comportamentos, daremos incentivos positivos, nem que seja uma palavra ou expressão do tipo: “boa” ou
“bom garoto”; se, por outro lado, ele age de forma que consideramos inadequada, daremos uma espécie de bronca
ou nem que seja uma simples palavra: “não”. Com o passar do tempo, o cachorro vai aprendendo e passa a fazer a
agir de forma a receber mais retornos ou reforços positivos. Ele passará a agir conforme a nossa expectativa33.
O treinamento dos algoritmos para pilotar helicópteros de forma autônoma funciona de forma semelhante.
Calma! Não deixamos o helicóptero real fazer coisas erradas e causar acidentes para aprender. Até porque não
seria uma forma nanceiramente inteligente de se treinar um algoritmo. Utilizamos simuladores. É mais ou
menos como o treinamento de nosso cão de estimação: no início, deixamos o helicóptero voar basicamente como
ele quiser. Quando ele voa de forma que consideramos adequada, damos um reforço ou um feedback positivo a
ele; quando ele voa de forma que consideramos ruim, inadequada, damos um reforço ou um feedback negativo a
ele. Então, o algoritmo vai buscar ganhar mais retornos ou reforços positivos, aprendendo na base da tentativa e
erro, como voar de forma adequada e autônoma34.
Assim, uma de nição mais formal de Reinforcement Learning seria: uso de recompensas como sinais para
dizer à Inteligência Arti cial (ou ao algoritmo) quando ela está agindo positivamente e quando ele
está agindo negativamente35.
A Figura 9.10 ilustra essa de nição. Em Reinforcement Learning há sempre um agente e um ambiente. O agente
interage no ambiente. Cada ação tem uma consequência boa ou ruim. O ambiente continuamente dá feedback ao
agente para que ele aprenda com as suas ações. Esse feedback pode ser recompensa (para boas ações) ou punição
(para ações ruins), e isso se repete continuamente36. No nosso exemplo do helicóptero autônomo, o helicóptero é
o agente, que voa no ambiente (céu).
Figura 9.10: Esquema conceitual do funcionamento de Reinforcement Learning.
: .
a) Treinamento e controle de robôs autônomos. Por exemplo, para que um robô aprenda, por reforço
de comportamento, a caminhar em um espaço com obstáculos (como a nossa casa).
E faz muito sentido a aplicação de Reinforcement Learning em jogos. Os algoritmos nesses casos jogam
incontáveis partidas de cada um desses jogos e recebem reforços, positivos ou negativos, a cada lance. Com o
passar do tempo, eles vão aprendendo a realizar mais jogadas positivas do que negativas, a ponto de superarem
qualquer ser humano, mesmo o mais experiente e especialista em determinada modalidade.
A principal fraqueza ou de ciência dos algoritmos de Reinforcement Learning, por sua vez, é que eles
precisam de uma quantidade enorme de dados para desempenharem de forma adequada. Isso signi ca
que eles precisam “praticar” muito, muito mesmo, para aprender a maximizar as ações que geram reforços
positivos. No caso dos jogos, eles precisam jogar uma in nidade de partidas para começarem a car bons. A nal,
eles funcionam somente por tentativa e erro, ou ação e feedback, sem terem a menor ideia de quais são as regras
do jogo39.
Reinforcement Learning costuma ser a materialização do sonho dos amantes da cção cientí ca.
Robôs fazendo tarefas humanas e aprendendo a agir por conta própria, apenas com base nos reforços positivos
ou negativos, é típico dos lmes de cção cientí ca. A única intervenção humana, além de construir o algoritmo,
é claro, é a de nição dos reforços positivos
e negativos40.
O uso de Reinforcement Learning em aplicações por organizações que possam criar valor nanceiro e
econômico com o uso dessas técnicas, também ainda está em estágio incipiente. Mas as pesquisas com
Reinforcement Learning seguem a todo vapor e é possível que esse quadro sofra algumas modi cações num futuro
próximo41.
Apesar de ser considerada um subgrupo de técnicas dentro do grupo maior de Machine Learning, eu pre ro
de nir Transfer Learning como sendo um atalho para a implantação e desenvolvimento,
especialmente, das técnicas de Supervised Learning. Isso porque ela consiste em aprender com determinada
tarefa ou uso de algoritmos, mais comumente de Supervised Learning, e utilizar esse conhecimento para
auxiliar em outra tarefa ou uso de algoritmos que tenha alguma semelhança com a primeira. Vamos
compreender isso com o uso de um exemplo, ilustrado pelo professor Andrew Ng43 44.
Imagine que customizamos e treinamos um algoritmo de Deep Learning de identi cação de veículos à frente do
veículo autônomo nas ruas45. Para que o algoritmo pudesse ser treinado, utilizamos aproximadamente 10
milhões de imagens (Input – A) contendo os seus respectivos rótulos (Output – B), ou seja, a existência ou não de
veículos à frente. Um esforço enorme em termos de tempo e de
dinheiro. Como resultado de tanto esforço, obtivemos ótimos resultados nessa tarefa. Em outras palavras, o
nosso algoritmo apresenta excelente desempenho na identi cação de veículos à frente. O sistema aprendeu a
identi car tipos diferentes de veículos: motos, veículos de passeio, caminhões de todos os tipos, ônibus de
diferentes tipos e tamanhos e até bicicleta.
Decidiu-se então utilizar esse mesmo algoritmo para a mesma nalidade (identi cação de veículos à frente do
veículo autônomo), porém numa cidade predominantemente agrícola. O que aconteceu? O algoritmo diminuiu
muito o seu desempenho, pois ele não se mostrou capaz de identi car um outro tipo de veículo: tratores! Isso
porque o algoritmo foi treinado em um ambiente onde não havia tratores. Em outras palavras, não foram usadas
imagens de tratores para treinar o sistema. E agora? Será que teremos de desenvolver e treinar um algoritmo do
zero, tendo de desistir do algoritmo anterior? Claro que não! Basta utilizarmos o mesmo algoritmo e adaptá-lo ou
retreiná-lo, não em todos os aspectos, mas ensiná-lo a reconhecer tratores de forma adicional. E como tratores
têm muitas características dos demais veículos como: roda, pneu, volante, movimento, etc, transferiremos toda a
aprendizagem que tivemos na primeira tarefa e adicionar o caso dos tratores. A esse processo se dá o nome de
Transfer Learning. Por isso que Transfer Learning pode ser de nido como usar o que se aprendeu em uma
aplicação para generalizar para outras aplicações46. Nesse sentido, você, leitor, concorda comigo tratar-se muito
mais de um atalho do que de uma técnica em si?
E há outra vantagem. Foram utilizadas 10 milhões de imagens para treinar o modelo original. Porém, para
adicionar tratores, precisaremos de uma quantidade bem menor de imagens (por exemplo, mais ou menos 1.000
imagens).
O que estamos vendo, portanto, é que Transfer Learning provê muita velocidade para as aplicações, em
linha com o raciocínio desenvolvido no Capítulo 7, no qual argumentamos que a difusão da Inteligência Arti cial
pode ser muitíssimo veloz (um dos principais fatores que diferenciava a Revolução da Inteligência Arti cial da
Revolução Industrial) 48.
47
Assim, Transfer Learning tem se popularizado fortemente em algoritmos de Deep Learning, dada a enorme
quantidade de dados e capacidade de processamento necessárias para o seu treinamento, especialmente em
aplicações de visão computacional e de processamento de linguagem natural (ambas requerem quantidades
assustadoras de dados para treinar os algoritmos). Mais tecnicamente, isso signi ca aproveitar algumas camadas
(layers) das redes neurais, especialmente as primeiras, modi cando somente as últimas, de acordo com o objetivo
desejado.
A Figura 9.12 resume gra camente o signi cado de Transfer Learning.
Figura 9.12: Representação grá ca da técnica de Transfer Learning.
: ( ) .
Figura 9.13: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial, com a inserção de Knowledge Graph e Simbolic
Reasoning.
: .
As técnicas de Simbolic Reasoning foram as técnicas dominantes da Inteligência Arti cial até 1980 e são hoje
conhecidas como Good Old-Fashioned Arti cial Inteligence – GOFAI50.
Para compreender Simbolic Reasoning vamos começar discutindo a diferença entre Simbolic Reasoning e Machine
Learning. A maior diferença entre ambas está na forma pela qual o “aprendizado ocorre”. O Machine Learning,
especialmente o Deep Learning, busca aprender a otimizar as relações existentes entre os Inputs – A e os Outputs –
B. Trata-se de uma técnica que aprende a otimizar as relações de causa-efeito. Já as Simbolic Reasoning são regras
criadas por seres humanos, ou seja, a máquina aprende somente o que o ser humano ensinar, da forma como ele
ensinar51. Por isso, muitos associam Simbolic Reasoning à primeira onda da Inteligência Arti cial na classi cação
da DARPA: Handcrafted Knowledge52, apresentada no Capítulo 5.
Para que a aprendizagem ocorra em Simbolic Reasoning, é necessário que nós, seres humanos, compreendamos
as relações entre dois fatos: o Input – A e o Output – B, para que possamos, posteriormente, programar as
relações. Diferente de Machine Learning, Simbolic Reasoning não tem a capacidade de se automodi car ou
se autoaperfeiçoar quando expostos a mais dados53. Em outras palavras, Simbolic Reasoning não consegue
ser tão dinâmica e sempre depende de intervenção humana para conseguir realizar certas mudanças em seus
algoritmos54.
VOCÊ SABIA?
Os antigos, mas muito úteis, Robot Process Automation(RPA) podem ser classi cados como uma técnica de Simbolic Reasoning, apesar
de muitos nem o considerarem Inteligência Arti cial, dada a sua limitada “inteligência”55.
Conhecendo essas distinções entre os dois grupos de técnicas de Inteligência Arti cial, ca mais fácil
compreender porque a maior parte das aplicações, que efetivamente permitiram a decolagem e o salto da IA,
tenham vindo de Machine Learning. Porém, há exceções e Knowledge Graph é certamente uma delas56.
Para compreendermos Knowledge Graph vamos utilizar como exemplo a sua maior aplicação hoje: o Knowledge
Graph do serviço de busca do Google.
A gura a seguir mostra o resultado pela busca da expressão “Tim Maia”, um dos nossos maiores e saudosos
cantores. Observe que o Google apresenta no lado direito da tela um grá co, um resumo de informações sobre o
cantor Tim Maia. É praticamente um resumo de tudo o que você possa querer saber quando usou a chave de
busca “Tim Maia”: fotogra a, sua pro ssão, links de onde suas canções estão disponíveis, resumo de sua
biogra a, data de nascimento, data de falecimento, nomes dos lhos, links para as suas principais músicas e
álbuns mais famosos.
Esse resumo fantástico é realizado por meio da técnica de Knowledge Graph, a construção de uma base de dados
com as informações-chave sobre pessoas, personalidades, celebridades, hotéis, lmes, entre tantas outras coisas
que possam interessar a organizações ou grupos de pessoas.
Knowledge Graph tem criado muito valor econômico para as organizações que utilizam essa técnica
de Inteligência Arti cial (que em geral são as organizações de maior porte). Ela tem um potencial incrível
de agregar valor para qualquer organização que precise criar uma base de dados, extraídos de uma
base de dados maior, que sumarize as informações para alguma nalidade. Apesar disso, ainda existem
pouquíssimos estudos acadêmicos sobre Knowledge Graph57.
Observe que não há, nas características listadas acima, qualquer menção à Inteligência Arti cial. Pois é, a
Robótica existe independentemente da existência da IA. Um bom exemplo disso pode ser um robô que
realiza a tarefa repetitiva de pegar um determinado item num local para colocá-lo em outro. Trata-se de algo
facilmente programável, principalmente se pudermos de nir ou especi car precisamente o tipo de objeto que
será pego, onde será pego e onde será colocado. E esse robô é autônomo, pois ele não precisa de nenhuma
interação humana para realizar essa tarefa. Ele não tem e não requer nenhum tipo de inteligência para a
realização dessa tarefa64 .
Assim como o exemplo ilustra, muitos robôs não são arti cialmente inteligentes. Até bem pouco tempo
atrás, praticamente todos os robôs industriais podiam somente ser programados para fazer uma série repetitiva
de movimentos que não requeriam Inteligência Arti cial65.
Porém, é possível adicionarmos Inteligência Arti cial aos robôs. E robôs com IA formam justamente a
ponte existente entre a Robótica e a Inteligência Arti cial. Para facilitar, vamos retomar o nosso exemplo do robô
que realiza a tarefa repetitiva de pegar um determinado item num local e colocá-lo em outro. Poderíamos aqui
utilizar Inteligência Arti cial para ampliarmos as capacidades desse robô. Como? Por exemplo, adicionando uma
câmera para ele conseguir identi car se há objetos à sua frente, quais objetos são esses e onde eles estão, para
então decidir se ele deve ou não pegar e deslocar tal objeto. Essas são tarefas típicas de algoritmos de Inteligência
Arti cial66.
Dessa forma, podemos dizer que os algoritmos de Inteligência Arti cial são frequentemente
necessários para permitir que os robôs desempenhem tarefas e atividades mais complexas67. A gura a
seguir ilustra essa relação entre IA e Robótica.
Entretanto, vale ressaltar que, mesmo quando a Inteligência Arti cial é usada para controlar robôs, os
algoritmos de Inteligência Arti cial são somente uma parte de um grande sistema de robótica, o qual inclui
sensores, atuadores e programação não relacionada à Inteligência Arti cial. Essa programação não relacionada à
IA simplesmente executa uma sequência bem de nida de instruções. E isso é diferente da Inteligência Arti cial,
que, por sua vez, tenta imitar em algum nível a inteligência humana (no caso do nosso exemplo, a capacidade de
ver e reconhecer determinados objetos especí cos).
Da mesma forma, podemos dizer que a maior parte do uso de Inteligência Arti cial não está
relacionada a controlar robôs. Conforme ilustramos inúmeras vezes ao longo deste livro, os algoritmos de
Inteligência Arti cial “residem” nos mais diferentes tipos de equipamentos, como celulares, smartphones,
desktops, notebooks, carros, entre outros, não precisando de um robô para existirem68.
De forma geral, até agora, a Robótica e a Inteligência Arti cial têm pouca interseção real. Porém, a
tendência é que isso se intensi que muito nos próximos anos, especialmente pelo potencial que a IA tem de
tornar os robôs mais inteligentes e capazes de realizar atividades cada vez mais complexas69. É exatamente dessa
intersecção que depende a quarta onda da Inteligência Arti cial, segundo o professor Kai-Fu Lee70: a Inteligência
Arti cial Autônoma.
VOCÊ SABIA?
O professor Hans Moravec foi um dos primeiros a discutir, na década de 1980, esse descompasso entre o avanço dos algoritmos e o
avanço da habilidade e destreza física dos robôs, que posteriormente cou conhecido como Paradoxo de Moravec. A ideia principal do
paradoxo é simples: contrário à percepção popular, é relativamente mais fácil para a Inteligência Arti cial imitar as habilidades
intelectuais ou computacionais de alto nível de um ser humano adulto do que dar a um robô a percepção e as habilidades sensorial-
motoras de uma criança.
Os algoritmos podem ser muito melhores do que seres humanos fazendo previsões baseadas em dados, mas robôs não conseguem
fazer as tarefas de limpeza de uma camareira de hotel71 72.
Figura 9.13: Diagrama geral de hierarquia, grupos e subgrupos de técnicas de Inteligência Arti cial,
com a inserção de Knowledge Graph e Simbolic Reasoning .
: .
Para saber mais sobre as técnicas de Reinforcement Learning – Aprendizagem por reforço:
Para saber mais sobre as técnicas de Generative Adversarial Network (GAN) – Rede adversária
generativa: