Você está na página 1de 118

Produzido por:

I2AI
International Association of Artificial intelligence
https://www.i2ai.org/

Cordenador: Marco A. Lauria


Autores:

• Alessandro de Oliveira Faria


• Alexandre Seidl

• Alexandro Romeira
• Guilherme Nunes
• Juliana Burza
• Luís Paulo Farias
• Marco A. Lauria
• Natan Rodeguero
• Oscar Adorno
• Patrícia Prado
• Roberto Lima
• Victor Figueiredo

1ª Edição - 2021

1
Como implementar IA na sua Empresa

ÍNDICE

Tema Página
Como implementar IA na sua Empresa, Sumário e Apresentação 3
Primeiro Volume – Entendendo IA 9
• Capítulo 1: O que é a Inteligência Artificial e quais
benefícios ela pode trazer para sua empresa
Segurança LGPD 15
O que é Inteligência Artificial 17
O que é aprendizado de máquina 29
• Capítulo 2: Casos de uso de IA mais comuns e seus 37
benefícios
Chatbots 42
Visão Computacional 45
Algoritmos de Recomendação 48
Implementando um Algoritmo de Recomendação 53
Processamento de Linguagem Natural (NLP) 56
Segundo Volume – Construindo Projetos de IA 65
• Capítulo 3: Fazendo um levantamento dos recursos
internos disponíveis
• Capítulo 4: Principais fornecedores e funcionalidades 71
disponíveis via API
• Capítulo 5: Escolhendo um projeto 85
Terceiro Volume – Implementando IA na sua Empresa 92
• Capítulo 6: Passos de um Projeto de IA
• Capítulo 7: Incorporando IA na sua Empresa 100
Apêndice 102
Referências 104
Sobre a I2AI 105
Autores – minibiografias 110
Material suplementar aos capítulos 113

2
Como implementar IA na sua Empresa

Sumário

Apresentação

Primeiro Volume: Entendendo IA

Capítulo 1: O que é Inteligência Artificial e quais benefícios ela pode trazer


para sua empresa
A Inteligência dos dados como ativo estratégico para as empresas na era digital
– Patrícia Prado e Alessandro de Oliveira Faria
A Importância dos Dados
BI, Analytics, Big Data e Inteligência Artificial
O Recurso mais valioso (o novo óleo)
Criando uma Cultura de Dados
Governança e Qualidade de Dados
Segurança. LGPD

O que é Inteligência Artificial


– Luís Paulo Farias
O que o cérebro humano faz melhor
O que o cérebro eletrônico faz melhor
O melhor dos dois mundos
Evolução de máquinas Burras para Máquinas Inteligentes
Dado, Informação e Conhecimento

O que é Aprendizado de máquina (Machine Learning) – QSOFT


– Guilherme Nunes
Processos de Aprendizagem
Aprendizagem Supervisionada
Aprendizagem não supervisionada
Aprendizagem por Reforço
Modelos GAN (Redes Adversárias Generativas)

Entendendo IA, tecnologias correlatas e seu Impacto na Sociedade – Marco Lauria/


I2AI
Inteligência Artificial e Tecnologias correlatas
Impactos da Inteligência Artificial na Sociedade

Capítulo 2: Casos de Uso de IA mais comuns e seus benefícios


• RPA (Alexandre Seidl)
• Chatbots (Roberto Lima e Victor Figueiredo)
• Visão Computacional (Alessandro de Oliveira Faria)
• Algoritmos de Recomendação (Patrícia Prado/Oscar Adorno)
• Processamento de Linguagem Natural – NLP (Alexandro Romeira)

3
Segundo Volume: Construindo Projetos de IA

Capítulo 3: Fazendo um levantamento dos recursos internos disponíveis


– Juliana Burza
Mapeamento de competências
Identificando as deficiências
Estrutura Organizacional Sugerida e Patrocinadores
Metodologia Agile e Squads
Complementando o time interno
Contratando Recursos
Comprando Serviços
Realizando Parcerias
Workshops e Hackatons
Garagens

Capítulo 4: Principais fornecedores e funcionalidades disponíveis via API


– Marco Lauria/I2AI
Mecanismo de Precificação
Entendendo as funcionalidades
Principais fornecedores de IA
AWS – Amazon Web Services
Microsoft Azure
Google Cloud
IBM Watson

Capítulo 5: Escolhendo um Projeto


– Marco Lauria/I2AI
Análise do Grau de Maturidade da Empresa
Como Escolher um candidato para IA
Matriz de Dificuldade e Benefício para o Negócio
Realizando diligência técnica e de negócio
O que desenvolver? Como aproveitar o que já existe?
Obtendo Vantagem Competitiva
O círculo Virtuoso de IA
O poder das plataformas

Terceiro Volume: Implementando IA na sua Empresa

Capítulo 6: Passos de Um Projeto de IA


– Patrícia Prado
Coletando os dados necessários
Adquirindo dados
Evitando ética e vieses
Escolhendo e Treinando o Modelo
Testando o Modelo
Disponibilizando para uso
4
O que fazer e o que não fazer

Capítulo 7: Incorporando IA na sua Empresa


– Natan Rodeguero/M-Brain Market Intelligence
Playbook de Transformação com IA
Tenha um Problema para Solucionar
Execute Projetos Piloto para ganhar momento
Montar um time para trabalhar com IA
Forneça Treinamento abrangente sobre IA
Desenvolvendo uma estratégia para IA
Trabalhe a Comunicação Interna e Externa

Apêndice:
Cronologia, uma breve história da Inteligência Artificial
– Luís Paulo Farias

Referências
Livros
TEDs
Filmes
I2AI

Autores
Minibiografia dos Autores

Material Suplementar aos Capítulos

5
Como implementar IA na sua Empresa

Sumário e Agradecimentos

A Inteligência Artificial (IA) e os algoritmos estão presentes em inúmeros aspectos do


nosso cotidiano, entretanto a maioria das pessoas não se dá conta disso e nem sabe
como utilizá-la para obter vantagem competitiva nos negócios.

Este e-book foi escrito para explicar de forma sucinta o que é Inteligência
Artificial e como implementar projetos de IA na sua empresa. Você encontrará aqui
casos de uso, ferramentas para auxiliar na implementação, dicas de como escolher um
piloto, estratégias para montar um time e uma série de referências para que possa
ampliar seus conhecimentos no assunto.

Ele é fruto dos trabalhos do Comitê de Inovação da empresa I2AI, juntamente


com dois estudos que estarão disponíveis como documento e chatbot para consulta:

• Inovação como Diferencial Competitivo – Descrevendo casos de


uso real de IA no Brasil e quantificando os benefícios obtidos com essas
implementações.
• Mapeamento de Startups e provedores de Soluções de IA -
Trazendo um Guia com as principais empresas de IA e Analítica no
Brasil, incluindo suas referências.

Um agradecimento especial a todos os participantes do Comitê de Inovação que


contribuíram para a realização deste livro. Nas nossas reuniões virtuais discutimos o
escopo, promovemos o debate e revisão do conteúdo que se apresenta nas páginas
seguintes.

Nos preocupamos em apresentar os conceitos básicos, levando em conta que o


leitor não possui um conhecimento profundo do tema, porém, incluímos várias
referências ao final, para que ele possa se aprofundar nos aspectos que mais o
interessem.

Sem a colaboração e incentivo de vocês este livro não seria possível.

Aldo Segnini Henrique Maia


Alessandro Faria Jose Pires
Alexandre Del Rey Juliana Burza
Alexandro Romeira Juvenal Santana
Andressa Del Rey Luis Paulo
Abner Almeida Mauricio Castro
Alexandre Seidl Natan Rodegueiro
Amanda Hurtado Oscar do Amaral Adorno
André Magno Patricia Prado
André Vianna Paulo Barcelos
Carlos Lamon Paulo Campbell
Cassiano Machio Paulo Vieira
Cristiana Ferronata Renato Destefani Bassi
Cristiano Kruel Roberto Lima
Davidson da Rocha Rodrigo Martinez de Lima

6
Eduardo Barbosa Rogerio Nogueira
Felipe Munhoz Thiago Spejo
Gilberto Lopes Victor Figueiredo
Haniel Muniz Vitor Nogueira

Apresentação

O e-book está dividido em três volumes.

O primeiro volume, Entendendo IA, ressalta o valor dos dados, a evolução dos
conceitos desde os primórdios de BI (Business Intelligence), analítica, Big Data, até os
dias de hoje. Descreve o que é Inteligência Artificial, aprendizado de máquina
(Machine Learning) e os diversos tipos de aprendizagem. Apresenta também os
principais casos de uso de forma resumida. São dois capítulos que trazem os conceitos
básicos para entender os demais.

O segundo volume, Construindo Projetos de IA, explica quais são as


competências necessárias, como identificá-las em sua equipe e suplementar com
recursos externos, se necessário. Descreve os principais fornecedores de APIs, o
mecanismo de precificação e, finalmente, fornece orientação sobre como priorizar e
escolher um projeto piloto para sua empresa.

O terceiro volume, Implementando IA na sua empresa, mostra os passos


necessários para implementar esse projeto Piloto. Como coletar os dados requeridos,
treinar e testar o modelo. O que fazer e o que evitar e inclui um Playbook de
Transformação com IA, baseado na metodologia sugerida por Andrew Ng em seu curso
AI for Everyone, na plataforma Coursera.

O Apêndice traz uma breve história da Inteligência Artificial com a cronologia


dos fatos mais relevantes.

Incluímos também diversas referências sobre o material abordado ao longo do


e-book e informações adicionais sobre cursos, livros, vídeos, filmes e TEDs
(Technology, Entertainment and Design Converged) sobre o assunto.

7
8
Primeiro Volume: Entendendo IA

Capítulo 1: O que é a Inteligência Artificial e quais benefícios ela pode


trazer para sua Empresa

A inteligência dos dados como ativo estratégico para as empresas na era


digital

Por Patrícia Prado

A Importância dos Dados

O papel dos dados para os negócios está mudando drasticamente. As empresas


que durante anos usaram os dados como parte integrante de suas operações, buscando
eficiências internas e olhando sobre o passado de suas operações, hoje exploram
infinitas oportunidades capturadas de novas fontes, desenvolvem modelos
inteligentes e inovam em seus negócios buscando novos diferenciais competitivos, não
necessariamente dentro da sua “linha” core de atuação.

Isso pode parecer um pouco assustador, mas a realidade é que não existe
momento melhor para experimentar o novo e as empresas que ousaram, demonstram
que os ganhos são inúmeros e as oportunidades infinitas. Entretanto, tudo que é novo
e diferente desperta dúvidas. A necessidade de novas informações é sempre
importante para construir uma visão crítica e buscar o novo espaço dentro desse
mundo de oportunidades: desde um aporte de mais conhecimento técnico a uma
reinvenção dentro da sua empresa ou do seu ecossistema de negócios.

BI, Analytics, Big Data e Inteligência Artificial

É fato que a 4ª Revolução Industrial é diferente de tudo o que a humanidade já


experimentou. São novas tecnologias que fundem os mundos físico e digital; e essa
mudança se iniciou desde o modo como produzimos e transportamos bens e serviços
até a forma de como nos comunicamos. Todos os setores, segmentos de empresas e
lideranças vivem um momento desafiador em todas as esferas sociais e econômicas,
buscando inovações “exponenciais” e capacitação acelerada que os torne preparados
para gerenciar os riscos e as complexidades dessa mudança. A responsabilidade é
imensa, pois temos nas mãos uma janela de oportunidades para desenvolvermos as
novas tecnologias de forma a impactarmos positivamente o mundo e contribuir com a
sociedade por meio das pessoas e dos negócios sustentavelmente.

Essa nova era está surgindo e quem não se adaptar, certamente, vai ficar para
trás, sejam pessoas, empresas ou toda uma comunidade em seu entorno. Soluções de
Big Data, Analytics e Inteligência Artificial são e serão cada vez mais instrumentos
extremamente poderosos em um cenário econômico competitivo, no qual quase
sempre tem que se fazer mais com menos recursos e em menor espaço de tempo.

9
É exatamente aí que o Big Data e a IA (Inteligência Artificial) proporcionam,
como ferramentas inteligentes em seus diversos graus de complexidades e potencias,
sua adoção vital para qualquer tipo de organização como alternativa competitiva de
negócio. A questão aqui não é se as empresas devem implementar, mas porque ainda
não iniciaram o movimento de transformação digital e criação de um novo patamar de
novas tecnologias que apoiem seus negócios nos mais amplos catalizadores de
oportunidades.

Para uns, a primeira alternativa da IA pode estar centrada na automação, ao


substituir tarefas repetitivas, mecânicas e que não exigem muita sofisticação. Para
outros, pode ser uma demanda por AI ao fornecer diagnósticos mais precisos e,
portanto, aumentando a capacidade de produção de algo mais sofisticado.

Figura 1 – Big data e AI

Cabe a cada negócio, primeiramente, entender ou construir seu “Big Data”, que
significa desenvolver um sistema de obtenção de informações a partir do conjunto de
dados grandes (megadata) não estruturados. Conjuntos de dados estes que são
denominados “Data Lake” ou lago de dados, porém, em alguns casos precisam ser
cuidadosamente entendidos ou construídos para não se tornarem “Pântanos de
dados”, que significariam dados tão ou mais poluídos que nossos atuais rios ou mares
mais conhecidos desse Brasil. Paralelamente a isso, repensar oportunidades aderentes
ao negócio, de acordo com as necessidades e/ou novas oportunidades de geração de
valor, é inegável que seja essencial e urgente sob a ótica de importância. Bem,
considerando o significado da combinação de avanços tecnológicos como sensores de
dados de baixo custo, poder de computação e armazenamento, IA, mobilidade e
robótica, um número enorme de processos de negócios será automatizado nos
próximos anos.

10
Dados: O Recurso mais valioso (o novo óleo)

Mesmo considerando que em 2020, vivemos um momento histórico de


aceleração digital e aplicação de tecnologias na construção de valor pela conexão entre
empresas e seus clientes/consumidores, principalmente pelo momento pandêmico, o
matemático, Clive Humby, trouxe à tona uma frase que ficou famosa: “Os dados são o
novo petróleo”, lá em 2006. Na época, muitas empresas se perguntaram o quê
realmente ele desejava provocar com isso. Na realidade, ele chamava a atenção sobre
como lidar com os grandes volumes de dados disponíveis, o que ainda é um tema
bastante debatido e que incomoda muito as empresas nos dias de hoje.

Como já afirmado, assim como o petróleo, os dados são valiosos, mas se não
refinados, não bem aplicados (usados), consequentemente não gerarão o devido valor.
E, para criar uma entidade valiosa que impulsiona atividades lucrativas, os dados
devem ser detalhados, analisados para que gerem informações e tornem
conhecimento de valor para os negócios.

Há duas décadas, estudando e trabalhando com matemática e estatística, eu


acompanho cientistas de dados pioneiros e inovadores na área de geração de insights,
relacionados à geração de valor para os negócios. E, nesse caso, Clive é globalmente
reconhecido pelo seu pioneirismo por ter sido um dos fundadores de um dos maiores
negócios globais de insights de dados de comportamentos de clientes, baseados em
dados de empresas. Negócio esse que atende até hoje também diversas empresas
brasileiras na geração de insights a partir da inteligência de dados. Um exemplo é uma
das maiores redes de supermercados do Brasil que tem, inclusive, um dos primeiros
programas de fidelidades do país no seu setor, com ofertas segmentadas desde o início
do ano 2000 , com ofertas de produtos e serviços suportados por inteligência de dados
para seus consumidores. Tudo isso desenvolvido com suporte dessa empresa que ele
é cofundador. Claro que, no início do projeto, com aporte de muito menos tecnologia
avançada do que atualmente pode ser desenvolvido com uso de AI.

Isso só nos faz compreender com mais força que não é novidade de agora que
os dados são valiosos o quanto mais soubermos explorar deles as informações. E que,
para empresas do futuro, os dados se tornarão um grande patrimônio e o aprendizado
se tornará um recurso essencial. Os dados são literalmente os "sentidos" das máquinas
e da IA da empresa. As empresas precisarão investir na coleta de dados (por meio de
sensores, ecossistemas e parcerias de dados e obtenção de permissões do cliente). Elas
precisarão gerenciar bem os dados (investindo em nuvem e lagos de dados) - para que
possam ser usados e ao mesmo tempo serem adequadamente protegidos (com
políticas de privacidade relevantes e segurança cibernética necessária).

Criando uma Cultura de Dados

Como afirmado acima, impulsionados pela esperança de satisfazer cada vez mais
seus clientes e consumidores, seja simplificando as operações ou acelerando sua
estratégia, as empresas acumularam nas últimas décadas milhões de dados. Somados
pelos investimentos de tecnologias e “contabilizados” generosamente pelos talentos
analíticos. No entanto, na era digital onde as ações, o relacionamento e a conexão entre

11
as partes são, em sua maioria, on-line e muito mais dinâmicos, ter uma cultura forte e
orientada a dados torna-se essencial e de maior valor para o negócio.

E por que isso parece tão difícil, a priori?

A mudança cultural é a parte mais desafiadora. Depois de participar nestes


últimos anos, de inúmeros projetos juntamente com empresas brasileiras e
multinacionais, desenvolvendo a cultura de dados dentro dessas organizações; pude
chegar a vários aprendizados. Na minha opinião, existem três deles essenciais e
inegociáveis que se tornaram “fatores-chave de sucesso” nesta jornada nas
organizações que aceitaram a mudança e iniciaram a jornada. São eles:

1. A cultura orientada a dados começa no topo. A alta liderança precisa


compreender o que significa essa mudança de cultura e participar dela. Isso é o
que faz e acelera a diferença nas muitas empresas, chamadas nativas digitais,
que nascem dentro dessa organização e suas equipes; tecnologias e processos
fluem evolutivamente conforme suas estratégias. Os líderes sêniores não
precisam renascer como engenheiros de aprendizado de máquina, porém se
desejam ter suas empresas centradas em dados, não podem permanecer
ignorantes ao idioma dos dados.

2. Fazer as perguntas certas para encontrar as respostas mais assertivas é óbvio,


mas não é simples em alguns casos. Escolher métricas a partir dos objetivos-
chave do negócio o auxiliarão a trilhar um caminho importante nessa jornada.

3. Construa uma base de dados confiável e transparente. Como já comentado


anteriormente sobre a importância do gerenciamento dos bancos de dados
(megadata), reforço neste ponto a necessidade da disponibilidade, ou melhor,
a facilidade de acesso para as áreas de negócio para que trabalhem em conjunto
com a área de tecnologia, fomentando a aprendizagem e a construção de valor.
Tudo isso num processo de dissolução de silos de informação e aceleração de
ações, propondo inovações para o negócio a partir dos dados.

Bem, segundo um estudo da consultoria BCG (Boston Consulting Group),


algumas das empresas que estão na vanguarda dessas tendências tecnológicas e
digitais já começaram a jornada da IA e prosperarão no mundo pós-COVID.
Novamente, a história fornece um guia: durante as quatro crises econômicas globais
anteriores, 14% das empresas conseguiram aumentar o crescimento das vendas e as
margens de lucro.

Inclusive, reforça que os nativos digitais podem ter uma vantagem inicial.
Outras empresas terão que agir rapidamente para adquirir as habilidades, capacidades
e formas de trabalho necessárias para iniciar a jornada da IA. Mas,
independentemente do ponto de partida, as empresas devem olhar além da crise do
COVID-19 e começar a se concentrar nas transformações que colocam a IA no centro.

12
Governança e Qualidade de Dados

Falando de um dos temas mais importantes relacionados aos dados, que é a


governança dos dados, esta pode impactar a organização inteira. O que se pode
incorporar dentro do que se denomina como “qualidade dos dados” é mais amplo que
sua integridade; mas abrange a precisão, a consistência, a acessibilidade e todas as
qualidades dos dados importantes ao negócio em particular e, em última análise,
determinadas pela empresa.

Bons dados são importantes, sempre para a conformidade das análises e


excelência operacional dos processos, todavia alguns setores, como bancos e produtos
farmacêuticos estão sujeitos a regulamentações que os obrigam a melhorar seus dados
de maneira sustentável. Cumprir com as obrigações regulamentares, propiciar a
qualidade dos dados para estimular eficiência dos processos e jornadas mais modernas
e simplificadas aos clientes, além de análises mais avançadas e inteligência artificial
(IA) ou até criar negócios são inúmeras oportunidades para expandir seu valor.

Um grande banco europeu liberou vários bilhões de dólares em capital, depois


que os melhores dados de exposição diminuíram seus amortecedores regulatórios.
Uma empresa líder em bens de consumo gerou centenas de milhões de dólares
anualmente, após implementar uma abordagem hiper personalizada que alavancou os
dados dos clientes ao integrá-los aos dados externos nos modelos de IA. Um fabricante
global de aço reduziu seus custos em centenas de milhões de dólares, ao otimizar os
dados da cadeia de suprimentos, integrar fluxos de dados internos e externos e usar os
dados para otimizar suas operações. Implementada adequadamente a governança de
dados, focada em sua qualidade, pode ajudar as empresas a colher benefícios
quantificáveis significativos.

Segundo a consultoria BCG (Boston Consulting Group), o que impede as


empresas de desenvolver e incorporar governança de dados de forma mais ágil e
consistente para objetivar melhorar a qualidade de seus dados pode ser resumido em
três macro aprendizados:

1- Expectativas altas – À medida que as empresas absorvem o impacto positivo


dos aplicativos analíticos e de IA, elas desenvolvem um novo apetite por mais
qualidade dos dados e maior velocidade de entrega.

2- Recursos e capacidades com pouca execução – A maioria das empresas


possui experiência relativamente limitada no uso de uma função de governança
de dados em toda a empresa. Como tal, existem muito poucos executivos -
dentro ou fora da organização – com a experiência e os conhecimentos
necessários para conduzir uma operação de governança de dados.

3- A falta de um entendimento compartilhado dos dados


“Propriedade” – Não reconhecer que os dados são um ativo crítico para os
negócios, pode ser o maior problema de todos. Muitas empresas ainda
acreditam que qualquer coisa que contenha a palavra “dados” pertence
exclusivamente à TI e seguem suas orientações no que tange à governança de
dados e deixam de aproveitar, na maioria das vezes, o potencial valor comercial
que as informações contidas nesses dados podem criar.

13
Como regra geral, todas as empresas precisam de definições claras e
inequívocas de qualidade dos dados, diretrizes de medição e os principais papéis e
responsabilidades que governam as melhorias. A política de qualidade dos dados
também deve definir os processos pelos quais os KPIs (Key Performance Indicators)
são definidos e medidos; as funções e responsabilidades das pessoas que participam
de sua melhoria, o processo de alocação de orçamento para essas atividades e, de
maneira mais geral, todos os elementos organizacionais e técnicos necessários para
monitoramento contínuo e melhoria sustentável da qualidade dos dados. As políticas
de dados devem corresponder e solucionar os problemas específicos de dados da
empresa e suas causas principais. Eles são um meio para atingir um fim e
desempenhar papéis importantes no bom funcionamento, consolidação e
racionalização dos esforços de dados. Esquecer isso pode levar a esforços
desnecessários, desperdício de recursos e burocracia excessiva. Em último caso, opte
pela simplicidade. A probabilidade de acertos é sempre maior.

14
Segurança. LGPD (Lei Geral de Proteção aos Dados)

Por Alessandro de Oliveira Faria

Soluções de segurança e o impacto no investimento

Atualmente as empresas estão enfrentando uma fase em que a segurança da


informação é um fator imprescindível ao negócio. A LGPD impactará de maneira
significativa o mercado e tanto as startups como as grandes empresas devem estar
atentas aos processos de conformidade das atividades às normas do sistema de
proteção de dados.

O preço de apenas um equipamento WAF (Web Application Firewall) pode


ultrapassar um milhão de reais em CAPEX (Capital Expenditures - ou, despesas de
capital ou investimento em bens de capital), sem contar outras ferramentas
imprescindíveis para a segurança da informação. Em março de 2020, como Membro
do Conselho OWASP SP (*), tive a oportunidade de entender sobre os testes
submetidos em soluções de código aberto livre, isentos de licenciamento e baixo custo
de investimento.

Então, em tempos de GDPR (General Data Protection Regulation ou


Regulamento Geral de Proteção de Dados), LPGD e Bacen 4658, a segurança da
informação não é apenas assunto para as grandes corporações. O problema começa
quando nos deparamos com subscrições de altos valores (impraticáveis por startups)
para produtos de mercado para proteger aplicações WEB.

Uma solução de segurança para aplicativos Web (WAF - Web Application


Firewall) filtra, monitora e bloqueia os dados trafegados no aplicativo ou site da Web.
Esse recurso é capaz de filtrar o conteúdo de WebAPI (Web Application Programming
Interface), sites e aplicativos web específicos. Essa tecnologia permite evitar ataques
decorrentes de falhas de segurança de aplicativos da Web e sites. Ao configurar
devidamente as soluções de segurança opensource para sua aplicação, muitos ataques
podem ser identificados e bloqueados.

Um finlandês, junto a sua equipe, submeteu ataques do mundo real para


mensurar a eficiência das soluções de segurança de mercado, comparado às soluções
opensource devidamente configuradas.

Mesmo sendo uma solução disponível gratuitamente na internet, a ferramenta


teve desempenho excepcional nos testes, pois foi o único serviço com desempenho
adequado ao bloquear ataques do mundo real. Nos resultados, para surpresa de todos,
a solução opensource superou os demais produtos proprietários com grande margem
e demonstrou ser capaz de desempenhar resultados compatíveis com as soluções
comerciais de mercado.

(*) A Fundação OWASP® trabalha para melhorar a segurança do software, por


meio de seus projetos de software de código aberto liderados pela comunidade. Têm
centenas de capítulos em todo o mundo, dezenas de milhares de membros e organiza
conferências locais e globais.
15
Conclusão: Soluções de código aberto proporcionam resultados que
atendem às demandas do mercado corporativo sem o alto custo de
licenciamento. Assim sendo, antes de obter soluções proprietárias de alto
custo, é pertinente consultar as opções opensource, dispensando assim a
necessidade de altíssimos investimentos para o cumprimento das
conformidades (compliance) e regras de segurança estabelecidas pelo
Bacen e em conformidade com a LGPD.

16
O que é inteligência artificial?

Por Luís Paulo Farias

Breve introdução

O cérebro humano é um dos mais sofisticados sistemas já criados pela natureza


que se tem conhecimento. Milhares de anos de evolução contribuíram para o seu
desenvolvimento. Como resultado, somos capazes de compreender processos
inerentes à natureza e efetuar sinapses acerca das causalidades empíricas. Com base
nesse entendimento, somos capazes de aprender com a observação da natureza e criar
máquinas e dispositivos semelhantes para evoluir e melhorar as nossas vidas
constantemente. As máquinas, equipamentos e dispositivos amplificam os sentidos
humanos e nos levam para novos mundos – ex.: nano/atômico, cosmos, o mais
profundo dos mares etc.

De modo resumido, a inteligência humana opera com o paradigma de sensação,


armazenamento, processo e ação. Informações do ambiente são coletadas pelos órgãos
sensoriais, armazenamos as informações (memória), processamos as informações,
para formar nossas crenças/padrões e as usamos para agir, com base nas demandas e
interações do contexto e estímulos situacionais. A humanidade está num momento de
inflexão, com o desenvolvimento de máquinas que “imitam” o cérebro humano para
poder detectar, armazenar e processar informações para tomar decisões significativas
e ampliar as habilidades humanas.

O filósofo japonês Keiji Nishitani (1900-1990) nos pontua que o


desenvolvimento da tecnologia pautada nas capacidades cognitivas humanas é a
expressão máxima da própria natureza, a dicotomia entre o ser humano e natureza
torna-se inócua: “[...] as ações das leis da natureza encontram sua expressão mais pura
nas máquinas [...]. As leis da natureza operam diretamente nas máquinas, com um
imediatismo que não pode ser encontrado nos produtos da natureza. Na máquina, a
natureza é trazida de volta para si mesma de um modo mais purificado (abstraído) do
que é possível na própria natureza”; in Laymert Garcia dos Santos (2003:204).
Seguindo nessa mesma linha de pensamento, podemos estressar o argumento no
sentido de que a inteligência artificial não ameaça a existência humana, ao contrário,
potencializa as suas habilidades, comportamentos e atitudes (CHA).

A convergência entre a inteligência humana e de máquina (artificial),


intensificada nos últimos anos, está moldando a realidade e o processo de
transformação digital. A atividade cognitiva humana é amplificada com o advento das
máquinas. A capacidade de gerar, consumir e processar grandes volumes de dados
tornou-se acessível (cloud computing, processamento distribuído e máquinas
virtuais), limitada pela criatividade e desenvolvimento de soluções com aderência
mercadológica.

O grande volume de dados (big data) gerado atualmente por pessoas,


máquinas, equipamentos, eletrodomésticos, sensores, itens de vestuário e afins (dados
estruturados e não estruturados) necessita de técnicas e processos específicos. A

17
“inteligência artificial”, possibilita justamente que correlações, classificações,
regressões, dentre outras, sejam aplicadas para capturar esta complexidade.

O homo sapiens, ao longo da sua experiência no planeta, busca a adaptação e a


transposição das condições (a priori) que lhe são dadas pelo ambiente. Neste intenso
processo de troca e acumulação ele tanto molda quanto e é moldado. A cultura e seu
modo da vida são frutos das sinapses efetuadas e impactam diretamente no processo
estruturado de tomada de decisão, tanto individual e coletivo.

De acordo com o Partners in Leadership, os resultados que obtemos (positivos,


negativos) são resultados de nossas ações; nossas ações são resultado das crenças que
possuímos e as crenças que mantemos são resultado de nossas experiências,
representadas de forma singela pela pirâmide de resultados:

Figura 2 - Pirâmide de resultados (Partners in Leadership)

O esquema de pirâmide de resultados está baseado no fato de que resultados


melhores ou diferentes não podem ser atingidos com as mesmas ações. Com as
constantes instabilidades do ambiente competitivo, a adaptação se tornou a regra. Por
exemplo, uma organização que foi incapaz de atingir seus objetivos estratégicos,
precisa calibrar suas ações e o processo de tomada de decisão da gerência e
funcionários. Se a equipe continuar com as mesmas crenças, que se traduzem nas
ações correlatas, a empresa não atingirá os resultados planejados. Para atingir as
metas pré-estabelecidas, faz-se necessária a mudança nas ações diárias da equipe, o
que só é possível com um novo conjunto de crenças. Isso significa uma revisão
estrutural da cultura organizacional.

Da mesma forma, no cerne da evolução da computação, as máquinas criadas


pelo homem não podem evoluir para serem mais eficazes e úteis com os mesmos
resultados (ações), modelos (crenças) e dados (experiências) aos quais temos acesso

18
tradicionalmente. Podemos evoluir para um novo patamar cognitivo se a inteligência
humana e o poder da máquina convergirem.

O que o cérebro humano faz de melhor

Enquanto as máquinas estão alcançando rapidamente a busca pela inteligência,


o cérebro humano possui algumas funções que lhe oferecem um caráter (ainda)
exclusivo:

Estímulo O cérebro humano tem a incrível capacidade de reunir informações


Sensorial sensoriais usando todos os sentidos em paralelo. Podemos provar,
cheirar, tocar, ver e ouvir ao mesmo tempo e processar a entrada em
tempo real. Em termos de terminologia de processamento, essas são
várias fontes de dados que transmitem informações, e o cérebro tem
a capacidade de processar os dados e convertê-los em informações e
conhecimentos. Existe um nível de sofisticação e inteligência dentro
do cérebro humano para gerar respostas diferentes a essa entrada
com base no contexto situacional.
Armazenamento As informações coletadas dos órgãos sensoriais são armazenadas
consciente e subconscientemente. O cérebro é muito eficiente em
filtrar as informações que não são críticas para a sobrevivência.
Embora não haja valor confirmado da capacidade de
armazenamento no cérebro humano, acredita-se que a capacidade
de armazenamento seja semelhante a terabytes em computadores. O
mecanismo de recuperação de informações do cérebro também é
altamente sofisticado e eficiente. O cérebro pode recuperar
informações relevantes e relacionadas com base no contexto.
Entende-se que o cérebro armazena informações na forma de listas
vinculadas, onde os objetos são vinculados entre si por um
relacionamento, que é uma das razões para a disponibilidade de
dados como informações e conhecimento, para serem usados como
e quando necessário.
Poder de O cérebro humano pode ler informações sensoriais, usar
processamento informações armazenadas anteriormente e tomar decisões em uma
fração de milissegundos. Isso é possível devido a uma rede de
neurônios e suas interconexões. O cérebro humano possui cerca de
100 bilhões de neurônios com um quatrilhão de conexões
conhecidas como sinapses conectando essas células. Coordena
centenas de milhares de processos internos e externos do corpo em
resposta a informações contextuais.

19
Baixo consumo O cérebro humano requer muito menos energia para detectar,
de energia armazenar e processar informações. O requisito de energia em
calorias (ou watts) é insignificante em comparação com os requisitos
de energia equivalentes para máquinas eletrônicas. Com
quantidades crescentes de dados, juntamente com a crescente
exigência de poder de processamento para máquinas artificiais,
precisamos considerar a modelagem da utilização de energia no
cérebro humano. O modelo computacional precisa mudar
fundamentalmente para a computação quântica e, eventualmente,
para a biocomputação.

O que o cérebro eletrônico faz de melhor

À medida que o poder de processamento aumenta com os computadores, o


cérebro eletrônico – ou computadores – é muito melhor quando comparado ao
cérebro humano em alguns aspectos:

Acelerar o O “cérebro” eletrônico tem a capacidade de armazenar grandes


armazenamento volumes de informação em alta velocidade. A capacidade de
de informações armazenamento está aumentando exponencialmente (cloud e
novos data centers). Os pacotes de informação são facilmente
replicados e transmitidos de um lugar para outro. Quanto mais
informações tivermos à disposição para análise, padrão e formação
de modelos, mais precisas serão nossas previsões e as máquinas
serão muito mais inteligentes. A velocidade do armazenamento de
informações é consistente nas máquinas quando todos os fatores
são constantes. No entanto, no caso do cérebro humano, as
capacidades de armazenamento e processamento variam de acordo
com os indivíduos.
Processamento O cérebro eletrônico pode processar informações usando “força
por força bruta bruta”. Um sistema de computação distribuído pode verificar,
classificar, calcular e executar vários tipos de processamento em
volumes elevados de dados em milissegundos de forma integrada.
O cérebro humano não consegue se igualar à força bruta dos
computadores.
Computadores podem ser conectados facilmente em rede para
aumentar o poder de armazenamento e processamento. O
armazenamento coletivo pode colaborar em tempo real para
produzir os resultados pretendidos. Embora os cérebros humanos
possam colaborar, eles não podem corresponder ao cérebro
eletrônico nesse aspecto.

20
O melhor dos dois mundos

A inteligência artificial está possibilitando o desenvolvimento do melhor desses


dois mundos ao estender os limites do ser humano. A sofisticação e eficiência do
cérebro humano e a força bruta dos computadores combinadas podem resultar em
máquinas “inteligentes”, que podem resolver alguns dos problemas mais desafiadores
que os seres humanos enfrentam. Nesse ponto, a IA poderá complementar as
capacidades humanas e possibilitará a inteligência cognitiva coletiva (coleta,
processamento e ação). Os exemplos incluem prevenção de doenças com base em
amostragem e análise de DNA, veículos autônomos, produção integrada, robôs em
operações e condições extremas etc.

Adotar uma abordagem estatística e algorítmica dos dados no aprendizado de


máquina e na IA já é popular há algum tempo. No entanto, os recursos e os casos de
uso foram limitados até a disponibilidade de grandes volumes de dados, além de
grandes velocidades de processamento, denominadas Big Data.

A disponibilidade do Big Data acelerou o crescimento e a evolução das


aplicações de IA e Machine Learning. Aqui está uma rápida comparação da IA antes e
depois do “big data”:

IA antes do Big Data IA com Big Data

Conjuntos de dados limitados (MBs Mega Disponibilidade de conjuntos de dados


Bytes). (TBs – Tera Bytes – 1TB=1.000.000 MB)
cada vez maiores.

Tamanho limitados de amostras. Amostras cada vez mais expressivas,


resultando em maior precisão dos
modelos.

Incapacidade técnica de processamento de Análise de dados, grandes volumes de


grandes volumes de dados. dados em milissegundos.

Orientado por lote. Tempo real.

Curva lenta de aprendizagem. Curva de aprendizado acelerada.

Fontes de dados limitados. Fontes de dados heterogêneas e múltiplas

Baseado principalmente em conjunto de Baseado em dados estruturados, não


dados estruturados. estruturados e semiestruturados.

O cenário ideal para os pesquisadores de IA é desenvolver um modelo de


inteligência humana em máquinas (chamada de IA forte – máquinas inteligentes que
não podem ser diferenciadas dos humanos) e criar sistemas que coletam dados,
processam para criar modelos (hipóteses), prever ou influenciar resultados e,

21
finalmente, melhorar resultados e a vida humana. Com o Big Data na base da
pirâmide, temos a disponibilidade de conjuntos de dados massivos de fontes
heterogêneas em tempo real. Isso promete ser uma excelente base de dados para uma
IA que realmente expanda as possibilidades humanas:

Figura 3 - Pirâmide de maturidade de decisão (Partners in Leadership)

O termo Big Data foi cunhado para representar volumes crescentes de dados.
Juntamente com o volume, o termo também incorpora mais três atributos
(principais):

● Velocidade;
● Variedade;
● Valor.

Evolução das máquinas “burras” para máquinas “inteligentes”

De acordo com o pesquisador da Universidade da Califórnia (Berkeley) Stuart


Russell, e o diretor de pesquisas do Google, Peter Norvig, a inteligência artificial possui
quatro grandes categorias:

● Máquinas que pensam como seres humanos;


● Máquinas que se comportam como seres humanos;
● Máquinas que pensam racionalmente;
● Máquinas que se comportam de forma racional.

22
Os primeiros computadores se limitavam simplesmente a executar comandos
previamente estabelecidos, com capacidade e força bruta de cálculo. Embora essas
máquinas possam processar muitos dados e executar tarefas pesadas
computacionalmente, elas sempre se limitam ao que foram programadas para fazer.
Com o avanço nas áreas de engenharia de materiais dentre outras, os hardwares
tiveram um aumento expressivo na capacidade de processamento, mesmo assim, essa
limitação dos computadores tradicionais para responder a situações desconhecidas,
ou não programadas, nos leva à pergunta: uma máquina pode ser desenvolvida para
pensar, evoluir e agir como os humanos?

O cérebro humano é muito rápido em aprender a reagir a novas situações e


acionar várias ações (com base nos estímulos do ambiente). Com base no avanço do
hardware (armazenamento e processamento) e associado à evolução dos algoritmos,
os computadores estão cada vez mais se transformando de simples máquinas
tradicionais a máquinas artificialmente inteligentes.

Inteligência

Fundamentalmente, a inteligência em geral (e a inteligência humana em


particular) é um fenômeno em constante evolução. Ela evolui por meio de quatro
elementos, quando aplicada a entradas sensoriais ou ativos de dados: Perceber,
Processar, Persistir e Executar.

Para o desenvolvimento da inteligência artificial é necessário também modelar


as máquinas com a mesma abordagem cíclica:

Figura 4 – Abordagem cíclica

23
Alguns exemplos de tipos de inteligência:

● Inteligência linguística: capacidade de associar palavras a objetos e usar a


linguagem (vocabulário e gramática) para expressar significado;

● Inteligência lógica: capacidade de calcular, quantificar e executar operações


matemáticas e usar lógica básica e complexa para inferência;

● Inteligência interpessoal e emocional: capacidade de interagir com


outros seres humanos e entender sentimentos e emoções.

Exemplo de tarefas de inteligência:

Básicas Intermediárias Complexas

Percepção/raciocínio Matemática Análise financeira

Senso comum Jogos Engenharia

Processamento de Negociações Análise científica


linguagem natural

A diferença fundamental entre inteligência humana e inteligência artificial é o


manuseio das tarefas básicas e especializadas. Para a inteligência humana, as tarefas
básicas são fáceis de dominar e são conectadas desde o nascimento. No entanto, para
inteligência artificial, percepção, raciocínio e processamento de linguagem natural são
algumas das tarefas mais complexas e desafiadoras em termos computacionais.

De maneira simplificada a IA pode ser dividida em três estágios:

● IA aplicada;
● IA simulada;
● IA forte.

24
Figura 5 - Estágios da IA

Impactos da inteligência artificial no mercado de trabalho

Uma das grandes discussões atuais é a substituição da força de trabalho pela


inteligência artificial. Uma discussão interessante é colocada no livro: “Humano +
Máquina: Reinventando o Trabalho na era da IA”, dos autores H. James
Wilson, Paul R. Daugherty. Para os autores, essa discussão se manifesta pela
desinformação. Existem atividades que deverão estar essencialmente na polaridade
humana, tais quais: liderança, empatia, criação e julgamento e outras que deverão se
alocar no domínio das máquinas. Há um meio de campo entre esses extremos que
oferece inúmeras possibilidades - onde humanos complementam as máquinas e as
máquinas proporcionam superpoderes aos humanos - são atividades híbridas,
conforme figura:

Figura 6 - O meio campo ausente (humano-máquina)

25
Dado, informação, conhecimento

Um tópico fundamental em inteligência artificial é ter o conhecimento claro


sobre dados, informação e conhecimento, basicamente classificados como:

Figura 7 - Gestão do Conhecimento (CARVALHO, Fábio. São Paulo, Editora Pearson.


2012).

Com o aprofundamento do modelo de dados para conhecimento, o processo de


coleta para a tomada de decisão se torna possível. Devenport quando escreveu em
1998 sobre a tipologia do conhecimento, não imaginava que esse processo poderia ser
aprimorado com apoio de algoritmos, em especial de inteligência artificial.

26
Figura 8 - Tipologia do conhecimento (Informação e Conhecimento nas organizações
- Gestão).

Um segundo ponto é a agregação de valor com o avanço das análises. Os dados


são a base para a geração de valor. Quanto mais as empresas capturam e processam
dados, que são transformados em informações (colocados em contexto) e
progressivamente em conhecimento, mais valor é capturado e, consequentemente,
mais competitivas elas se tornam. Com o tsunami de dados gerados todos os dias
(aproximadamente 4 petabytes - 2020), fica praticamente impossível a análise
puramente humana. Selecionar o que realmente é importante de todo ruído gerado é
o grande desafio. A inteligência artificial contribui na validação de hipóteses com
velocidade e na captura do zeitgeist (espírito do tempo).

27
Figura 9 - Agregação de valor de dados para conhecimento (adaptação).

28
O que é aprendizado de Máquina (Machine Learning)

Por Guilherme Nunes

QSOFT – Transformando Dados em Conhecimento

Aprendizado de máquina se tornou um dos tópicos mais tratados atualmente,


pela sua funcionalidade em alavancar os ativos de dados, ajudando empresas que
fazem uso desse material a ganharem maior entendimento sobre seu negócio e os
próximos passos, dando-lhes vantagem competitiva dentro do mercado.

Esse formato de aprendizado é um dos subconjuntos da Inteligência Artificial


que permite com que uma máquina aprenda a partir dos dados e não por meio de
programação crua, o que não é uma tarefa tão simples quanto parece.

Para enfatizar o potencial das técnicas de Aprendizado de Máquina em diversos


cenários, podemos citar o item deste E-Book que disserta sobre Visão Computacional,
onde é possível saber acerca da relação em Inteligência Artificial, do processamento
de imagens e reconhecimento de padrões, divididos entre a parte de processamento e
trabalho com a imagem, até a etapa de reconhecimento de padrões, que tem como
objetivo e foco a classificação e/ou identificação de objetos.

É certo que esse não é o único grande cenário para aplicação dessas técnicas.
Ainda podemos reforçar alguns pilares importantes como, por exemplo, a redução de
riscos e custos para as empresas compreendendo diversas áreas, desde finanças até o
gerenciamento de obras em uma construção.

O valor sobre o uso de Aprendizado de Máquina é claro, e sabemos que esses


projetos levam tempo e conhecimento técnico para serem completos de maneira
correta. Mas, a partir do momento que se usam os dados mais apropriados para o
problema e que constantemente são atualizados, você tem a possibilidade de criar
previsões assertivas do futuro, gerando a supracitada vantagem competitiva.

Processos de aprendizagem

São três os principais tipos de aprendizagem: supervisionada, não


supervisionada e por reforço. Sendo as duas primeiras utilizadas em mais de 80% dos
casos no mercado.

Aprendizagem Supervisionada

Na aprendizagem supervisionada usamos bases onde possuímos dados já


rotulados, ou seja, eles já estão marcados com a resposta correta. Podemos associar
essa forma de aprendizagem como ao que ocorre em uma sala de aula, onde temos um
professor que possa orientar nossas respostas.

29
Os algoritmos deste formato de aprendizagem são capazes de aprender
comportamentos e padrões associados a cada uma das classes da coluna rotulada,
assim, eles são capazes de predizer resultados até então desconhecidos. Antes de
executar os modelos, precisamos dividir nossos dados históricos em dois blocos sendo
eles: o de treino e o conjunto de testes, onde a primeira parte é usada para treinar a
máquina, para entender os padrões e respostas; e a segunda é onde aplicaremos o
modelo treinado anteriormente, simulando previsões reais que o modelo fará, mas,
dessa forma, conseguimos verificar o desempenho dele, visto que conhecemos os
resultados.

Não há um número mágico para essa separação. Para isso, devemos levar em
conta alguns fatores, como o tamanho da base de dados disponível, por exemplo. Por
convenção, os valores mais utilizados, e padrão em algumas linguagens, é a separação
70% da base para treino e 30% para testes. No entanto, NUNCA use o mesmo bloco
para treinar e testar o seu modelo.

Para a execução do aprendizado supervisionado contamos com dois tipos de


técnicas, modelos de Regressão e de Classificação. Esses dois tipos abordam
problemas de formas distintas, embora ambos façam parte da aprendizagem
supervisionada, usam também dados históricos para prever e gerar decisões e focam
em ajustar a melhor reta em seus dados.

Regressão

Nos modelos de regressão buscamos fazer análises com foco em prever valores
numéricos (valores reais ou contínuos). Com a Regressão, conseguimos responder
perguntas como “Quanto custaria?”, “Quantos existiriam?”, entre outras.

Figura 10 - Onde:
Y (variável dependente) é a coluna alvo do problema, o valor que queremos prever;
X (variáveis independentes) são as colunas que usaremos como base para chegar aos
valores da previsão (perfis de clientes, de casas etc.).

30
Principais casos de uso

Alguns dos mais diversos casos de uso em análises de regressão são:


- A previsão do preço de uma casa, dada a sua localização, metragem, idade do imóvel,
entre diversos outros fatores que poderiam estar associados a essa situação;
- Previsão de vendas de uma empresa;
- Previsão de salários em uma empresa;
- Precificação de produtos.

E, para a execução dessas tarefas citadas, contamos com os mais diversos


algoritmos, funções matemáticas que auxiliam a máquina a entender os
comportamentos e gerar as previsões. Os principais algoritmos, ou os mais conhecidos
são as Regressões Linear, Polinomial, Lasso, Ridge e Elastic Net, SVR (Support Vector
Regression), Árvores de Regressão, entre outros.

Classificação

Nos modelos de classificação, diferentemente dos modelos de Regressão, o foco


é prever/determinar as classes de nossos dados. Nos casos de classificação, nossa
variável de interesse (a coluna que queremos prever), possui valores discretos, como
categorias. Assim, com os algoritmos dessa forma de análise aprendendo os padrões
dos dados históricos, é possível que sejam categorizados dados que ainda não possuem
tal informação. Com este tipo de aprendizado supervisionado conseguimos responder
perguntas como por exemplo, “Qual a chance de determinado cliente, com
determinado perfil, consumir produto X?”, entre outras.

Figura 11 - Onde cada um dos símbolos, vermelho e verde, referencia um grupo


classificado, a reta tracejada a separação criada pelo modelo de classificação e o
losango azul, o novo dado que necessita ser classificado.

31
Principais casos de uso

Já para a execução de tarefas de classificação, contamos com outros casos de


uso, como:

- Previsão da chance de fechamento de um lead de vendas de uma empresa;


- Classificação de uma imagem, se esta é “Cachorro” ou “Não-Cachorro”, ou até mesmo
análise de tumores cancerígenos, classificando como “Benigno” ou “Maligno”;
- Classificação, baseada em resultados de outros tipos de exames, para o exemplo de
tumores;
- Previsão da chance de clientes ou colaboradores “Deixarem” ou “Continuarem” na
empresa;
- A análise de dados de transações em instituições financeiras ou em produtos, a fim
de verificar o risco de elas serem “Fraudulentas” ou “Autorizadas”.

E, para a execução dessas tarefas citadas, assim como na Regressão, contamos


com os mais diversos algoritmos, as funções matemáticas que auxiliam a máquina a
entender os comportamentos. Os principais algoritmos ou mais conhecidos algoritmos
são a Regressão Logística, Naive Bayes, SVM (Support Vector Machine), Árvores de
Decisão, Random Forest, K-NN (K vizinhos mais próximos), entre outros.

Aprendizagem não supervisionada

Ao contrário da aprendizagem supervisionada nesses tipos de problemas, não


temos os dados já rotulados com o feedback, se estamos errando, ou não, no processo
de treino ou seja, sem o professor orientando e corrigindo se erramos, ou não, em
nossas classes. Para isso, os métodos de aprendizado não supervisionados buscam
padrões e comportamentos até então desconhecidos nos dados, sem a referência da
coluna-alvo que usamos em casos supervisionados. Com isso, algumas das técnicas de
aprendizado não supervisionado se enquadram como análises exploratórias.

Nesse tipo de aprendizado podemos abordar problemas, que conhecemos


pouco, ou sem conhecimento prévio, sobre como os nossos resultados poderiam se
parecer. Assim, também não conhecemos como cada variável do problema possa
influenciar os resultados.

No entanto, podemos criar grupos com nossos dados, medindo, por exemplo, o
grau de similaridade entre nossos registros, por meio de nossas variáveis. Ainda
podemos aplicar técnicas para redução do número de colunas de nossa base de dados,
concentrando-nos nas variáveis que nos oferecem melhores horizontes acerca do
problema.

Por conta disso, podemos dizer que esta não é uma aprendizagem 100% não
supervisionada como o nome sugere, visto que inputs humanos são inseridos para
verificação, investigam se fazem sentido ou não as construções feitas pelos algoritmos,
mas, mesmo assim, os algoritmos buscam encontrar por si mesmos padrões que sejam
justificados pelos dados e, claro, o modelo de negócio.

32
No cenário não supervisionado conseguimos resolver os problemas de
Agrupamento (Clustering) e Associação.

Agrupamento

O uso de agrupamentos para solução de problemas de aprendizado não


supervisionado é muito importante dado o seu conceito, pois permite encontrar uma
estrutura ou padrão nos dados, até então desconhecidos.

Os algoritmos de agrupamento serão responsáveis por processar e encontrar


grupos de dados de maneira natural, dadas as medidas de dissimilaridade
(similaridade) entre os dados. De maneira generalizada, os casos de uso na análise de
agrupamentos criam grupos baseando-se nas variáveis existentes na base de dados,
assim, podem ser usados nos mais diversos âmbitos, onde não temos a classificação já
estabelecida.

Principais casos de uso

- Agrupar espécies de animais ou plantas distintas, de acordo com suas características


(tamanho, peso, idade, etc.);
- Agrupar clientes que possuem o mesmo perfil, focando em um direcionamento de
campanha posteriormente;
- Agrupar pacientes, dado seus comportamentos, costumes e necessidades.

E, para a execução dessas tarefas citadas, contamos também com uma gama de
métodos e algoritmos, sendo os principais ou mais conhecidos K-Means, X-Means, K-
Medoids, Fuzzy C-Means, Aglomerativo, PCA (Principal Component Analysis), entre
outros.

Associação

O uso das Regras de Associação nos permite determinar as associações entre


objetos e pôr foco na descoberta desses relacionamentos entre as variáveis da base de
dados. Com as Regras de Associação, conseguimos resolver questões como “pessoas
que compram fraldas, também compram cerveja” (aos que não conhecem o clássico
exemplo, sugiro que conheçam esse famoso case de sucesso que utiliza as regras de
associação), entre outras.

Principais casos de uso

Alguns dos mais diversos casos de uso em Regras de Associação são:

- Pessoas que compram uma casa nova, provavelmente compram móveis novos;
- Sugestão de filmes ou seriados de acordo com a classificação e perfil dos
telespectadores;
- Sugestão de produtos para clientes.

33
E para a execução dessas tarefas citadas, contamos alguns algoritmos para
entender os comportamentos e gerar as associações. Os principais algoritmos são
Apriori e FP-Growth.

Aprendizagem por reforço

No aprendizado por reforço o foco é a tomada de medidas adequadas em dada


situação a fim de maximizar a recompensa, ou seja, esse método é utilizado para
encontrar o melhor comportamento ou caminho a ser seguido. Esse aprendizado se
diferencia do supervisionado por não possuir uma resposta correta em seu
treinamento. Em vez disso, o agente de reforço decide o que fazer para executar a
tarefa passada, assim, na ausência de um conjunto de treino, ele aprende por meio da
sua experiência adquirida no processo, utilizando reforços positivos e negativos, onde
cada um impõe sua influência de maneira distinta.

Como exemplo simplificado para esse caso, podemos simular a ideia de um


robô que precisa atravessar um campo de obstáculos para chegar à recompensa, à
linha de chegada. Ao longo do processo ele aprenderá os melhores caminhos para
chegar ao objetivo e evitar os obstáculos.

Modelos GAN

Além dos 3 tipos de aprendizado citados, vale a pena falarmos sobre as Redes
Adversárias Generativas (GAN – Generative Adversarial Networks). Nelas são usadas
duas Redes Neurais, postas uma contra a outra, a fim de gerar novas instâncias
sintéticas que podem facilmente se passar por dados reais, permitindo que possamos
gerar imagens, vídeos e voz.

Consideradas como aprendizado Supervisionado e Não Supervisionado,


onde cada um dos tipos de aprendizado participa de parte dos processos de treino
dessas redes. As GANs conseguem atingir excelentes resultados, pois podem aprender
a estimar qualquer distribuição de dados, ou seja, podem ser ensinadas a criar
universos muito semelhantes ao real, seja na música, fala, vídeos. E por conta dessa
característica, podem ser usadas para criação de conteúdos falsos também.

Para este, um dos exemplos mais conhecidos utilizando GANs são os


DeepFakes.

Comece agora

Para a execução desses processos e algoritmos temos alguns softwares e


linguagens compatíveis no mercado. Dentre os mais conhecidos temos R, Python,
Julia, RapidMiner, sendo este último um software de Auto Machine Learning que,
embora seja simplificado em execução, se integra perfeitamente com linguagens como
R e Python.

34
Entendendo IA, Tecnologias correlatas e seus impactos na sociedade

Por Marco Lauria/ I2AI

Inteligência Artificial e Tecnologias Correlatas

Figura 12 – IA e tecnologias correlatas

Para entender os impactos da Inteligência Artificial, precisamos reconhecer que


existe um conjunto de tecnologias que são complementares a IA e que, como um
ecossistema, se beneficia de sua capacidade analítica para gerenciar os processos e
obter resultados, ao mesmo tempo que possibilita que isso aconteça.

É o caso, por exemplo, da Internet das Coisas (IoT – Internet of Things ou


Internet das Coisas). Seus sensores, possibilitam ter os dados necessários para que os
modelos de IA possam aprender e posteriormente tomar decisões de forma autônoma
e essas decisões fazem com que a Internet das Coisas tenha valor.

Outras tecnologias que mantém esta relação “simbiótica” com IA estão


descritas na figura acima. Destacamos também os carros autônomos que
compreendem o mundo a sua volta por meio de técnicas de reconhecimento de
imagem e tecnologias de Conexão Neural, que permitem hoje o uso de implantes
inteligentes e, no futuro, permitirão a conexão direta de computadores com o cérebro,
como almejado pela empresa Neuralink.

35
Impactos da Inteligência Artificial na Sociedade

Figura 13 – Impactos da AI na sociedade

A Inteligência Artificial é uma das tecnologias mais abrangentes já


desenvolvidas e seu impacto irá se estender por diversas áreas, influenciar nossos
hábitos, o relacionamento entre as pessoas, o futuro do trabalho e das profissões...

A figura 13 acima, exemplifica como a Inteligência Artificial irá transformar


setores como Transporte, Varejo & Consumo, Alimentação, Negócios & Indústria,
Medicina & Saúde e nossas relações como Sociedade.

No próximo capítulo, vamos nos aprofundar um pouco mais nos casos de uso
mais conhecidos e discutir como podemos implementar um Projeto de IA.

36
Capítulo 2: Casos de Uso de IA mais comuns e seus benefícios

Por: Alexandre Seidl/Roberto Lima

RPA

A automação está impulsionando a transformação digital das empresas.

A transformação digital abrange o uso de tecnologias digitais na reformulação


dos negócios sendo mais abrangente do que a automação.

RPA é uma ótima tecnologia de automação para ser utilizada como ponto de
partida e, também, como aceleradora da jornada de transformação digital das
empresas sendo uma das mais eficientes e eficazes.

O que é RPA?

RPA (Robotic Process Automation) é uma tecnologia de software que executa


atividades normalmente realizadas por humanos que interagem com sistemas digitais.

O componente da tecnologia de software RPA que executa as operações é


chamado “robô”.

Os robôs RPA são capazes de capturar dados, executar aplicativos, acionar


respostas e se comunicar com outros sistemas.

As soluções RPA podem ser consideradas forças de trabalho robóticas virtuais


que agregam valor às forças de trabalho humanas nas organizações.

Esse é o verdadeiro valor das soluções RPA: elas criam uma parceria na qual os
robôs e os humanos estão usando suas habilidades únicas. Enquanto os robôs ficam
100% focados em tarefas importantes, porém muito tediosas, sem cometer erros, os
humanos podem dedicar todo seu tempo para as atividades de alto valor agregado
gerando motivação, alta eficiência e eficácia operacional das empresas.

Por que RPA é um ótimo ponto de partida para a transformação digital


das empresas?

RPA não é invasivo!

Ele não requer nenhuma alteração importante na arquitetura de TI ou


integração sistêmica com os sistemas corporativos. RPA oferece uma solução
confiável, rápida e econômica para uma integração “leve” em processos e ativos de TI.

37
RPA é fácil de escalar!

A quantidade de trabalho envolvida por um processo pode variar, pois é


provável que ocorram alterações na maioria dos ambientes de negócios. Se uma
solução RPA for usada, as empresas poderão se adaptar facilmente, ampliar ou
diminuir a solução, dependendo da necessidade.

Onde RPA pode ser utilizado e quais os benefícios obtidos?

RPA está sendo adotado em todos os setores da indústria e áreas


organizacionais com rápido retorno do investimento.

Que tal um robô que mantenha o CRM (Customer Relationship Management)


atualizado a partir da captura das diferentes fontes de informações relacionadas aos
clientes?

Que tal um robô que automatize, sem cometer erros, toda captura e entrada de
dados necessárias ao processo de fechamento mensal da folha de pagamento?

Que tal um robô que automatize o processo de renovação de contratos, desde a


comunicação padronizada com o cliente, processamento das alterações, redação dos
documentos e atualização dos sistemas internos do acordo fechado?

Que tal um robô que realize a reconciliação contábil envolvendo todas as


operações de vendas, pagamentos, perdas, margens e assim por diante, com as contas
bancárias e os demonstrativos financeiros?

Que tal um robô que monitore os requisitos de conformidade que cada


departamento deve seguir: relatórios que precisem ser gerados por exigência das
autoridades regulatórias, conformidade com os procedimentos internos, requisitos de
auditoria e assim por diante?

As empresas de todos os setores da indústria e portes têm a oportunidade de


capturar benefícios e obter vantagens competitivas com adoção de RPA, não apenas
pela redução de custos de mão-de-obra, mas também por outros benefícios como
aumento de lucro, aumento de produtividade, redução de riscos, melhoria dos níveis
de serviço, aumento da satisfação dos clientes, atendimento às exigências regulatórias
e aumento da motivação dos funcionários, entre outros.

A compreensão de como capturar o impacto desde o início fornece informações


sobre onde concentrar o esforço.

RPA visa principalmente a automação de processos altamente manuais,


repetitivos, baseados em regras, com baixa taxa de exceções e com entrada legível.

38
Contábil Ciclo de Ciclo de Tecnologia da Recursos
Supply Chain
e Fiscal Pagamento Recebimento Informação Humanos

Fechamento Cadastro de Cadastro


CRM Datacenter Recrutamento
Contábil Fornecedores de Clientes

Conciliação Processo de Contratos & Gestão da Gestão Cadastro de


Contábil Contratação Gestão de Crédito Demanda Infraestrutura Empregados

Integração de Processamento de Processamento de Gestão de Gestão de


Segurança
Lotes Contábeis Ordem de Compra Ordem de Venda Materiais Performance

Recebimento Gestão da Gerenciamento de


Tesouraria Service Desk Treinamento
de Mercadorias Entrega Capacidade

Processamento Transporte & Suporte a Folha de


Gestão Fiscal Faturamento
de NFs Logistica Usuários Pagamento

Depreciação Processo de Processo de Pedidos de Tickets e


Customer Service Admin. Database
de Bens Pagamento Recebimento Vales Transp.

Reembolso Aplicação Gestão de Gestão de


SPED e REINF Applicações
de Despesas Financeira Devoluções Benefícios

Figura 14 – Onde as empresas vêm adotando RPA

Alguns exemplos de aplicações que podem se beneficiar de RPA


• Abrir e-mails e anexos
• Login e navegação em aplicações
• Mover arquivos e pastas
• Preencher formulários
• Copiar / Colar
• Garimpar dados na internet
• Extrair dados estruturados de documentos
• Coletar dados de mídias sociais
• Conectar API´s

Como escolher os processos a serem automatizados por RPA?

Os critérios para a seleção e priorização de processos candidatos para automação


RPA devem considerar:

• Fatores de Complexidade da Automação (Complexidade)


• Fatores que orientam o Potencial de Automação dos Processos (Potencial para
Automação)
• Os Benefícios de Negócio a serem obtidos (Impacto para o Negócio)

Fatores de Complexidade da Automação (Complexidade)


• Número de telas envolvidas em um processo (pode ser tomado como uma
referência para o número de etapas envolvidas)
• Tipo das Aplicações – Ex.: Aplicações Java, Mainframe, Web based, .NET, MS
Office etc.
• Variações / Cenários no processo – Ex.: número de regras If Else

39
• Automação baseada em imagem – Ex.: VDI / remote desktops
• Entradas não estruturadas – Ex.: Fluxo de informações como texto livre (fluxo
informacional não estruturado) dentro do processo
• Entradas Estruturadas - Entradas digitais e legíveis por máquina – Ex.:
imagens em PDF digitalizadas
• Entradas padronizadas – Ex.: campos com mesmo formato ou mesmo tipo de
entradas entre as instâncias de processos.

Fatores que orientam o Potencial de Automação dos Processos (Potencial para


Automação)
• Baseado em regras
o O usuário não usa sua experiência para tomar decisões durante o
processamento de uma instância do processo. As decisões são tomadas
com base em regras de negócios e lógica predefinida.

• Tipo do Processo
o Manual e repetitivo - um processo que é executado pelos usuários e a
maioria das etapas do processo é a mesma para todos as instâncias ou
transações
o Semi-manual e repetitivo - um processo que é executado pelos usuários
e também envolve um mecanismo de automação como macro, plug-ins
do Outlook etc.
o Automatizado - um processo que já está automatizado
o Manual, mas não repetitivo - um processo executado pelos usuários.
Além disso, as etapas do processo para cada instância serão diferentes

• Entrada padrão
o Entradas Padrão - as entradas são padrão se o conteúdo estiver
posicionado no mesmo local, mesmo que os tipos de entrada sejam
diferentes. Por exemplo, em uma fatura, a posição dos detalhes (número
da fatura, data, valor, nome etc.) é sempre fixa, independentemente do
tipo de entrada (PDF, Word etc.)
o Entradas NÃO Padrão - as entradas são consideradas fora do padrão
quando a posição do conteúdo varia de um tipo de entrada para outro

• Mudança do Processo ou Aplicativos


o Os processos ou aplicativos usados para processar um caso mudam
dentro de 3 a 6 meses? (Por exemplo, grande atualização dos sistemas
ERP (Enterprise Resource Planning), reengenharia de processos etc.)

• % de Exceções
o Porcentagem do volume total recebido que não pode ser processado sem
um fator externo (consulta / aprovação)

Benefícios de Negócio a serem obtidos (Impacto para o Negócio)


• Economia de custos
o RPA garante economia de custos por meio da redução de FTE
• Agilidade nos Negócios

40
o Permite que as empresas atuem em um ritmo mais rápido do que antes
• Satisfação do cliente
o Automação que leva à satisfação do cliente (exemplo: automação do
contact center, resolução de consultas de clientes em um ritmo mais
rápido)
• Ganho de produtividade
o Aumento dos volumes processados dentro do tempo unitário definido,
juntamente com uma diminuição no tempo de resposta e um AHT
aprimorado
• Melhorias na qualidade / Redução de erros
o Os robôs são executados conforme configurado com uma taxa de erro de
0%
• Conformidade
o capacidade de cumprir exigências regulatórias
• Flexibilidade

Se houver um aumento inesperado no volume, os robôs permitem aumentar ou


diminuir conforme necessário.

41
Chatbots

Por: Roberto Lima e Victor Figueiredo

Um pouco da história

Tudo começou na década de 1950, quando Alan Turing publicou o artigo


“Computing Machinery and Intelligence”. Nele, o matemático definiu que, se um
computador puder dialogar com uma pessoa por meio de um chat, sem que ela
perceba que está conversando com uma máquina, o computador em questão pode ser
considerado “inteligente”. Esse conceito foi intitulado como “Teste de
Turing” (ou Jogo da Imitação), tornou-se um estopim para os primeiros experimentos
de chatbots desenvolvidos no campo acadêmico incialmente.

Entretanto, o primeiro chatbot tal como conhecemos surgiu somente na década


de 1960, no laboratório de Inteligência Artificial do Instituto de Tecnologia de
Massachusetts (MIT), que criou o software Eliza, que simulava uma psicóloga, capaz
de identificar mais de 200 tipos de frases e perguntas. Sua lógica de interação era
baseada em um script que realizava perguntas para os usuários e, caso estivessem em
sua base de dados, ELIZA as respondia.

Apesar disso, Eliza falhou no Teste de Turing e, consequentemente, como


psicóloga automatizada. Contudo, sua invenção foi um avanço significativo, dando
início a diversas experimentações até chegarmos aos chatbots de hoje.

O que são Chatbots?

O chatbot nada mais é que uma ferramenta que possibilita um usuário (clientes,
fornecedores, funcionários etc.) ser atendido por meio de uma interação de voz ou
texto. Grandes empresas, dos mais diversos ramos de atividade, costumam se utilizar
de tais ferramentas para simular de maneira convincente como um ser humano se
comportaria com um parceiro de conversa, como abordado acima, ao realizar o teste
de Turing. Os objetivos principais por trás do emprego dos chatbots por tais
companhias são: garantir eficiência, padronização e qualidade, pois ao tratar
perguntas comuns de usuários, os chatbots reduzem o custo de interações com esses
usuários, ajudando seus agentes a concentrarem os esforços em casos de uso
complexos em vez de respostas repetitivas.

Hoje, os Chatbots podem ser encontrados nos mais diversos aplicativos,


dispositivos ou canais (sites, blogs, landing pages) e sua grande maioria é acessada por
meio de assistentes virtuais, que são agentes de software que executam tarefas ou
serviços quando solicitados. Entre os exemplos de assistentes virtuais que você
encontra em seu dia a dia, temos Siri (Apple), Google Assistant (Google), Cortana
(Microsoft) e Alexa (Amazon).

42
Como funcionam

Existem alguns modelos de chatbots, e os mesmos podem ser baseados em: Regras
ou Inteligência artificial.

a) Baseados em Regras
Dependem de um banco de dados, com perguntas e respostas, para solucionar
questões específicas, normalmente se baseando em árvore de decisão.
O funcionamento dos chatbots por meio das árvores de decisão ajudam
usuários a encontrar a resposta exata a uma pergunta específica.
Ou seja, a raiz da árvore é a pergunta inicial. Com base na resposta em questão,
o usuário é direcionado para novas perguntas, os chamados ramos da árvore de
decisão, que vão afunilando a conversa, até chegar à resposta final.
Por se tratar de uma consulta (pergunta) selecionando uma resposta
correspondente ao contexto, tais chatbots, baseados em comandos, além de não
entenderem perguntas que não estejam previamente cadastradas, não criam
novos textos/contextos - não se retroalimentam.

b) Chatbots com Inteligência Artificial


Os chatbots atuais buscam entender a “intenção” do usuário por trás de cada
questionamento. Utilizam tecnologia NLU (Natural Language Understanding)
que procura entender a “linguagem” do usuário.
Baseiam-se também em algoritmos de Machine Learning, que permitem o
aprendizado e a evolução com o uso, potencializando o entendimento das
solicitações e as intenções dos usuários.
Essas tecnologias permitem que o Chatbot saiba quando procurar uma resposta
em uma base de conhecimento, quando pedir mais detalhes ao usuário e
quando direcionar usuários para um ser humano.
Chatbots com IA normalmente necessitam de um trabalho de curadoria de
conhecimento, onde um especialista nos assuntos tratados pelo Chatbot
passará um período ensinando-o a responder corretamente às perguntas.

Algumas Aplicações

Em linhas gerais os chatbots podem ser usados em qualquer tipo de atividade que
necessite de uma interação baseadas em respostas padrões e repetitivas.

Apresentamos a seguir algumas áreas onde os chatbots são mais utilizados.

Atendimento ao Cliente
Este é um dos usos mais comuns de um chatbot: realizar serviços de atendimento
ao cliente, esclarecer as dúvidas mais comuns e assim eliminar posições de
atendimento e/ou reduzir as filas de espera. Ele pode ser disponibilizado em
plataformas onde os clientes-alvo já estejam presentes, ampliar sua presença e seu
alcance digital.

Geração de Leads
A criação de canal de comunicação utilizando um chatbot, possibilita a geração de
engajamento, seja para atrair mais clientes ou realmente para motivá-los dentro
da conversa.
43
Por meio deles, também é possível oferecer conteúdos personalizados, coletar e
armazenar dados cadastrais, criar fluxos segmentados de conversação.
A retenção do visitante do site por meio do diálogo pode ser uma poderosa
ferramenta de geração de leads para equipes comerciais ao se integrar às
ferramentas de força de vendas (Salesforce, Pipedrive ou outras) além de disparar
e-mail e SMS.

Marketing e Vendas
Realizar campanhas de marketing e ações focadas em vendas baseadas em
um chatbot, apresentar um diálogo que leve o cliente a se envolver com o produto
e suas características. O chatbot pode apresentar imagens, vídeos, características
específicas, além de captar informações do consumidor.

Pesquisa de Satisfação
Aplicar pesquisas de satisfação via chatbot é uma ótima maneira de dinamizar esse
processo. Quando o usuário tem a possibilidade de oferecer suas respostas em uma
conversa fluida (e não em um formulário), as opiniões tendem a ser muito mais
sinceras. Consequentemente, os resultados e a análise das respostas ficam muito
mais ricos.

Agendamento e Reservas
Utilizar chatbots para reservas e agendamentos de serviços (consultórios,
concessionárias, restaurantes, eventos e entre outros), integrados aos sistemas
internos, são tarefas de fácil implementação e agilizam o processo, poupam tempo
e geram experiência positiva junto ao cliente.

1- Empresas que disponibilizam a solução

Hoje, o mercado de chatbots está muito bem difundido e pode-se encontrar diversas
empresas para o fornecimento da ferramenta. Listamos apenas 10 companhias, mas
no banco de dados I2AI você poderá encontrar mais opções.
1- X2 Inteligência
2- D2I Data Science
3- Inbenta
4- Intelliway
5- PROA Tecnologia
6- Dialogflow
7- BotEngine
8- Zoho SalesIQ
9- ArtiBot
10- SnatchBot

2- Como iniciar um chat bot de maneira simples

Não sabe por onde iniciar? O Site Chatflow o ajuda a montar uma simples ferramenta
de chatbot on-line, basta acessar e seguir o passo a passo do tutorial.

44
Visão Computacional

Por: Alessandro de Oliveira Faria

Visão Computacional é proporcionar visão para as máquinas no espaço ao seu


redor, é fazer um equipamento ser capaz de reconhecer, identificar e extrair dados de
vídeos ou imagens. Podemos definir que Visão Computacional é uma divisão da
ciência que estuda o desenvolvimento de tecnologias que permite dar visão às
máquinas.

No passado esta tarefa exigia fortes conhecimentos matemáticos e de


programação. Um trabalho extenso, que partia da captura, qualidade e elementos das
imagens, cores, luz e o entendimento de como cada um destes elementos impactam a
função da visão. Fazer a máquina enxergar com toda a eficiência com que o cérebro
humano o faz através de nossos olhos é sem dúvida muito difícil.

Atualmente existem diversas bibliotecas de programação para o


desenvolvimento de software e soluções neste segmento. Essas ferramentas abstraem
grande parte dos complexos conceitos matemáticos e possibilita grandes ganhos de
produtividade.

Por exemplo, em uma imagem com ruído, como nas antigas televisões
analógicas, conseguimos, com o olhar humano, facilmente reconhecer todos os
elementos na cena. Mesmo com ruídos (chuviscos), o cérebro humano interpreta todo
o contexto visual e classifica todas as informações presentes na imagem.

O processamento de imagens e reconhecimento de padrões são dois campos


fortemente relacionados à Inteligência Artificial. O processamento de imagem consiste
em técnicas para manipular, realçar e remover informações representadas na figura.
Já o reconhecimento de padrão tem como objetivo e foco a classificação e identificação
de objetos.

Aplicabilidade:

Existem inúmeras aplicações para esta tecnologia, como biometria, realidade


aumentada e robótica que utilizam reconhecimento de padrões e processamento de
imagens em tempo real. Atualmente veículos são equipados com câmeras que
processam imagens ao vivo. A aplicabilidade da visão computacional é tão vasta, que
é impossível mencionar todos os segmentos aplicáveis com esta tecnologia.

Como consequência desse avanço, as câmaras ultimamente vêm ganhando


inteligência, em função dos robustos algoritmos de visão computacional. Essas tarefas
já não demandam grandes conhecimentos matemáticos, fundamentos relacionados a
imagens e conhecimentos sobre manipulação de vídeo ao vivo.

Quanto maior o conhecimento, maior será a eficiência, otimização da


implementação, principalmente no uso da arquitetura de hardware e utilização de
processadores com múltiplos núcleos.

45
Aplicar processos de visão computacional em fluxos de vídeo ao vivo é uma
tarefa morosa devido ao grande consumo de processamento e fluxo de dados. Mas,
atualmente existem diversas bibliotecas projetadas para facilitar o aprendizado e o
desenvolvimento de tarefas, como essas já encapsuladas nas bibliotecas de visão
computacional, que proporcionam de maneira produtiva diversas funções para o
segmento do processamento de vídeos digitais.

Devemos sempre pensar fora da caixa e usar estas tecnologias de maneira


proativa. O processamento de vídeo ao vivo acaba com algumas deficiências
operacionais atuais. Quando um único usuário monitora várias câmaras, muito
provavelmente não conseguirá ser eficaz. Com isso, algum evento importante pode
deixar de ser observado.

Já com visão computacional, podemos ligar alertas para as câmaras que


merecem atenção naquela instância. Ou seja, se entre 50 equipamentos monitorados
existe uma suspeita de assalto em uma determinada câmara, é possível disparar alertas
para esse equipamento que detectou o provável assalto com algoritmo de detecção de
esqueleto, por exemplo.

Todas essas técnicas utilizadas junto ao aprendizado de máquina permitem que


o computador aperfeiçoe seu desempenho. Dessa forma, algumas complicações ou
erros não voltarão a acontecer, pois o aprendizado assistido ou automático diminui a
margem de erro ao longo do tempo, em função da base de aprendizado que aumenta
a cada dia.

Técnicas:

Existem inúmeras técnicas na ciência de visão computacional, como detecção


de arestas, cantos e segmentação, utilizadas para manipulação de imagens geralmente
para um posterior processamento. A seguir uma sucinta passagem pelos principais
métodos utilizados.

Detecção de arestas é um método de manipulação de imagens bem


conhecido, consiste basicamente em processar uma imagem de entrada, localizar e
exibir a descontinuidade das intensidades rastreadas. Um exemplo clássico para
detecção de arestas são os algoritmos de biometria e impressão digital no pré-
processamento biométrico (FARIA, 2010).

O método de detecção de cantos é por sua vez utilizado para rastrear objetos.
Essa técnica consiste basicamente na extração da característica a partir de uma
determinada imagem para posteriormente submetê-la a comparações de
desigualdade. A técnica para detectar cantos é muito presente em marcadores de
realidade aumentada (FARIA, 2009).

A segmentação tem como finalidade a localização de figuras ou modelos


específicos. Muito utilizado em processadores modestos de baixo desempenho em
fábricas, desde 2003, a biblioteca openCV proporciona esses recursos mesmo em
antigos processadores single core.

46
Rastreamento de objetos em visão computacional (object tracking) é um
recurso muito interessante. Com essa técnica é possível acompanhar o percurso de um
objeto em tempo real, isto é, rastrear um objeto em movimento em frente a uma
câmera por meio do fluxo de cada pixel, ou com base na semelhança e na combinação
de amostras. Muito utilizado para monitorar e contar objetos e pessoas em lojas. Pois
uma vez identificado o objeto, a região de interesse é definida para um posterior
rastreamento, assim consumindo menos recurso computacional.

Fluxo óptico é uma técnica baseada no rastreamento dos pixels. Ela permite
estimar o deslocamento dos pixels em até três dimensões. É utilizada em algoritmos
de visão computacional para medir a velocidade e direção dos pixels baseando-se em
comparações de quadros. Essa técnica pode ser utilizada para contar pessoas em
corredores e sua respectiva direção.

Reconhecimento de padrões utiliza modelos classificadores tornando


possível assim identificar objetos presentes num vídeo ao vivo ou em quadros
estáticos. O treinamento é efetuado com a seleção de diversas imagens para a base de
treinamento. A biblioteca openCV de código aberto, proporciona todos os recursos
necessários para implementação de reconhecimento e identificação de padrões
(FARIA, 2017).

Com a visão computacional podemos automatizar tarefas, obter ganhos de


produtividade, diminuir margem de erro e liberar recursos humanos para tarefas
realmente criativas e não repetitivas. Sendo assim o emprego dessa tecnologia em
larga escala é inevitável e não existe volta. O futuro chegou e devemos encarar esta
tecnologia como nossa aliada para uma melhor qualidade de vida.

47
Algoritmos de Recomendação

Por: Patrícia Prado

Uma jornada inteligente de resultados surpreendentes

Algoritmos aliam ferramentas da matemática e da computação


para correlacionar dados e descobrir padrões de comportamento, como similaridades
e proximidades que acobertam neles a predição de possíveis comportamentos futuros
e propõem assim, sugestões. O principal objetivo para que as empresas se apoiem
nesses sistemas inteligentes são a constante busca por oferecer soluções mais
personalizadas para seus clientes-consumidores, além de proporcionar uma
experiência cada vez melhor e, desta forma, aumentar os resultados do negócio
progressivamente.

Para compreender onde estamos hoje, precisamos olhar para o passado e


entender como chegamos até aqui. O processo de aprendizagem por experiência é
originado pelo ser humano e no nosso cérebro acontece de forma inteligente, com
intuito de realizar tarefas como classificação, reconhecimento de padrões,
processamento de imagens, entre outras atividades. Depois de inúmeras pesquisas
científicas sobre este tema, surgiu o modelo do neurônio artificial e, posteriormente,
um sistema com vários neurônios interconectados, denominado “rede neural”. Em
1943, o neurofisiologista Warren McCulloch e o matemático Walter Pitts, escreveram
um artigo sobre como os neurônios poderiam funcionar e para isso, eles modelaram
uma rede neural simples usando circuitos elétricos.

Pode-se dizer que entre as décadas de 1960-80 aconteceram intensas


discussões sobre o efeito da Inteligência Artificial sobre a vida humana e, aliada aos
poucos progressos, houve vozes respeitadas criticando a pesquisa em redes neurais.
Isso, na época acarretou uma redução drástica de financiamento das pesquisas, que
culminou num crescimento atrofiado até 1981 (AI Winter).

Graças aos vários eventos surgidos a partir de 1982, somados ao documento que
John Hopfield, da Caltech, apresentou à Academia Nacional de Ciências, o qual
abordava que a utilidade de IA ia além de “modelar os cérebros”, e mostrava a
possibilidade da criação de “dispositivos úteis”, geraram mais clareza, com profundas
análises matemáticas e demonstraram como essas redes poderiam funcionar e o que
poderiam fazer.

A promessa do aprendizado profundo nunca foi e não será que os computadores


comecem a pensar como seres humanos. Demonstra apenas que, com um conjunto de
dados suficientemente grande, processadores rápidos e um algoritmo suficientemente
sofisticado, os computadores possam começar a realizar tarefas que até então só

48
podiam ser realizadas por seres humanos, como reconhecer imagens e voz, criar obras
de arte ou tomar decisões por si mesmos.

Foi então que os estudos sobre as redes neurais sofreram uma grande revolução
a partir dos anos 1980 e essa área de estudos tem se destacado, seja pelas promissoras
características apresentadas pelos modelos de redes neurais propostos, seja pelas
condições tecnológicas atuais que permitem desenvolver arrojadas implementações
de arquiteturas neurais paralelas em hardwares dedicados, obtendo assim ótimas
performances desses sistemas (bastante superiores aos sistemas convencionais). A
evolução natural das redes neurais são as redes neurais profundas, ou Deep Learning,
como já devem ter ouvido por aí.

@ tradução LEGAMI Intelligence

Figura 15 – Exemplos de Arquitetura de Redes Neurais

Trazendo para os dias atuais, se recordarmos a memória para as experiências


que temos em sites como YouTube, Netflix, Amazon e até mesmo em redes sociais
como o Facebook e o Instagram; todos eles geram recomendações baseadas no perfil
de seus usuários. E como eles são tão “assertivos” nestas recomendações? O segredo
está nos dados!

Essas empresas analisam intuitivamente vários dados, geram combinações


entre si para chegar à síntese, que é a indicação. Ao coletar volumes imensos de
dados sobre itens, usuários e a interação entre ambos, necessitam processar muitas
informações para fazer alguma proposição e então chegarem aos algoritmos.

49
Como curiosidade, a Netflix, por exemplo, gera hoje aproximadamente $ 1
bilhão de lucro por ano com seus sistemas de recomendação, mecanismos por trás de
80% dos conteúdos vistos na plataforma. Assim como os sites da Amazon, redes
sociais e buscadores como o Google também se valem desse recurso. E qual o maior
interesse? O maior objetivo é proporcionar uma experiência personalizada “única”
para cada usuário (cliente) e ao mesmo tempo aumentar as conversões e o
engajamento.

E quais seriam as formas de se obter informações de seus


clientes/consumidores para então gerar “recomendações” personalizadas? Podemos
considerar duas formas:

1- A explícita, quando o consumidor é apresentando a um formulário com


algumas perguntas sobre seus hábitos de consumo de forma totalmente
deliberada; e,
2- A implícita, onde um algoritmo mapeia todo e qualquer tipo de comportamento
do cliente em seus canais de relacionamento.

A explicita nem sempre é efetiva porque dificilmente se consegue tempo do


indivíduo para responder com toda a riqueza de detalhes e veracidade de informação
que a forma implícita consegue capturar pelo cruzamento dos dados por meio da
construção do algoritmo, alcançando maior nível de qualidade da informação e,
consequente, melhor estimação do algoritmo.

E qual seria o maior desafio das empresas nesta jornada de captura de


informação e recomendação?

Assertividade sem atrito. Realizar a captura das informações, organizar


interações em tempo real com seus clientes e não gerar atritos nesse processo é um
desafio constante. Os clientes/consumidores podem fornecer informações parciais,
semiverdadeiras, incompletas e não-úteis. Tudo isso precisa estar muito bem
calculado no modelo e cada vez mais “minimizado” na jornada omniexperience
propiciando aos usuários/clientes – consumidores menos atritos nas jornadas para
alcançar mais fluidez na informação; trazendo uma boa experiência ao cliente,
validade ao modelo de recomendação e, consequente, resultado para o seu negócio.

Analisar o comportamento do cliente sempre foi importante e hoje é


fundamental para qualquer empresa. Conhecer seus gostos, suas necessidades e mais
do que isso, predizer uma determinada reação ou comportamento, faz com que a
experiência do cliente em sua jornada de relacionamento com a marca torne-se única,
exclusiva e sustentável.

50
Antecipar-se a um potencial novo cliente é a regra para estar à frente no
mercado, principalmente com uma proposta de valor coerente à entrega desse valor.
Diante desse momento VUCA (Volatilidade, Incerteza, Complexidade e Ambiguidade),
numa constante aceleração digital, onde as informações são fontes ricas de
recomendações, as EMPRESAS precisam se colocar junto aos CLIENTES para
entregar valor no conceito “everywhere” e “no friction”. Alcançar recomendações
inteligentes é uma jornada necessária, além do que, seus resultados quando obtidos
com uma estratégia bem executada são surpreendentes.

No Brasil temos já várias empresas de varejo sendo assessoradas por ótimas


startups de tecnologia no desenvolvimento de algoritmos de recomendação com muita
propriedade e resultados consistentes. E, para ilustrar, no gráfico a seguir alguns
exemplos das conquistas dos resultados relevantes de players internacionais, dos
quais somos partes de seus clientes-consumidores.

51
@ tradução LEGAMI Intelligence

Figura 16

52
Implementando um Algoritmo de Recomendação

Por: Oscar Adorno

De forma geral, as preferências dos usuários compreendem informações


externas como suas características pessoais (idade, sexo, localidade etc.), histórico de
interações com portal, plataforma ou loja, e suas avaliações sobre os produtos ou
serviços oferecidos.

Uma atividade de recomendações é composta dos seguintes componentes:


• Público: Quem deve ver as recomendações?
• Critérios: Quais itens devem ser recomendados?
• Design: Como os itens recomendados devem ser exibidos?

Os cinco principais passos para implementação de um sistema de


recomendação são:

1) Preparação e coleta dos dados: Contempla a fase de definição do problema


e abordagem de recomendação, coleta dos dados (explícitos e implícitos)
para alimentação do motor de recomendação, limpeza dos dados,
preparação das bases de dados de treinamento e de validação e remoção dos
vieses;
2) Armazenamento dos dados: Quanto maior a quantidade de dados disponível
para o algoritmo, melhores serão as recomendações. Isso significa que um
projeto de sistema de recomendação pode rapidamente se transformar em
um Projeto de big data. Um banco de dados escalável e gerenciado diminui
o número de tarefas necessárias ao mínimo para se ter um foco na
recomendação.
3) Análise dos dados: Para encontrar itens com dados semelhantes de
engajamento do usuário é necessário filtrá-los com o uso de vários métodos
de análise. Algumas das maneiras de analisar esse tipo de dados são as
seguintes:
• Sistema em tempo real: casos em que são necessários o fornecimento de
recomendações rápidas e em frações de segundo. São sistemas capazes
de processar dados assim que são criados.
• Praticamente em tempo real: métodos de análise de recomendações
durante a mesma sessão de navegação é o sistema quase em tempo real.
É capaz de coletar dados rápidos e atualizar as análises por alguns
minutos ou segundos.
• Análise em lote: Método mais conveniente para enviar um e-mail em
uma data posterior, pois ele processa os dados periodicamente. Esse tipo
de abordagem sugere uma quantidade considerável de dados para fazer
a análise adequada, como o volume de vendas diário. Um exemplo, são
as redes de farmácias ao fornecer cupons de desconto personalizados
para os clientes.
4) Filtragem dos dados: A fase é filtragem dos dados que consiste na escolha
do algoritmo adequado para o mecanismo de recomendação. Existem
alguns tipos de filtragem:

53
• Baseado em conteúdo: O foco da filtragem baseada em conteúdo é um
comprador específico. Os algoritmos seguem ações como páginas
visitadas, tempo gasto em várias categorias, itens clicados etc., e a
solução é desenvolvida a partir da descrição dos produtos que o usuário
gosta. Posteriormente, as recomendações são criadas com base na
comparação de perfis de usuários e catálogos de produtos.
• Cluster: A análise de cluster se destina a grupos de casos menores.
Procura-se agrupar os semelhantes entre si em contraste com outros
tipos de casos. Nesse sentido, os itens recomendados se ajustam uns aos
outros, independentemente do que os outros usuários assistiram ou
gostaram.
• Colaborativo: Faz previsões condicionadas aos gostos e preferências do
cliente e permite estabelecer atributos do produto. A essência da
filtragem colaborativa é a seguinte: dois usuários que gostaram do
mesmo item antes vão gostar do item futuro.
5) Fornecimento da recomendação: Após obtido o resultado da filtragem dos
dados e utilização do algoritmo, as recomendações são oferecidas ao usuário
com base na oportunidade do tipo de recomendação. Seja recomendação em
tempo real, enviando um e-mail depois de algum tempo, fornecimento de
cupons de desconto ou uma notificação de aplicativo.

Figura 17 - Principais etapas de um sistema de recomendação


Fonte: https://www.smarthint.co/ai-product-recommendation-engine/

Deve-se atentar para alguns outros pontos importantes para a construção de


um sistema de recomendação, como por exemplo: um eventual grande volume de
dados e partir para recomendações on-line a partir dessas bases, idealmente poderia
dividi-los para então trabalhar na classificação; atenção na mensuração de indicadores
da qualidade do algoritmo de recomendação – nesse sentido, utilizar métricas de score
on-line e off-line. Outro ponto, um algoritmo baseado exclusivamente em dados
históricos terá dificuldade em prever recomendações de novos produtos, uma vez que
não terá informações sobre novas tendências e preferências.

54
Caso a empresa não tenha capacidade de armazenamento para processar a
grande quantidade de dados dos visitantes de seu site, é possível usar estruturas on-
line, como por exemplo: Hadoop ou Spark, as quais permitem armazenar e processar
dados em vários dispositivos para reduzir a dependência de uma única máquina.

Podemos pontuar alguns dos principais benefícios na implantação de um


mecanismo de recomendação:

• Aumento de Receita – Diferentes algoritmos de recomendação podem


gerar maior taxa de conversão de vendas em comparação com
recomendações de produtos não personalizadas.
• Satisfação do cliente – Após realizar uma busca por um produto e o
cliente retornar ao site de procura, se os dados de navegação da sessão
anterior estivessem disponíveis, o auxiliariam na compra, da mesma
forma como trabalham assistentes experientes de lojas físicas com
clientes recorrentes. Esse tipo de satisfação do cliente leva à sua
retenção.
• Personalização – Pode-se utilizar dados acumulados indiretamente para
melhorar os serviços gerais do site e garantir que eles sejam adequados,
de acordo com as preferências do usuário. Em troca, o usuário terá mais
predisposição para comprar os produtos ou serviços ofertados.
• Discovery - Por exemplo, o recurso “Frequentemente comprados
juntos”, da Amazon, realiza recomendações que são semelhantes ou
complementares à compra “atual”. Em geral, os clientes gostam de
receber recomendações de coisas que gostariam e, quando usam um site
que pode se relacionar com suas escolhas, é provável que visitem esse
site novamente.
• Fornece relatórios – é parte integrante de um sistema de
personalização/recomendação. Os relatórios pelo sistema auxiliam nas
tomadas de decisão sobre o e-commerce e a direção de uma campanha.
Com base nesses relatórios, as empresas podem gerar ofertas para
produtos de baixo giro, a fim de criar um impulso direcionado nas
vendas.

As técnicas de deep learning, social learning e fatoração de matrizes são


baseadas em machine learning (aprendizado de máquina) e em redes neurais. Esses
métodos de computação cognitiva podem aumentar a qualidade dos sistemas de
recomendação. Os algoritmos de recomendação serão aprimorados com o uso do
machine learning e proporcionam um aumento da satisfação e retenção dos clientes.

55
Processamento de Linguagem Natural (NLP)

Por: Alexandro Romeira/I2AI

Dentre todas as tecnologias envolvendo a Inteligência Artificial, as que mais se


destacam são as tecnologias de Processamento de Linguagem Natural, que é mais
conhecida por sua sigla em inglês NLP (Natural Language Processing). Todo esse
interesse não é por acaso, visto que a NLP tem a função de transformar o mundo da
IA aproximando da forma como as pessoas se comunicam, seja por conversação ou
escrita em uma das linguagens "naturais" como: português, inglês, espanhol, etc.

Uma linguagem pode ser definida como um conjunto de regras, símbolos e


relacionamento entre si que são usados para transmitir informações. Da mesma
forma, os sons ou imagens também são elementos de linguagens, por mais que não
tratem da grafia, mas das mesmas regras que as definem. Para uso das técnicas de
NLP, todos esses ativos de dados são convertidos para elementos de textos para então
serem processados em várias técnicas, conforme veremos no decorrer do capítulo.

De forma geral, representamos o Processamento de Linguagem natural (NLP)


como o conjunto de duas técnicas que é NLU (Natural Language Understanding), que
tem capacidade de entender as linguagens naturais e a NLG (Natural Language
Generation), que tem a função de gerar novas sentenças e expressões.

Figura 18

56
Figura 19

Para textos, a NLP costuma usar semântica para analisar frases para entidades
(pessoas, lugares, coisas), conceitos (palavras e frases que indicam uma ideia
específica), temas (grupos de conceitos simultâneos) ou sentimentos (positivos,
negativos ou neutros). Hoje, a NLP é usada em ferramentas de análise de texto e mídia
social para analisar questões e opiniões entre várias outras que abordaremos em
aplicações.

Fundamentos Linguísticos

Um dos pontos mais importantes para entender como os sistemas de NLP


funcionam são os fundamentos de linguagem, como estudos da linguística, que trazem
muitos subcampos de estudo, como, por exemplo: fonética, fonologia, lexicografia,
psicolinguística e discurso. Nosso objetivo não é entrar a fundo na linguística, porém
entender seus aspectos mais importantes e diretamente relacionados ao
processamento de linguagem natural, que é de extrema importância. Os principais
elementos da linguagem a serem estudados estão na figura abaixo:

57
Figura 20 – Elementos de Linguagem

Um dos pontos mais importantes na linguagem é a referente ao seu contexto,


ou intenção, isso é determinante para os sistemas de NLP, já que é possível que as
tecnologias utilizadas não consigam entender o significado literal do que está sendo
dito. Um sistema de NLP deve dominar pelo menos dois elementos básicos para uma
boa funcionalidade. São eles: a entidade e a intenção – elementos amplamente
utilizados em assistentes virtuais ou chatbots, necessários para sua correta
funcionalidade. Os sistemas de NLP normalmente utilizam o seguinte fluxo de
tratamento:

Figura 21 – Sistemas NLP – Fluxo de Tratamento

▪ Informação de texto: Ativo de entrada de processamento, lembrando que


além de textos podemos tratar voz e imagens, que são convertidos para texto
antes do processamento;
▪ Segmentação e Tokenização: A segmentação de texto é o processo de
dividir o texto escrito em palavras, frases ou tópicos enquanto o processo de
tokenização envolve a divisão de um texto em palavras separadas. Essas etapas
são requisitos básicos em tarefas de NLP. Cada palavra precisa ser capturada e
analisada.

58
▪ Limpeza: O processo de limpeza de texto envolve remover informações que
não agregam valor à análise, como: pontuação, stop words ('de', 'a', 'o', 'que',
'e', 'é', 'do', 'da', 'em', 'um' etc.) e reduzir palavras ao seu radical.
▪ Vetorização e Classificação: A representação de documentos
numericamente nos dá a capacidade de realizar análises significativas e cria as
instâncias nas quais os algoritmos de aprendizado de máquina operam. Na
análise de texto, as instâncias são documentos ou enunciados inteiros, que
podem variar em comprimento, desde citações ou tweets até livros inteiros,
mas, cujos vetores são sempre de comprimento uniforme. Cada propriedade da
representação vetorial é um recurso.
• Derivação e Lematização: São técnicas de NLP que são usadas para
preparar texto, palavras e documentos, reduzindo as formas flexionadas e
derivadas de uma palavra para uma forma de raiz, como mapear um grupo de
palavras para a mesma raiz, mesmo que a própria raiz não seja uma palavra
válida no idioma.
▪ Machine Learning: Os processos de aprendizagem de máquina são
essenciais para sistemas de NLP e somente com grandes volumes de dados e
modelos treinados podemos usar todas essas técnicas, de forma a gerar muito
valor. Vamos falar um pouco mais além sobre aplicações, com destaque especial
ao GPT-3, recém lançado pela empresa OpenAI.
▪ Interpretação do Resultado: Todos resultados podem ser analisados
conforme seus objetivos.

Figura 22

59
Um exemplo da análise de NLP, aplicado a sentimento conforme imagem
abaixo:

Figura 23

Aplicações
Agora que conhecemos um pouco sobre o que é o Processamento de Linguagem
Natural (NLP), suas funcionalidades e características, é muito importante também
saber onde podemos aplicar essas tecnologias, conforme demonstrado no seguinte
diagrama:

Figura 24

60
Vamos destacar algumas das muitas aplicações que geram valor para suas
corporações, entre elas:

▪ Pesquisa Semântica: Em nossas empresas encontramos um grande volume


de informações que trazem o desafio de encontrá-las corretamente dentro do
tempo desejado; um grande desafio para muitas empresas. Como solução, o
desenvolvimento de mecanismos de extração de informações e busca semântica
pode ser usado em navegadores web, smartphones, plataformas de e-
commerce, programas corporativos como CRM, ERP, aplicativos móveis etc.
▪ Análise de Sentimentos: Ouvir seus clientes, conhecer o sentimento geral
do público da sua empresa é essencial e técnicas de NLP permitem comparar
seus indicadores com o mercado. Com correta categorização de texto, as
empresas obtêm informações valiosas sobre aspectos de seus negócios, seus
pontos fortes e pontos a melhorar.
▪ Atendimento automatizado: Automatizar os processos de atendimento é
essencial para a competitividade das empresas.
▪ Chatbot: Conforme já descrito aqui no livro, chatbots são soluções incríveis
para relacionamento com seus clientes e sistemas de NLP permitem criar
interfaces cada vez mais humanas e integradas com sons, imagens e texto.

Por onde começar

Uma das sugestões para iniciar com NLP é consumir APIs já devidamente
treinadas, que permitem sua adoção de forma ágil e acessível.

Outra fonte que recomendo é um repositório de implementações de NLP, que


pode ser acessado em:

▪ https://notebooks.quantumstat.com/

E o futuro...

O campo da NLP é um dos que mais tem se destacado nos últimos tempos. Não
é por acaso que toda inteligência artificial, como conhecemos, começou para resolver
problemas de NLP e isso tem voltado com muita força nos últimos tempos, seja para
melhorar a capacidade de nossas IAs em resolver problemas de forma mais natural,
reduzir distâncias (eliminar barreiras linguísticas) e até mesmo redesenhar totalmente
a forma como podemos trabalhar, ao eliminar os processos repetitivos em sua mais
ampla aplicação.

Recentemente fomos surpreendidos com várias implementações que usam um


novo modelo de tecnologia: a GPT-3 (Generative Pretrained Transformer), da empresa
OpenAI, não somente por suas características, mas também pela forma como vem

61
sendo demonstrada, essa tecnologia vem surpreendendo, ao criar textos elaborados,
entender contextos complexos e muito mais. Antes da GPT-3, uma das tecnologias que
mais se destacavam era a tecnologia BERT (Bidirectional Encoder Representations
from Transformers) do Google, sendo uma incrível implementação, que auxilia os
computadores a compreenderem a linguagem de forma mais similar ao entendimento
humano.

Mas o que torna a GPT-3 tão interessante? Enquanto outros modelos de


linguagem (como o BERT) requerem uma etapa de ajuste fino elaborada, onde você
precisa reunir milhares de exemplos de combinações e frases, como português/inglês,
para ensiná-lo a traduzir nesses idiomas. Para adaptar o BERT a uma tarefa específica
(como tradução, resumo, detecção de spam, etc.), você tem que buscar um grande
conjunto de dados de treino (na ordem de milhares ou dezenas de milhares de
exemplos), que pode ser complicado ou até impossível, dependendo da tarefa. Com o
GPT-3 a etapa de ajuste fino não é necessária, já que ele traz bilhões de parâmetros de
treinamento em suas características, este é o cerne da questão.

Figura 25

É isso que nos deixa encantados com o GPT-3: tarefas de processamento de


NLP personalizadas, sem necessidade de base de treino.

Para finalizar nosso capítulo, deixamos um diagrama, baseado em aplicações


mais comuns e suas técnicas de resolução por NLP.

62
Tae-Hwan Jung, Mind Map for NLP technique – https://github.com/graykode/nlp-
roadmap
Figura 26 - A imagem tem seu uso permitido sob o modelo MIT License.

63
64
Segundo Volume: Construindo Projetos de IA

Capítulo 3: Fazendo um levantamento dos recursos internos disponíveis

Por: Juliana Burza

Conforme veremos mais adiante, no capítulo 7, aplicar projetos de IA dentro


das corporações necessita de um pensamento estratégico. Para isso, o primeiro passo
deverá ser um aprofundamento nos objetivos e no modelo de negócio, para que seja
possível identificar as competências importantes do time e os recursos necessários
para a produção do projeto.

Mapeamento de Competências (Skills)

Diversos autores discorrem sobre como montar um time de IA de forma efetiva


dentro das corporações. Aqui, destacamos o artigo de Usman Majeed, que levanta a
questão “como formar uma equipe de IA de 5 a 10 membros que possa fornecer
soluções de IA em um período de 6 a 12 meses?”

A resposta a essa pergunta está ilustrada no diagrama de Venn abaixo, onde é


possível notar uma intersecção entre as funções que envolvem a indústria de IA e o
mundo dos negócios.

Figura 27 – Diagrama de Venn


Fonte: How to make an effective A.I. team? Usman Majeed. (2019)

Além de ser essencial contar com pessoas que tenham conhecimento em análise
de dados, ciência de dados, engenheiros de machine learning, assim como
engenheiros de software, também é importante considerarmos no time pessoas com
capacidade analítica voltada ao negócio, gerentes de produto com habilidades em

65
vendas e marketing. Desta forma, garantimos que a solução a ser construída não esteja
descolada de uma realidade de mercado ou, ainda, que não atenda aos requisitos
inerentes de algum setor.

Detalhando um pouco mais as competências de uma equipe típica de IA,


podemos considerar abaixo as principais competências necessárias para cada perfil:

- O Engenheiro de Dados: Está focado em compreender os dados e em fazer processos


ETLs (Extract-Transform-Load ou Extrair-Transformar-Carregar), com o
objetivo de converter esses dados para um formato em que o cientista possa trabalhar.

- O Cientista de Dados: Analisa os dados na tentativa de identificar possíveis features


(características) relevantes para o modelo de aprendizado que será construído.

- O Engenheiro de Machine Learning: Tem o papel de construir a máquina de


aprendizado e utilizar as informações que o cientista passou. Aqui existe uma
codificação de um pipeline de dados, para a geração do ground truth (verdade para o
modelo), a geração das amostras (treino, teste e validação) e o treinamento do modelo
em si.

- O Engenheiro de Software: Apoia o Engenheiro de Machine Learning a construir um


pipeline sustentável no que diz respeito aos requisitos não-funcionais (escala,
disponibilidade, confiabilidade, confidencialidade, performance etc.). Esse
profissional fica mais focado em entender a ideia e começar a “produtizar” as coisas.
É também função deste perfil pensar em como irá integrar as plataformas envolvidas
na solução.

- O PO ou Gerente de Produtos: É ele quem entende o negócio, direciona o rumo do


desenvolvimento, discute possibilidades, avalia o atendimento das expectativas e
garante que o produto seja adequado às necessidades. Além disso, pode liderar
discussões sobre regulamentação, ética, legalidade, responsabilidade, moralidade e
confiança.

Estrutura Organizacional Sugerida e Sponsors

O líder da equipe de IA pode ser o CAIO (chief AI officer), VP de IA ou Diretor


de IA, que entenda o suficiente sobre a tecnologia para ter uma noção do que pode e
não pode ser feito. Além disso, eles precisam trabalhar multifuncionalmente com
líderes de negócios, para identificar oportunidades e impulsionar projetos.

O diretor de IA precisa trabalhar diretamente com o CEO ou CIO, seus


principais sponsors, para dar a eles a capacidade de promover mudanças em toda a
organização.

Andrew Ng, que liderou a equipe de pesquisa de IA do Google Brain e foi


cientista-chefe da gigante chinesa de buscas Baidu, já destacou isso em sua entrevista
para a Forbes Insights em 2019: “O trabalho do diretor de IA é examinar todas as
linhas de negócios e dizer como podemos usar a IA para melhorar. Quando eu liderava
IA no Baidu, tínhamos uma equipe de gerenciamento de produto cuja função era ir a
todas as unidades de negócios e descobrir se elas poderiam ajudar a melhorar áreas
66
como a qualidade da pesquisa na web, o conteúdo de um mapa, recomendar filmes
melhores ou se as compras online estavam funcionando. Seu trabalho era encontrar
oportunidades.”

Abaixo podemos ver uma sugestão de estrutura organizacional para times de


IA, em que a primeira caixa pode ser comandada pelo C-Level ou Diretor de IA,
seguido de um Gerente de Projetos, para quem o time responde diretamente:

Figura 28 – Sugestão de Estrutura Organizacional para Times de AI


Fonte: How to make an effective A.I. team? Usman Majeed. (2019)

Identificando as deficiências

Muitas empresas estão percebendo que os avanços em IA afetarão diretamente


seus negócios. Por isso, diversos setores têm se preocupado cada vez mais em como
montar times que atendam a este novo cenário. Porém, muitos executivos não têm
tanta experiência na construção dessas equipes, nem na integração entre elas.

No livro “Continuous Delivery for Machine Learning” (2010), os autores Jez


Humble and David Farley já exemplificaram isso, ao publicar um estudo de caso sobre
um aplicativo de aprendizado de máquina para previsão de vendas. O exemplo era
como aplicar a entrega contínua no projeto construído para o site AutoScout, para
prever os preços dos carros publicados na plataforma.
67
Este aplicativo resolve um problema comum de previsão enfrentado por muitos
varejistas: tentar prever quanto de um determinado produto será vendido no futuro,
com base em dados históricos.

O primeiro desafio é a estrutura organizacional: diferentes times são


responsáveis por diferentes partes do processo e nem sempre estão integrados. Os
engenheiros de dados podem estar criando pipelines para tornar os dados acessíveis,
enquanto os cientistas de dados estão preocupados em construir e melhorar o modelo
de ML. Então, os engenheiros de aprendizado de máquina ou desenvolvedores terão
que se preocupar em como integrar todo esse modelo e liberá-lo para produção.

Figura 29 - Continuous Delivery for Machine Learning. (2019)


Silos funcionais comuns em grandes organizações podem criar barreiras, sufocando
a capacidade de automatizar o processo de ponta a ponta para implantação de
aplicativos de ML na produção.

Isso leva a atrasos e atritos no time. Um sintoma comum é ter modelos que
funcionam apenas em ambiente de laboratório e nunca saem da fase de prova de
conceito. Ou, se chegarem à produção, tornam-se obsoletos e difíceis de atualizar.

Metodologia Agile e Squads

De acordo com Scrum.org, principal fonte no assunto, Scrum não é uma


metodologia, mas sim “uma estrutura dentro da qual as pessoas podem resolver
problemas adaptativos complexos, ao mesmo tempo que entregam produtos de maior
valor possível de forma produtiva e criativa.”

Para rodar um projeto de IA é necessária ser feita uma adaptação ao Scrum.


Nas etapas de pesquisa e imersão para conhecimento do negócio fica difícil estimar
corretamente o esforço de cada atividade. Por conta disso, o framework do Scrum não
pode ser utilizado na sua completude. No entanto, quando avançamos no projeto e já
temos as hipóteses validadas para construirmos o pipeline de dados e a solução em si,
é possível rodar em Scrum e executar sprints de duas semanas.

68
Uma rotina importante é considerar ao menos uma reunião técnica semanal,
para discutir as hipóteses, avaliar os experimentos, analisar os resultados e definir se
o time continua seguindo naquele caminho ou se deve pivotar.

Comprando Serviços e Realizando Parcerias

Nem sempre contamos internamente com todos os recursos disponíveis para a


composição de um time dedicado a este trabalho, bem como todas as competências
necessárias para um projeto de IA de sucesso. Para isso, boa parte das empresas
contratam soluções prontas ou identificam parceiros (ICTs, empresas de tecnologias,
universidades ou startups), para ampliar sua atuação e desenvolvimento.

O principal desafio ao compor um time de IA para um terceiro é montar uma


equipe multidisciplinar, com algum conhecimento na área de atuação que o cliente
procura. As aplicabilidades de recursos em inteligência artificial são inúmeras. Podem
servir tanto para empresas de varejo, como do setor financeiro, saúde, automobilístico,
energético, agronegócio, logístico e diversos outros. É preciso uma fase de imersão e
aprofundamento, antes de construir a solução.

Em 2020, a CB Insights divulgou um ranking com as 100 startups de IA mais


promissoras do mundo com base em vários fatores, incluindo atividade tecnológica,
patentes, relações comerciais, perfil de investidores, notícias, potencial de mercado,
cenário competitivo e força de equipe. Mais de cinco mil foram avaliadas. Contratar
uma startup que já tenha uma solução pronta e testada, pode encurtar demais o
caminho para se chegar ao resultado esperado.

Outra possibilidade é contratar ICTs (Institutos de Ciência e Tecnologia) que


são órgãos ou entidades da administração pública ou entidades privadas, sem fins
lucrativos, que tenham como missão institucional, dentre outras, executar atividades
de pesquisa básica ou aplicada de caráter científico ou tecnológico.

Uma ideia de parceria interessante e inovadora será juntar o trabalho de um


ICT com a da Universidade, onde os professores atuem como especialistas no domínio
que a aplicação irá trabalhar, trazendo o conhecimento da academia, contribuindo
com artigos e papers onde todo esse material acadêmico possa embasar as pesquisas
e os experimentos.

Fazer a junção do pensamento científico para uma solução de mercado pode


dar o norte na definição de hipóteses mais claras, cria atalhos para a validação mais
assertiva e aproveita os conhecimentos adquiridos na academia ao longo de anos de
estudos.

Workshops, Hackathons e Garagens de Inovação

Caso a empresa esteja com conhecimentos incipientes em IA e precise


desenvolver mais a pauta de transformação digital, uma boa pedida para estimular a
geração de ideias será realizar hackathons, promover workshops de conteúdo para
capacitação do time ou criar suas próprias Garagens de Inovação.
69
Um hackathon (“hack”, que significa programar com excelência, e “marathon”,
de maratona) é definido como uma maratona de programação fortemente ligada às
novas tecnologias. Pode ser explicado como um sprint, onde os participantes se
reúnem num período de tempo contínuo (mais de um dia), 24/7, no qual várias
equipes concentram seus esforços na inovação e não em sua rotina normal do dia a
dia. A intenção é cocriar protótipos de soluções voltados especialmente à TI. Os times
também contam com Designers e pessoas de Negócios para apoiar na construção e nas
decisões.

É possível rodar um hackathon com pessoas do seu próprio time ou buscar


talentos externos. Aliás, essa tem sido uma boa tática usada pela área de Recursos
Humanos em empresas de tecnologia e startups: fazer uma maratona de tecnologia
como uma forma de recrutar novos colaboradores.

As Garagens de Inovação são espaços físicos, destinados a gerar insights, ideias,


desenvolvimento e testes de soluções. É um modelo que possui a capacidade de
agilizar processos complexos. As empresas que quiserem contratar os serviços da
garagem poderão criar e testar protótipos para soluções específicas num curto espaço
de tempo. É um local para aceleração de ideias e de transformação da inovação das
empresas.

Dessa forma, podemos entender que o sucesso de um time de IA é fruto de


diversos fatores, tais como: a multidisciplinaridade do time, a escolha dos parceiros
adequados, o mapeamento correto das habilidades e competências, uma gestão
estratégica ligada à Governança da empresa, bem como a utilização dos recursos de
inovação disponíveis, como maratonas de programação ou garagens de inovação.

70
Capítulo 4: Principais fornecedores e funcionalidades disponíveis via API

Por Marco Lauria/I2AI

Agora que já vimos os principais casos de uso e os recursos necessários para


implementar um projeto de IA, vamos abordar um pouco como ter acesso a esta
tecnologia.

Como ter acesso a essa tecnologia?

Muitos perguntam se para ter acesso a essa tecnologia é necessário fazer


grandes investimentos, adquirir equipamentos sofisticados, instalar softwares etc., a
boa notícia é que essa tecnologia está acessível sob a forma de serviços, disponibilizada
pelos grandes fabricantes e com preços bem razoáveis baseados na utilização.

Esses serviços são oferecidos na forma de APIs. O termo “Application


Programming Interface” significa Interface de Programação de Aplicativos e
representa um conjunto de rotinas e padrões de programação para acesso a um
aplicativo de software ou plataforma, baseado na Web. Por meio dessas APIs é possível
acessar determinadas funcionalidades e incluí-las em rotinas mais complexas como
veremos adiante.

Vamos falar um pouco do mecanismo de precificação e apresentar o


conceito “Freemium”

“Freemium” é a junção dos termos “Free” (gratuito) e “Premium” (exclusivo).


Trata-se de um modelo de negócio em que um produto ou serviço é oferecido
gratuitamente, porém um valor é cobrado por alguma funcionalidade adicional. O
Spotify e o Youtube por exemplo oferecem serviços freemium onde o usuário tem
acesso aos serviços básicos de forma gratuita, porém paga para poder fazer downloads,
usar o aplicativo off-line e se livrar de anúncios.

A maioria dos grandes fornecedores de APIs com serviços de Inteligência


Artificial trabalha na modalidade “Freemium”, permitindo que se possa desenvolver
uma aplicação com custo zero ou bastante reduzido, pagando somente quando a
aplicação estiver em produção, com volumes elevados de acesso e alguma receita
sendo cobrada pela funcionalidade. Este mecanismo possibilita reduzir o custo de
desenvolvimento e as barreiras de entrada para incentivar a utilização destes serviços.

O desenho a seguir exemplifica esse mecanismo de precificação. Normalmente,


temos alguns usuários na camada gratuita e outros nas camadas pagas com
funcionalidades e volumes de utilização maiores. Como nos programas de celular,
também costumam existir modelos pré-pago e pós pago e é possível reduzir o custo
por chamada dos serviços se optarmos antecipadamente por contratar volumes
maiores.

71
Mecanismo de Precificação

Figura 30

Quais serviços estão disponíveis via API e quem são estes provedores?

Existem diversos provedores de serviços em nuvem, porém os mais relevantes


mundialmente são AWS (Amazon Web Services), Microsoft, Google e IBM. Vamos
rapidamente descrever os principais serviços fornecidos por eles para depois mostrar
de forma sucinta como acessá-los.

Entendendo as funcionalidades

Existe uma gama enorme de serviços disponíveis sob a forma de API e incluem
diversas outras funcionalidades além das que utilizam recursos de Inteligência
Artificial. Aqui vamos nos focar apenas nos serviços de IA, mas é importante saber que
existem muitos outros serviços interessantes disponíveis.

Dentre os Recursos que utilizam IA podemos destacar:

- Reconhecimento de Imagem e Vídeos

Detecção facial, reconhecimento de emoções baseado no rosto da pessoa,


análise de conteúdo em imagem e vídeo (identificação de objetos) e reconhecimento
de imagem personalizada por meio de treinamento do modelo. Possibilitam também
extração de textos em formulários (OCR) e autenticação do usuário pelo
reconhecimento facial.

72
- Serviços de Linguagem

Conversão de texto em fala (muitas vezes com suporte para mais de uma voz,
masculina ou feminina), Transcrição de fala em texto e recursos de tradução em
diversas linguagens. Possibilitam também identificar um usuário pela voz para
autenticação.

- NLP, entendimento de linguagem natural e serviços para


desenvolvimento de chatbots

Possibilitam o entendimento de linguagem natural para construção de bots e


mecanismos de resposta automática.

- Recomendações personalizadas

Facilitam a construção de modelos de recomendação personalizada de forma a


oferecer uma experiência diferenciada e aumentar a propensão de compra e o
engajamento do cliente.

- Previsão de Demanda

Permite a criação de modelos de resultados futuros, incluindo previsão de


demanda, necessidade de recursos e desempenho financeiro.

- Pesquisa Avançada e Busca

Permite exploração de conteúdo relevante em escala, pesquisa avançada em


grandes volumes de dados com diversos tipos de formato.

- Prevenção de Fraude

Modelos que usam aprendizado de máquina que permitem a detecção de


diversos tipos de fraude em tempo real, necessários para uma operação de comércio
eletrônico.

73
Principais fornecedores de IA

AWS - Amazon Web Services

https://aws.amazon.com/pt/machine-learning/ai-services/

Figura 31 - Exemplos de Serviços de IA disponibilizados pela AWS

74
Figura 32 – Exemplos de serviços disponibilizados pela Amazon

Além dos serviços mais comuns disponibilizados em todas as plataformas, vale


a pena destacar os serviços de Previsão de Demanda (Amazon Forecast),
Recomendações Personalizadas (Amazon Personalize) e Prevenção de Fraudes
(Amazon Fraud Detector) que podem facilitar muito o desenvolvimento de soluções
para essas finalidades específicas. Eles se baseiam na mesma tecnologia usada pela
Amazon para seu comércio eletrônico.

75
Figura 33 – Serviços de Previsão de Demanda da Amazon

76
Microsoft Azure

https://azure.microsoft.com/pt-br/overview/ai-platform/

Figura 34 – Microsoft Azure – Machine Learning

Além dos serviços de Machine Learning, vale a pena destacar os serviços de


Pesquisa Cognitiva do Azure, serviços de Mineração de Conhecimento que se utilizam
dos mesmos recursos de linguagem natural empregados pelo Bing e Office.

77
Figura 35 – Pesquisa Cognitiva do Azure

Além dos serviços descritos acima, temos também os serviços cognitivos. Os


Serviços Cognitivos se subdividem em Serviços de Decisão, Idioma, Fala, Visão e
Pesquisa na Web e para cada uma destas categorias existem diversas opções
disponíveis em diversas linguagens. Ao todo temos mais de 30 serviços disponíveis
nessa categoria.

Figura 36 – Serviços Cognitivos do Azure

78
Serviço de Bot, serviço que permite o desenvolvimento de bots inteligentes.

Figura 37 – Serviço de Bot do Azure

Google Cloud

https://cloud.google.com/products/ai?hl=pt-br

Figura 38 – Produtos de IA e Machine Learning

79
Entre os Serviços básicos disponíveis pelo Google encontramos Serviços de
Visão, Idioma, Conversa, Dados Estruturados e AutoML.

Figura 39 – Elementos básicos de IA

80
Serviços de Idioma do Google, Processamento de Linguagem Natural e Tradução

Figura 40 – Linguagem Natural e Tradução

81
Serviços de Conversa do Google Conversão de Fala para Texto e Texto para Fala.

Figura 41 – Serviços de Conversa do Google

82
IBM Watson

https://www.ibm.com/br-pt/watson/products-services

Na figura a seguir temos os principais serviços disponibilizados pela IBM.

Além dos serviços de reconhecimento de Imagem, conversão de texto em fala,


tradutor e NLP similares aos dos demais fabricantes, temos dois serviços interessantes
que são o “Watson Personality Insights” e o “Watson Tone Analyzer”.

Figura 42 – Principais produtos disponibilizados pela IBM

83
Com o “Watson Personality Insights” é possível entender hábitos e preferências
do cliente por meio da análise de um texto. Com isso pode-se customizar uma oferta
para aumentar sua aceitação.

Figura 43 – Watson Personality Insights

Com o “Watson Tone Analyzer” é possível analisar emoções e entonações


baseando-se no que as pessoas escrevem e monitorar conversas de atendimento ao
cliente para avaliar se eles estão satisfeitos com o atendimento.

Figura 44 – Watson Tone Analyzer

84
Capítulo 5: Escolhendo um Projeto

Por Marco Lauria/I2AI

Nos capítulos anteriores, vocês aprenderam sobre os principais casos de uso de


IA e ainda sobre como fazer um levantamento dos recursos disponíveis e identificar
gaps para contratação, seja por meio de recrutamento ou sob a forma de serviço.
Aprenderam também sobre os principais serviços disponíveis sob a forma de API dos
quatro grandes fabricantes.

O próximo passo é escolher um projeto piloto para implementar IA. Para isso,
é importante entender o nível de maturidade da empresa.

Análise do Grau de Maturidade da Empresa

Podemos avaliar o Grau de Maturidade em IA da empresa quando examinamos


o uso que ela faz atualmente das ferramentas de Analítica e BI. Muitas empresas ainda
usam apenas o Excel, instalado como instância isolada nos computadores dos
funcionários. Isso limita muito a colaboração entre eles e torna um pesadelo o controle
de versões e atualizações pois em um dado momento apenas um funcionário pode
atualizar a planilha. Além das limitações da ferramenta, existem diversas outras
causadas pela arquitetura da solução.

Uma solução mais eficiente é o uso de ferramentas de BI. O uso dessas


ferramentas permitirá a construção de dashboards que trabalham sobre uma base de
dados unificada, permitem que diferentes usuários tenham visões personalizadas e
garantem a consistência dos resultados.

Uma vez que já exista uma utilização de dados pela empresa, a próxima
pergunta é qual o uso que se faz dela. Esses dados são utilizados apenas para observar
o que aconteceu ou podemos entender por que isso aconteceu? Conseguimos fazer
simulações de cenários para prever o que pode acontecer? A partir disso conseguimos
entender o que devemos fazer? Entender como a empresa usa os dados nos ajuda a
determinar o Grau de Maturidade no uso de ferramentas de analítica e,
consequentemente, o quão preparada ela está para o uso de Inteligência Artificial.
Lembre-se de que precisaremos de dados para treinar os modelos e IA deve ser vista
como uma camada externa trabalhando em conjunto com outras ferramentas para
gestão e análise dos dados.

85
Figura 45 – Grau de Maturidade em IA

Como Escolher um candidato para IA

Vamos então escolher um “problema” que possa se beneficiar do uso de


ferramentas de IA. Precisamos entender o que a Inteligência Artificial pode fazer e o
que tem valor para o negócio. O ideal para esta análise é reunir especialistas na área
de “Ciência dos Dados/Machine Learning” e especialistas de “Negócio” para avaliar e
ranquear potenciais candidatos.

Os especialistas técnicos (Cientistas de Dados/Engenheiros de ML) devem ter


informação sobre os dados existentes e que tipo de conhecimento conseguimos extrair
deles usando as diversas possibilidades que a Inteligência Artificial nos oferece.
Podemos “mineirar” estes dados de várias formas, criar modelos que aprendam com
eles e façam previsões, porém, precisamos entender se temos o volume de dados
suficiente e com a qualidade adequada para o resultado que pretendemos.
Conseguimos atingir o nível de precisão esperada com estes dados? É importante ser
realista sobre o que a Inteligência Artificial pode fazer, levando-se em conta as
ferramentas existentes e o volume e qualidade de dados disponíveis.

Vou tentar exemplificar com dois usos distintos para um mesmo caso. Um
sistema de reconhecimento de imagens que produz um diagnóstico.

O primeiro é de uma seguradora, que vai fazer um diagnóstico automático das


avarias provocadas por acidentes, baseado nas imagens fornecidas pelo usuário, via
aplicativo, no momento da comunicação do incidente. Quantas imagens essa
seguradora possui para treinar o modelo? Qual a precisão requerida? Pode ser que
para uma estimativa do custo do incidente uma precisão de 80% na avaliação do grau
de avaria seja suficiente.

O segundo é um sistema de diagnóstico de imagens para uso médico. Ele deve


identificar com precisão (certamente maior do que a requerida no caso anterior) a
existência ou não de uma condição, por exemplo, a detecção de um glaucoma ou câncer

86
de pele. Quantas imagens temos para treinar o modelo e que nível de precisão
conseguimos com este volume de imagens? Essa precisão atende ao requerimento
desse diagnóstico?

Se não tivermos dados para atingir a precisão requerida, podemos considerar a


compra, ou parceria com outras instituições, de forma o obter o volume de dados
necessários para treinar o modelo.

Cabe também aos especialistas técnicos fazer uma análise do investimento


necessário, dos recursos requeridos e do tempo previsto para se atingir os resultados
desejados. Em muitos casos pode-se quebrar o projeto em iniciativas menores com
objetivos intermediários a serem perseguidos. Isso ajuda a avaliar a progressão do
projeto contra a programação inicialmente prevista.

Os especialistas de negócio, por sua vez, são os mais capacitados para


quantificar o benefício que se consegue obter com o projeto. De nada adianta investir
num projeto que não traga um benefício para a empresa. Devemos, sempre que
possível, determinar objetivos realistas e fazer uma análise de Retorno do
Investimento (ROI), levando-se em conta o retorno pretendido e o investimento
necessário.

A escolha do projeto piloto deve vir da interseção daquilo que a Inteligência


Artificial pode fazer, considerando as técnicas disponíveis e o volume/qualidade dos
dados existentes, com a análise feita pelos especialistas com conhecimento do negócio
do benefício que ele vai proporcionar.

O QUE INTELIGÊNCIA O QUE TEM VALOR PARA O


ARTIFICIAL PODE FAZER NEGÓCIO

Especialistas de IA e ML Especialistas de Negócio (SME)


Time multidisciplinar (cross functional)

Figura 46 – Agregar valor ao negócio com IA

87
Matriz de Dificuldade e Benefício para o Negócio

Como já explicamos, é evidente que devemos buscar um projeto que traga


benefício para empresa, porém se temos vários candidatos, qual devemos escolher?
Escolhemos aquele que traz o maior benefício? Nem sempre!

É importante desenhar uma matriz de dificuldade e benefício (valor). Se este é


o primeiro projeto sendo desenvolvido pela empresa, provavelmente é melhor buscar
um candidato que não tenha um grau de complexidade muito elevado, porém traga
um benefício razoável. O sucesso e aprendizado obtido com esse projeto servirão como
base para se realizar projetos ainda mais complexos e capazes de gerar um benefício
maior. Isto é exemplificado na figura abaixo. Devemos escolher candidatos no lado
direito da matriz, preferencialmente no quadrante superior em verde escuro.

Figura 47 – Matriz de dificuldade e benefício

Realizando diligência técnica e de negócio

Como mencionado anteriormente, a escolha do projeto deve levar em


consideração tanto aspectos técnicos, como de negócio, porém, antes de partirmos
para implementação, sugiro realizar Diligências Técnica e de Negócio para validar as
premissas consideradas na análise anterior.

Entre os aspectos que devem ser validados por essas diligências destacam-se:

Diligência Técnica (IA)

- As metas de Performance são possíveis?


- Temos os dados necessários para atingir esse nível de performance?
- Esses dados têm o volume requerido e a qualidade necessária?

88
- Quais os recursos requeridos?
- Temos estes recursos disponíveis para alocar ao projeto?
- Precisamos contratar algum recurso ou buscar alguma empresa para
contratação de serviço?
- Estabelecer um cronograma viável e pontos de controle
- Qual o custo total envolvido, considerando recursos e investimentos

Diligência de Negócio

- Validar os Objetivos de Negócio


- Reduzir custos
- Aumentar renda ou lucratividade
- Lançar novos produtos
- Utilizar métodos tradicionais para validar se os objetivos de negócio são
possíveis
- Comprovar o ROI do projeto levando-se em conta o custo apurado pelo time
técnico
-

Em conjunto, os dois times devem estabelecer o cronograma de gerenciamento


do projeto e criar um PMO, Escritório de Gerenciamento do Projeto, para
acompanhamento das metas e objetivos e reporte do progresso para o time executivo
envolvido.

O que desenvolver? Como aproveitar o que já existe?

Uma questão importante é definir O que desenvolver? Podemos aproveitar


modelos e APIs já existentes para acelerar o desenvolvimento? Cabe ao time técnico
avaliar essa questão. Muitas vezes podemos obter benefícios aproveitando serviços
disponíveis via API e treinar esses serviços com os dados existentes. Note que a
propriedade intelectual resultante é da empresa e isso vai se constituir numa vantagem
competitiva. Embora ela se utilize de uma API oferecida por terceiros, o modelo
treinado com os dados é propriedade intelectual da empresa que o treinou e não estará
disponível para uso dos concorrentes.

Obtendo Vantagem Competitiva – O poder das plataformas


O Círculo Virtuoso de IA & “The winner takes it all”

Costuma-se dizer que os pioneiros no uso de Inteligência Artificial se


beneficiam do Círculo Virtuoso de IA. Os atributos da solução atraem clientes, que
geram mais dados, que possibilitam treinar melhor o modelo e resultam num produto
melhor, que atraí mais clientes e o ciclo se repete indefinidamente.

89
Figura 48 – O Círculo Virtuoso de IA & “The winner takes it all”

Plataformas de Tecnologia costumam se beneficiar desse círculo virtuoso e o


vencedor fica com tudo, como na expressão: “The winner takes it all”. Basta
examinar os líderes de segmento e suas plataformas.

Quais os concorrentes do Waze? Facebook? Google? Amazon? Qual a


probabilidade de uma empresa oferecer um produto ou serviço que concorra com estes
líderes? Levando-se em conta o volume de dados que eles possuem e o número de
usuários. Cria-se uma barreira de entrada imensa!

Isso reforça a importância de liderar essas transformações com o uso de


tecnologia. A diferença entre ser um pioneiro na adoção da tecnologia ou um seguidor
pode trazer uma vantagem competitiva difícil de ser batida.

As Plataformas de Tecnologia se beneficiam de um modelo onde os custos para


adição de novos usuários aumentam de forma desprezível, se comparado com as
receitas e os lucros. É comum que startups briguem para se tornar líderes de mercado
ainda que para isso precisem perder dinheiro por muitos anos. Uma vez estabelecidas,
se beneficiam de um ganho de escala onde o aumento de usuários leva a um aumento
exponencial da receita e lucratividade.

90
Vol 3

91
Terceiro Volume: Implementando IA na sua Empresa

Capítulo 6: Passos de Um Projeto de IA

Por Patrícia Prado

Ao passo que a inteligência artificial (IA) e o aprendizado de máquina (ML)


passam de jargões de negócios para uma adoção corporativa mais ampla nas
empresas, isso possibilita que os líderes de negócios tracem planos estratégicos para
fazer melhor uso dessas tecnologias.

Compreender a aplicabilidade de usar IA e traçar o caminho correto para a


adoção de IA e ML é o diferencial de sucesso dentro das organizações, porque os
desafios de implementação existirão hoje e sempre. No entanto, essas novas
tecnologias incorporadas como “modelos de aprendizados de máquina” ou “modelos
inteligentes” como queiramos denominar, serão jornadas evolutivas de soluções onde
não mais teremos uma corrida a um “ponto de chegada”.

Figura 49 - Fonte:Pixabay

A Forrester relatou recentemente que quase 2/3 dos tomadores de decisão de


tecnologia corporativa implementaram, estão implementando atualmente ou estão
expandindo seu uso de IA. E, segundo informações da International Data Corp, os
gastos em tecnologias de IA dentro das organizações, somente no ano de 2020, estão
estimados em mais de US$ 47 bilhões, contra US$ 8 bilhões em 2016.

92
Trago esta breve introdução para reforçar que cada vez mais a adoção da
tecnologia de IA e ML nos projetos estratégicos transformará os modelos de negócios
e os principais processos nas organizações, aprimorará as operações e trará maior
ganho de eficiência de custos; entretanto, também é preciso reservar um tempo
suficiente para aprofundar os problemas ou desafios específicos que as empresas
gostariam que a IA resolvesse; quanto mais específico for o objetivo, maiores serão as
chances de sucesso para a implementação de IA.

A seguir, os cinco elementos-chave para o sucesso de uma implantação de


projeto de IA devem ser seguidos, não somente considerando sua ordem, mas a
construção de valor que cada um desses elementos soma no resultado do projeto de
IA, são eles:

Obter Dados Treinar Modelo Aprimorar

2 4

1 3 5
Limpar, Preparar Testar Dados
& Manipular Dados
@ LEGAMI Intelligence

Figura 50 - Legami Intelligence - elementos-chave para o sucesso de uma


implantação de projeto de IA

1-Coletando os dados

Obtendo dados para transformá-los em informações de valor.

A primeira etapa é quando buscamos todas as fontes de dados usadas pela


empresa e os rastreamos para a obtenção de todas as informações – isso é essencial.
Uma fonte de dados é um ponto de fornecimento de dados a partir do qual as
informações fluem para seu banco de dados.

Garantir que os processos e sistemas existentes sejam capazes de capturar e


rastrear os dados necessários para realizar as análises será o que diferenciará o bom
desempenho das etapas seguintes. Dê uma atenção importante a essa avaliação.
Provavelmente, uma quantidade considerável de tempo e esforço será gasta na
ingestão e no emprego desses dados, de modo a garantir que sejam corretamente
capturados em volumes suficientes e, com as variáveis ou recursos corretos, já

93
acelerará muito das etapas seguintes enquanto eficiência de trabalho e provavelmente
a eficácia nos resultados esperados.

Outra questão muito importante que não pode ser deixada à margem é a
verificação quanto à existência de mais de uma fonte de dados sobre uma mesma
variável usada pela empresa. Por exemplo, em várias empresas as equipes de vendas e
marketing criam, extraem e mantêm várias fontes, extraindo uma ampla gama de
dados para conduzir os leads pelo funil. Por outro lado, quando existir outras equipes
que possuem outras fontes de dados paralelas, deve-se organizar com as partes
interessadas a maior unificação possível, quebrar os silos e ser eficiente na
transparência dos dados, principalmente antecipar as etapas seguintes deste capítulo.

2-Higienizando e manipulando os dados

A limpeza e manipulação dos dados é uma das etapas mais sensíveis do projeto,
porém, muito necessária porque será o momento de compreender os ‘pontos de valor’
e chancelar a validade da base de dados coletados.

Se não acreditarmos nos dados existentes, se são validarmos que estes dados
possam ser aplicados ao problema, manipulá-los o quanto puder para atingir o
objetivo original, qual a necessidade de seguir adiante? Nenhuma.

O processo de higienização mais habitual é por padrões. Tais padrões também


devem ser válidos e aplicáveis nas etapas seguintes, de acordo com o problema a ser
resolvido. Assim como deve ser preservado cada tipo de fonte que forneceu os dados,
suas respectivas frequências e assim todas as demais características dos dados, além
de considerar que as fontes de terceiros não são possíveis de serem padronizadas ou
alteradas.

Falando de manipulação e validação dos dados, deve-se considerar que a


qualidade deles é tão crítica para um resultado bem-sucedido quanto seu volume.
Desta forma, priorizar os procedimentos de governança de dados é algo não
negociável. Explorar os dados para prepará-los, manipulando e compreendendo as
informações de forma a estabelecer um rápido exercício de exploração de dados que
valide as pressuposições, ajudará a estabelecer se os dados contam a história certa com
base na experiência do assunto da empresa e na visão de negócios.

Um elemento crucialmente importante da higienização e manipulação dos


dados é garantir que esses dados e todo o projeto estejam em conformidade com os
regulamentos de privacidade de dados, assunto que já foi comentado no capítulo 1.
Garantir essa avaliação na manipulação dos dados será indispensável, porque é o
momento de obter o máximo de valor deles sendo que uma parte desse processo está
na garantia dos conjuntos de dados usados. Conjuntos esses que não devem reproduzir
nem reforçar qualquer tendência que possa levar a resultados tendenciosos ou
injustos.

94
3- Ética (ou viés do aprendizedo) dos dados em AI

O assunto “ética dos dados” é tão relevante que tratamos como um elemento à
parte para dar ênfase a sua importância, além de apresentar alguns cuidados para não
inserir tendências não intencionais ou outros padrões indesejáveis, que evitem o viés
do aprendizado.

Na verdade, os dados usados na construção de modelos de aprendizado de


máquina e algoritmos de IA são frequentemente uma representação do mundo
exterior e, portanto, podem ser profundamente influenciados por certos grupos e
indivíduos. Pois, quando se treina um modelo com dados tendenciosos, ele
interpretará o viés recorrente como uma decisão de reproduzir e não algo a corrigir.
Isso ocorre quando o algoritmo não é capaz de reconhecer preconceitos e, sendo os
modelos de IA modelos inteligentes de máquinas, podem vir a ser um fenômeno ainda
mais delicado que o “viés amostral”, e determinar, assim, “ausência de ética”.

Esse viés do aprendizado de máquina decorre de problemas introduzidos pelos


indivíduos que projetam e treinam os sistemas de aprendizado de máquina. Esses
indivíduos podem criar algoritmos que refletem tendências cognitivas não
intencionais ou preconceitos da vida real. Ou os indivíduos podem introduzir vieses
porque usam conjuntos de dados incompletos, defeituosos ou prejudiciais para treinar
e/ou validar os sistemas de aprendizado de máquina. Alguns dos tipos de viés
cognitivo, que podem afetar inadvertidamente os algoritmos, por exemplo, são:
estereotipagem, preconceitos de gênero, sexo e raça, efeito de movimento, percepção
seletiva e até viés de confirmação.

Na figura abaixo, observe um exemplo de preconceito de gênero, adaptado de


um relatório publicado por pesquisadores da Universidade da Virginia e da
Universidade de Washington. É um sistema de rotulagem de papéis semânticos visuais
que “foi treinado” a identificar uma pessoa cozinhando como mulher, mesmo quando
a imagem é masculina.

@ tradução LEGAMI Intelligence

Figura 51 – Exemplo de preconceito de gênero - Fonte: site TechTarget

95
O assunto é muito importante porque vai além do “erro em si”, mas alcança o
impacto que essa mensagem pode ressoar no núcleo social que este modelo circula.
Algoritmos de aprendizado de máquina devem estar livres de vieses. Quando esses
vieses são resolvidos, o aprendizado de máquina pode ser uma ótima ferramenta para
realmente eliminar o viés humano. Deve-se continuamente procurar maneiras de
melhorar os algoritmos de aprendizado de máquina para garantir que se alcance o
melhor resultado cada vez mais.

4-Treinando e testando o modelo

Em vez de se concentrar no objetivo final que a hipótese deve atingir, é


importante focar na própria hipótese. A execução de testes para determinar quais
variáveis ou recursos são mais significativos validará a hipótese e melhorará sua
execução.

Nessa etapa é essencial que especialistas de negócios e de domínio estejam


envolvidos, pois o feedback contínuo é uma etapa crítica para a validação e para
garantir que todas as partes interessadas estejam alinhadas sendo um acelerador na
liberação do modelo. Na verdade, como o sucesso de qualquer modelo de ML depende
de uma engenharia de recursos bem-sucedida, um especialista no assunto sempre será
mais valioso do que um algoritmo quando se trata de derivar recursos melhores.

Tal como acontece em um teste de hipótese onde se deseja validar uma


“alegação”, que nesse caso pode ser a validação do “modelo estar ou não dentro dos
padrões aceitáveis para implantação”; portanto é importante que os especialistas em
negócios e domínio estejam sintonizados nas descobertas e alinhados para que tudo
esteja indo na direção certa dessa validação.

Os dados precisarão ser divididos em dois conjuntos de dados: um conjunto de


treinamento, no qual o algoritmo será treinado, e um conjunto de teste, em relação ao
qual será avaliado. Dependendo da complexidade do algoritmo, isso pode ser tão
simples quanto selecionar uma divisão aleatória de dados, como 60% para
treinamento e 40% para teste, ou pode envolver processos de amostragem mais
complicados.

Definir medidas de desempenho (KPIs) auxiliará na avaliação, comparação e


análise de resultados de vários algoritmos que, por sua vez, ajudarão a refinar ainda
mais modelos específicos.

5- Implantando o modelo

Uma vez que o modelo esteja construído e validado, ele deve ser colocado em
produção. Começando com um lançamento limitado de algumas semanas ou meses,
durante o qual os usuários de negócios podem fornecer feedback contínuo sobre o
comportamento e o resultado do modelo, este pode ser implementado para um público
mais amplo.

Criar ferramentas e conectar plataformas que possibilitem automatizar a


ingestão de dados, facilitará e dinamizará disseminar os resultados para os públicos
96
apropriados. E que, se possível, poderiam ser já inicialmente desenhadas, a meu ver,
desde o início do projeto, mesmo que não sejam paralelamente implantadas. Isso
agilizará o processo de implantação nesse estágio, mesmo que novas necessidades
surjam pelo caminho nesse novo desenho integrado.

A plataforma deve fornecer várias interfaces para dar conta de diferentes graus
de conhecimento entre os usuários finais da organização. Os analistas de negócios
podem querer realizar análises adicionais com base nos resultados do modelo, por
exemplo, enquanto os usuários finais casuais podem querer apenas interagir com os
dados por meio de painéis e visualizações.

O que não posso deixar de reforçar aqui é que depois de todo modelo ser
publicado e implantado para uso, ele deve ser monitorado continuamente, pois, ao
entender sua validade, toda organização será capaz de atualizá-lo conforme
necessário. Como comentado em outro momento, os modelos podem ficar
desatualizados por vários motivos. É preciso ficar atento. A dinâmica do mercado pode
mudar, ou até a própria empresa e seu modelo de negócios. Os modelos são
construídos com base em dados históricos para prever resultados futuros, mas,
conforme a dinâmica do mercado se distancia da forma de como uma organização
sempre fez negócios, o desempenho do modelo pode se deteriorar. É importante,
portanto, estar atento a qual processo deve ser seguido para garantir que o modelo seja
mantido atualizado.

Pois bem, construir e implantar um modelo de aprendizado de máquina é um


processo iterativo. Levar uma prova de conceito até o produto implantado é trabalhoso
e envolve muitas paradas e recomeços ao longo do caminho. Ter paciência e confiança
na equipe para um trabalho colaborativo diante um planejamento coeso e factível será
um grande diferencial.

Qual o próximo projeto que pretende implementar para se colocar em uma


posição mais forte no futuro? Veja no quadro à frente um breve resumo do que “fazer
e não fazer” ao sentar-se para realizar o planejamento da implementação do próximo
projeto de IA e obter muito sucesso!

97
Figura 52 – O que fazer e não fazer, antes de implantar um projeto

98
Capítulo 7: Incorporando IA na sua Empresa

Por Natan Rodeguero/M-Brain Market Intelligence

Agora que você está prestes a iniciar o primeiro projeto de IA em sua empresa,
lembre-se que Inteligência Artificial não é uma questão de tecnologia, mas sim uma
questão de estratégia. Portanto nossa primeira sugestão é:

1. TENHA UM PROBLEMA para solucionar, não queira trazer a tecnologia


pelo simples fato de que você sente que precisa fazê-lo.

Analise sua empresa ‘de alto a baixo’; dê um zoom in e um zoom out em todas as
atividades; saia dos relatórios e observe sua realidade, converse com os colaboradores.
Ao fazer esse exercício, sugerimos cinco dimensões para sua análise:

a) Processos de escritório, de BackOffice, usualmente de alto volume e repetitivos;


b) Operações e processos industriais, tais como logística, estoque, produção;
c) Projeções e tomada de decisão, envolvendo tanto variáveis objetivas quanto
subjetivas;
d) Pessoas e relações humanas, especialmente – mas não apenas – pontos de
contato com o cliente;
e) Produtos & Serviços, de pequenas inovações incrementais a completas
mudanças na proposta de valor.

Talvez você tenha percebido que a lista acima caminha do menos para o mais
complexo – imagine um projeto de completa mudança em sua proposta de valor não
dar muito certo? Diante disso, nossa segunda sugestão é:

2. Execute projetos-piloto para ganhar momento.

Equivale a dizer, escolha um projeto que tenha baixo risco ao negócio, porém
mais chances de ser bem-sucedido, e não necessariamente o projeto de maior valor
(seja em redução de custo ou aumento de receita).

Busque resultados visíveis, trabalhe para demonstrar resultados em um


período de seis a 12 meses. Isso trará experiência para sua equipe, seja ao executar o
projeto com time próprio, seja ao interagir com uma equipe subcontratada; e além da
experiência, você irá assegurar o buy in de outros executivos para um próximo projeto.
E, independentemente se você vai usar equipe própria ou (inicialmente) externa:

3. Monte um time para trabalhar com IA.

Sim, mesmo que você contrate forças externas para seu primeiro projeto, ele
não vai andar sozinho – ou vai andar sem muita segurança – se pessoas da organização
99
não estiverem realmente envolvidas para atuar em conjunto com os externos. Para
isso, convoque as pessoas, mesmo que em um primeiro momento elas não saibam, ou
não possam contribuir de forma muito assertiva. Divulgue na empresa toda algo como
“você sempre quis participar de um projeto de Inteligência Artificial, mas nunca soube
como? Venha fazer parte desse time!”.

A diversidade de opiniões e de ‘braços’ no projeto será fundamental ao longo do


caminho.

O time poderá se reportar para o CTO, CIO, CDO ou CAIO, mas


preferencialmente deverá ser fundeado e ter como sponsor o CEO.

E agora que você já tem um projeto e um time...

4. Forneça treinamento abrangente sobre IA.

Essa sugestão abrange tanto o aspecto da tecnologia – o fazer em si, a “mão na


massa” – quanto o cultural – uma barreira clássica, mas contornável, para adoção de
inovação.

Posição na Horas de Tópicos


organização treinamento
▪ O que IA pode fazer pela sua
Executivos e Diretores
Cerca de quatro horas
empresa
de Negócio
▪ Estratégia de IA
▪ Como gerenciar um projeto
Gerentes de áreas (diligência técnica e de negócio)
Cerca de 12 horas
engajadas com IA ▪ Alocação de recursos
▪ Como monitorar o progresso
▪ Como desenvolver modelos e
programar software
Dezenas ou centenas
Times de IA ▪ Adquirindo dados
de horas
▪ Executar projetos específicos de
IA

E agora que seu primeiro projeto está em curso – ou mesmo antes disso – nossa
sugestão é:

5. Desenvolva uma estratégia para IA.

O ideal é que você e sua empresa não vejam IA como um projeto isolado,
tampouco como um ‘projeto de TI’. Pense quando surgiu a Internet até os tempos de
hoje: ainda que no início, de fato, esses fossem vistos como projetos de TI,
rapidamente todas as áreas da empresa, e todas as suas atividades, passaram a utilizar
intensamente as inúmeras possibilidades de uma rede mundial interconectada. Talvez
estejamos falando uma obviedade, mas, é justamente para chamar a atenção de que
com IA não será diferente. Não tarda para que a IA esteja sendo usada literalmente

100
por todos os colaboradores, aplicada em todos os processos, e impacte todos os pontos
de contato com seus clientes e fornecedores. Portanto, ao pensar em IA:

• Olhe sempre para IA pensando em contexto de negócio, em como ela pode auxiliá-
lo a perpetuar sua empresa;
• Procure criar uma vantagem competitiva para sua empresa ou indústria;
• Desenhe uma estratégia que se beneficie do “círculo virtuoso de IA”;
• Crie uma estratégia de dados, inclusive considerando a aquisição de dados de
fontes externas;
• Construa um ambiente de Data Warehouse unificado;
• Explore as possibilidades de uma plataforma;

E novamente, mais que tudo: se você já não o fez até aqui, desvincule o termo
“IA” de tecnologia e passe a relacioná-lo diretamente com ‘estratégia e
competitividade’. E nesse sentido:

6. Trabalhe a comunicação interna e externa.

Mostre ao mundo que sua empresa está na vanguarda, ao educar colaboradores,


usuários, clientes, investidores, candidatos a trabalhar em sua empresa, e a sociedade
em geral. E especialmente em segmentos regulados – mobilidade urbana, saúde,
bancos... – cuide de realçar a IA de sua empresa nas relações governamentais.

101
Apêndice:
Cronologia, uma breve história da Inteligência Artificial - Luís Paulo Farias

1943 - Warren S. McCulloch e Walter Pitts (University of Illinois) - Redes Neurais -


estruturas de raciocínio artificiais em forma de modelo matemático imitando o
sistema nervoso (A logical calculus of the ideas immanent in nervous activity)

1950 - Claude Shannon - Xadrez

1950 - Alan Turing - Teste de Turing (Jogo da Imitação)

1951 - Marvin Minsky - Snarc - calculadora de operações matemáticas simulando


sinapses neurais

1952 - Arthur Samuel - IBM - Jogo de damas que melhora por conta própria

1956 - Conferência de Dartmouth - reunião dos grandes pesquisadores da época -


Nathan Rochester (IBM), John McCarthy, Marvin Minsky, Claude Shannon etc. -
Batismo do conceito de “Inteligência Artificial” - “Cada aspecto de aprendizado ou
outra forma de inteligência pode ser descrita de forma tão precisa que uma máquina
pode ser criada para simular isso”.

1957 - Frank Rosenblatt - Perceptron - algoritmo de rede neural de uma camada

1958 - Desenvolvimento da linguagem de programação LISP

1959 - Machine Learning (capacidade dos computadores aprenderem algo sem serem
programados previamente) - alimentar um algoritmo com dados para

1964 - Primeiro chatbot - Eliza - imitação de uma psicanalista

1969 - Robô Shakey - mobilidade, fala e certa autonomia de ação

Processamento natural de linguagem - compreensão da fala humana (tradução,


geração de linguagem de texto, reconhecimento de fala, processamento de voz)

1970 - 1980 - período sombrio da inteligência artificial (inverno)

1980 - Edward Feigenbaum - Sistemas especialistas - aproximação da IA ao mercado


corporativo - ex: aplicações financeiras - análise de risco de crédito bancário,
algoritmos para aplicação no mercado financeiro

1982-1990 - Japão - quinta geração de computadores - microcomputadores e


microprocessadores (linguagem Prolog - linguagem de baixa adesão) - ideias maiores
que a capacidade de processamento de então

Primeira metade dos anos 1990 - segundo inverno da IA

Segunda metade dos anos 1990 - Internet comercial - as redes se aproveitaram da ia


para desenvolver sistemas de navegação e indexação (vasculhamento automático da
rede e classificação de resultados)
102
1997 - Derrota de Garry Kasparov pelo Deep Blue (Xadrez) - método de cálculo por
força bruta

2002 - iRobot - desenvolvimento do robô assistente de limpeza Roomba

2004 - DARPA - competição anual de carros autônomos - Grand Challenge - Sebastian


Thrun (veículo Stanley) - Universidade de Stanford

2005 - Boston Dynamics - revolução na aplicação da IA | aplicação em carros


autônomos

2008 - Lançamento do recurso do reconhecimento de voz do Google (Processamento


de linguagem natural)

2009 - Waymo - Desenvolvimento de protótipos de direção autônoma pelo Google

2011 - Apple lança a Siri - Amazon lança a Alexa - Microsoft a Cortana e Google o
Assistent

2011 - Watson - plataforma da IBM vence o jogo de perguntas e respostas Jeopardy


(Quiz)

2011 - Fundação da Udacity - Sebastian Thrun e Peter Norvig - oferecimento do curso


online de introdução à inteligência artificial - conceito de universidade voltada para a
tecnologia que fosse prática, barata, acessível e altamente eficaz para o mundo

2012 - Google - deep learning - reconhecimento de “gatinhos” em vídeos no YouTube,


com base em redes neurais (muitas camadas), com foco em assimilações e classificar
elementos - reconhecer e catalogar imagens - visão computacional

2014 - Chatbot “Eugene Goostiman” (The weirdest creature in the world) consegue
vencer o teste de Turing, numa conversa por escrito

2016 - AlphaGo, da empresa Deep mind - venceu o campeão mundial de Go

2018 - Google Duplex - uma tecnologia que fornece um novo recurso (IA) ao Assistente
do Google.

GANs - Redes geradoras adversárias - geração de imagens, vídeos e sons

103
Referências

Figura 53

104
I2AI – International Association of Artificial Intelligence

A I2AI (International Association of Artificial Intelligence) é uma associação ,


sem fins lucrativos, que tem o propósito de promover o desenvolvimento de
Inteligência Artificial nas sociedades em que atua para capacitar e tornar mais
competitivo o país frente às grandes mudanças que o potencial disruptivo desta
tecnologia irá causar na economia mundial.

Queremos fazer isso através do compartilhamento de conhecimento de casos


aplicados de Inteligência Artificial e, através da conexão do que chamamos de
ecossistema de IA, aproximamos as partes, disseminando conhecimento, gerando
negócios e desenvolvimento.

Todas as nossas atividades, desde a associação, com seus comitês e reuniões de


networking, até os cursos executivos de especialização em Inteligência Artificial, os
eventos e consultoria visa a conexão de negócios, conhecimento e tecnologia
aproximando as diversas partes de um ecossistema para acelerar a adoção sustentável
da Inteligência Artificial no mundo.

Nossa missão é auxiliar pessoas e organizações a se prepararem para o futuro,


com a adoção de tecnologias baseadas em IA, otimizar resultados, melhorar a
performance, aumentar a competitividade e construir uma sociedade mais
sustentável.

https://www.i2ai.org/

Figura 54 – Nossa essência / Nosso ecossistema

105
Para quem quer se capacitar e inovar com Inteligência Artificial

Conheça a plataforma de cursos que a I2AI criou para você e sua empresa serem
líderes em processos de transformação digital. Com opções de conteúdo para decisores
de negócios utilizarem Inteligência Artificial em suas estratégias e módulos técnicos
para profissionais de tecnologia.

Os cursos e certificados são ministrados presencialmente ou on-line, em


módulos de curta duração sempre com aplicações práticas. Confira as turmas
disponíveis e garanta sua vaga!

https://www.i2ai.org/cursos

Associados I2AI têm desconto em todos os nossos cursos on-line e presenciais.


Se você ainda não faz parte dessa rede conhecimento e oportunidades, associe-se
agora e tenha acesso a este e outros benefícios:

106
107
108
109
Autores

Este livro foi escrito de forma colaborativa pelos membros do Comitê de Inovação da
I2AI. Colaboraram com esta publicação:

Coordenação – Sumário – Apresentação – Roles de um time de IA


- Marco A. Lauria https://www.linkedin.com/in/marcolauria/
Head de Tecnologia da I2AI. Trabalhou na IBM por mais de 30 anos, e nos três últimos
foi o VP de Soluções Cognitivas da América Latina, sendo responsável por fomentar a
transformação digital dos clientes, com soluções de Inteligência Artificial baseadas em
Watson. Liderou ainda por quase 10 anos o grupo de Analytics and Big Data para
América Latina da IBM.

Capítulo 1: O que é Inteligência Artificial e que benefícios ela pode trazer


para sua empresa
A inteligência dos dados como ativo estratégico para as empresas na era
digital
- Patrícia Prado https://www.linkedin.com/in/patriciafprado/
Executiva com 20 anos de experiência, especialista em Digital Strategy e Lean
Customer Journey Analytics, aplica os conhecimentos em AI, RPA, Machine Learning
e outras tecnologias junto à metodologia Lean Seis Sigma; otimizando a jornada da
informação, da estratégia à execução, no aumento da performance de resultados do
negócio e da experiência dos clientes com OKR´s norteados pela cultura data
driven. Passou pela indústria, consultorias PwC e GS&MD, e hoje é sócia fundadora
da LEGAMI Intelligence e atua com as empresas da cadeia de valor do consumo.

O que é Inteligência Artificial


- Luís Paulo Farias https://www.linkedin.com/in/luispaulofarias/

O que é Aprendizado de Máquina


- Guilherme Nunes https://www.linkedin.com/in/guilhermenunesg/
Bacharel em Estatística pela Universidade Federal do Amazonas, com pós-graduação
em Big Data, com ênfase em Ciência de Dados pela FIAP. Atua como Cientista de
Dados na QSOFT, onde executa projetos que envolvem análise e classificação de
textos, manutenção preditiva, previsão de demanda, previsão de evasão de clientes,
entre outros, incluindo ainda treinamentos e cursos na área pela QSOFT. Utiliza
ferramentas e linguagens como Tableau, Rapidminer, R e Python, principalmente.
Também atuou em empresas como RecordTV, Secretaria de Planejamento do
Amazonas, entre outras, ao auxiliar clientes e setores em suas análises descritivas,
diagnósticas, preditivas e prescritivas.

110
Capítulo 2: Casos de Uso de IA mais comuns e seus benefícios
Visão Computacional

- Alessandro de Oliveira Faria - (https://www.linkedin.com/in/alessandro-de-


oliveira-faria-97195835/) - Sócio cofundador da empresa OITI TECNOLOGIA,
Autodidata, Pesquisador cujo primeiro contato com tecnologia foi em 1983, com 11
anos de idade. Profundo conhecedor do Linux, pesquisa e trabalhos com biometria e
visão computacional desde 1998. Experiência com biometria facial desde 2003, redes
neurais artificiais e neurotecnologia desde 2009. Inventor da tecnologia CERTIFACE,
mais de 100 palestras ministradas, 14 artigos impressos publicados, mais de 8 milhões
de acessos nos 120 artigos publicados, Docente da FIA, Membro oficial Mozillians,
Membro oficial e Embaixador OpenSUSE Linux América Latina, Membro do Conselho
OWASP SP, Desenvolvedor/Contribuidor da biblioteca OpenCV e Global Oficial
OneAPI Inovador Intel, Membro Notável I2AI e Responsável da iniciativa Global
openSUSE INNOVATOR.

RPA
- Alexandre Seidl https://www.linkedin.com/in/alexandreseidl/ - É engenheiro de
Computação formado pela PUC-Rio, com especialização em Gestão de Negócios pela
COPPEAD/UFRJ e sócio da LuminaMind (www.luminamind.com.br), empresa de
consultoria de TI, parceira de negócios da IBM e da UiPath, com foco em soluções de
automação digital de negócios por meio do uso de tecnologias como BPMS, BRMS e
RPA.

Chatbot
- Roberto Lima https://www.linkedin.com/in/robertolimajr/ - É executivo de TI, com
sólida experiência nos mercados de Oil & Gas, Farmacêutico, Adm Shoppings e
Indústria em Geral. Sempre atuou no mercado de Consultoria ao estabelecer parcerias
com empresas globais, como Oracle, EY, IBM, entre outras. É CEO da Greenfive,
empresa especializada em soluções de Inteligência Artificial e RPA.

- Victor Figueiredo http://br.linkedin.com/in/victorfig - oito anos de experiência em


Banking, com passagens pelas áreas de negócios: pessoa física, credenciamento e
pessoa jurídica do Itaú-Unibanco. Especialista em Project Manager e Consumer
Journey, com participação em projetos de digitalização, transformação digital, branch
transformation, voice analytics e text-mining.

Algoritmos de Recomendação
- Patrícia Prado https://www.linkedin.com/in/patriciafprado/
- Oscar Adorno https://www.linkedin.com/in/oscaradorno/ - É engenheiro de
Produção, formado pela UFSCar, com mestrado em Administração pela FEA-USP.
Conhecimento principalmente em redesenho de processos, otimização logística,
S&OP, implementação de sistemas, análises quantitativas e sourcing & procurement.
Executivo com mais de 10 anos de experiência em consultoria empresarial, que atende
a grandes empresas como: Unilever, Coca-Cola, Nike, HP, Grupo Votorantim e
Braskem. Especialização em IA: IBM AI Foundations for Everyone.

111
NLP
- Alexandro Romeira https://www.linkedin.com/in/aromeira/

Capítulo 3: Fazendo um levantamento dos recursos internos disponíveis


- Juliana Burza https://www.linkedin.com/in/juliana-burza/ - Master em Marketing
e Relações Internacionais, com experiência em mentoria de negócios e personal
branding. Atua como Gerente de Negócios no CESAR (Centro de Estudos e Sistemas
Avançados no Recife) e apoia empresas a estarem à frente da Transformação Digital.
É líder do Comitê Mundo Digital do Grupo Mulheres do Brasil, fundado por Luiza
Helena Trajano. Escreve mensalmente para a coluna O VIÉS HUMANO NA ERA
DIGITAL da OCI e é membro da i2Ai (International Association of Artificial
Intelligence).

Capítulo 4: Principais Fornecedores e funcionalidades disponíveis via API


- Marco A. Lauria https://www.linkedin.com/in/marcolauria/

Capítulo 5: Escolhendo um projeto


- Marco A. Lauria https://www.linkedin.com/in/marcolauria/

Capítulo 6: Passos de um projeto de IA


- Patrícia Prado https://www.linkedin.com/in/patriciafprado/

Capítulo 7: Incorporando IA na sua empresa


Playbook de Transformação com IA
- Natan Rodeguero https://www.linkedin.com/in/natanrodeguero/ - Diretor da M-
Brain Inteligência de Mercado. Há mais de 20 anos auxilia empresas a desenhar suas
estratégias de marketing e a tomar melhores e mais rápidas decisões, por meio do
conhecimento do cliente, da concorrência, dos canais e das tendências de mercado.

112
Material suplementar aos capítulos

Capítulo 1
A Inteligência Artificial como ativo estratégico e que benefícios ela pode
trazer para sua empresa
Por Patrícia Prado e Alessandro de Oliveira Faria

https://www.quora.com/Who-should-get-credit-for-the-quote-data-is-the-new-oil
https://www.bcg.com/publications/2020/business-applications-artificial-
intelligence-post-covid
https://www.bcg.com/en-us/publications/2019/good-data-starts-with-great-
governance

Transformação Digital: repensando o seu negócio para a era digital,


David.Rogers,2017
https://www.purestorage.com/evolution.html/latamreport
https://pt.wikipedia.org/wiki/Intelig%C3%AAncia_artificial
Revista - HBR2001 - harvard-business-review
https://medium.com/fraktal/cloud-waf-comparison-using-real-world-attacks-
acb21d37805e
https://medium.com/fraktal/cloud-waf-comparison-part-2-e6e2d25f558c
https://assuntonerd.com.br/2020/03/14/o-surpreendente-resultado-das-regras-
owasp-crs/
https://owasp.org/www-project-modsecurity-core-rule-set/
https://owasp.org/www-project-top-ten/

O que é Inteligência Artificial


Por Luís Paulo Farias

Artificial Intelligence for Big Data -


https://subscription.packtpub.com/book/big_data_and_business_intelligence
DAUGHERTY, Paul R.; WILSON, H. James. Humano + Máquina: Reinventando o
trabalho na Era da IA.
https://books.google.com.br/books?id=I0arDwAAQBAJ&pg=PT265&lpg=PT265&d
q=sawyer+robot+brasil&source=bl&ots=M9NhTAU5gn&sig=ACfU3U045lzqbsHsq3
j-5weiriPUGxZjMQ&hl=pt-BR&sa=X&ved=2ahUKEwjf2-
eV7KDqAhXeIbkGHZLiA9wQ6AEwGHoECAsQAQ#v=onepage&q&f=false
AI policy - EUA - https://futureoflife.org/ai-policy-united-states/
How will AI change international politics? - https://futureoflife.org/ai-policy-united-
states/
Artificial intelligence for the american people - https://www.whitehouse.gov/ai/
Canadian AI Strategy - https://www.cifar.ca/ai/pan-canadian-artificial-intelligence-
strategy
Discovery Brasil - Inteligência Artificial – IBM -
https://www.youtube.com/watch?v=W95YlM5-iPk
CARVALHO, Fábio. Gestão do Conhecimento. São Paulo: Editora Pearson. 2012.
CRUZ, Tadeu. Gerência do Conhecimento. São Paulo: Editora Cobra, 2002.

113
O que é Aprendizado de Máquina
Por Guilherme Nunes/ QSOFT – Transformando dados em conhecimento

Imagens coletadas e modificadas


Regressão: https://www.javatpoint.com/linear-regression-in-machine-learning
Classificação:https://subscription.packtpub.com/book/big_data_and_business_int
elligence/9781783555130/1/ch01lvl1sec09/the-three-different-types-of-machine-
learning Smola, A. and Vishwanathan, S.V.N. (2008). Introduction to Machine
Learning, Cambridge University Press
Morettin, P. A. e Singer, J. M. (2020). Introdução à Ciência de Dados – Fundamentos
e Aplicações, versão parcial preliminar, São Paulo-SP.
Shwartz S. S. and David S.B. (2014). Understanding Machine Learning: From Theory
to Algorithms, Cambridge University Press

https://rapidminer.com/glossary/machine-learning/
https://towardsdatascience.com/supervised-vs-unsupervised-learning-
14f68e32ea8d
https://www.javatpoint.com/difference-between-supervised-and-unsupervised-
learning
https://blogs.nvidia.com/blog/2018/08/02/supervised-unsupervised-
learning/#:~:text=In%20a%20supervised%20learning%20model,and%20patterns%
20on%20its%20own.
https://machinelearningmastery.com/supervised-and-unsupervised-machine-
learning-algorithms/
https://www.guru99.com/supervised-machine-learning.html

Capítulo 2:
Chatbots
Por Roberto Lima e Victor Figueiredo

https://www.take.net
https://www.inbenta.com
https://globalad.com.br
http://docs.kitt.ai/chatflow/kik.html
https://www.em360tech.com/ai_enterprise/tech-news/top-ten/ai-chatbot-
platforms/

Visão Computacional
Por Alessandro de Oliveira Faria

FARIA, Alessandro de Oliveira. Biometria digital livre, completa e total! 2010.


https://pt.opensuse.org/ARTIGOS:fprint:_Biometria_digital_livre,_completa_e_to
tal!
FARIA, Alessandro de Oliveira. Criando aplicativos de realidade aumentada.
2009. https://www.vivaolinux.com.br/artigo/ARToolKit-Criando-aplicativos-de-
Realidade-Aumentada

114
FARIA, Alessandro de Oliveira. Documentação oficial da biblioteca openCV.
2017. https://docs.opencv.org/3.4.0/da/d9d/tutorial_dnn_yolo.html
FARIA, Alessandro de Oliveira. Vídeo: Contando pessoas com fluxo ótico
utilizando algoritmo Gunnar Farneback. 2010.
https://www.youtube.com/watch?v=iiGv5cS6HBA
FARIA, Alessandro de Oliveira. Vídeo: Detecção de cantos e realidade
aumentada. 2010. https://www.youtube.com/watch?v=-AMdxXi-cEA
FARIA, Alessandro de Oliveira. Vídeo: Reconhecimento de padrão e
segmentação semântica em cameras 360. 2018.
https://www.youtube.com/watch?v=0tU8991QgE8

Algoritmos de Recomendação
Por Patrícia Prado e Oscar Adorno
https://revistapesquisa.fapesp.br/o-mundo-mediado-por-algoritmos/
https://www.cin.ufpe.br/~tg/2019-2/propostas_CC/prop_msb5.pdf
http://datascienceacademy.com.br/blog/categoria/deep-learning/
The organization of behavior: A neuropsychological theory. D. O. Hebb. John Wiley
And Sons, Inc., New York, 1949
B. Widrow et al. Adaptive ”Adaline” neuron using chemical ”memistors”. Number
Technical Report 1553-2. Stanford Electron. Labs., Stanford, CA, October 1960.
Christopher D. Manning. (2015). Computational Linguistics and Deep Learning
Computational Linguistics, 41(4), 701–707.
https://towardsdatascience.com/introduction-to-recommender-systems-
6c66cf15ada
https://www.kdnuggets.com/2017/08/recommendation-system-algorithms-
overview.html
Cazella, C., Nunes, M. S. N., Reategui, E. B. (2010). A Ciência da Opinião: Estado da
arte em Sistemas de Recomendação In Congresso da Sociedade de Computação:
Computação Verde – desafios científicos e tecnológicos, 52.
Schafer, J. B.; Good, N.; Konstan, J. (1999). Combining collaborative filtering with
personal agents for better
recommendations. In: PROCEEDINGS OF THE 1999 NATIONAL CONFERENCE OF
THE AMERICAN ASSOCIATION OF ARTIFICIAL INTELLIGENCE, pages 439–436,
1999.
Souza, B. F. M. (2012). Modelos de fatoração matricial para recomendação de vídeos.
Tese de doutorado. Pontifícia Universidade Católica do Rio de Janeiro. PUC-RIO.
DOI: https://doi.org/10.17771/PUCRio.acad.19273
https://de.slideshare.net/navisro/recommender-system-navisroanalytics
https://docs.adobe.com/content/help/en/target/using/recommendations/introduct
ion-to-recommendations.html
https://marutitech.com/recommendation-engine-benefits/
https://www.smarthint.co/en/ai-product-recommendation-engine/

Capítulo 3: Fazendo um levantamento dos recursos Internos disponíveis


Por Juliana Burza

How To Build A Great AI Team. Interview with Andrew Ng. Forbes Insights. (2019)

115
https://www.forbes.com/sites/insights-intelai/2019/05/22/how-to-build-a-great-
ai-team/#190a838e426a
How to make an effective A.I. team? Usman Majeed. (2019)
https://towardsdatascience.com/how-to-form-an-effective-a-i-team-bb14817910e7
CBInsights. AI 100 Startups & Solutions To Watch In 2020. (2020)
https://www.cbinsights.com/research/briefing/ai-trends-to-watch-2020/
Continuous Delivery for Machine Learning. (2019)
https://martinfowler.com/articles/cd4ml.html#ml-silos.png
HUMBLE, Jez and FARLEY, David. Continuous Delivery. Reliable Software Releases
through Build, Test, and Deployment Automation. (2010).
Scrum.org: https://www.scrum.org/about
AutoScout: https://www.autoscout24.it/
Agradecimento: o Capítulo 4 contou com a contribuição de Thiago Veras do CESAR
(Centro de Estudos e Sistemas Avançados do Recife).

Capítulo 6: Passos de um Projeto de IA


Por Patrícia Prado
https://www.information-age.com/successful-ai-implementation-123474050/
https://aibusiness.com/document.asp?doc_id=760901&site=aibusiness
https://www.techrepublic.com/article/how-to-implement-ai-and-machine-learning/
https://www.techtarget.com/

116
Autores

Este livro foi escrito de forma colaborativa pelos membros do Comitê de Inovação da
I2AI. Colaboraram com esta publicação:

Cordenador: Marco A. Lauria

• Alessandro de Oliveira Faria


• Alexandre Seidl
• Alexandro Romeira
• Guilherme Nunes
• Juliana Burza
• Luís Paulo Farias
• Marco A. Lauria
• Natan Rodeguero
• Oscar Adorno
• Patrícia Prado
• Roberto Lima
• Victor Figueiredo

Revisão ortográfica Tania Scaglioni


Ilustrações Flávia Artuso

1ª Edição - 2021
I2AI International Association of Artificial intelligence
https://www.i2ai.org/

117

Você também pode gostar