Você está na página 1de 9

Título: Inteligência Artificial e Aprendizado de Máquina

A Inteligência Artificial (IA) é um campo de estudo que engloba várias outras ciências, como
estatística, matemática e computação.
Seu objetivo é desenvolver ferramentas para máquinas desempenharem tarefas como se um
ser humano as estivesse executando.
A IA não é apenas uma técnica ou ferramenta, mas uma área de pesquisa.
A finalidade da IA é realizar tarefas que, apesar de serem simples para seres humanos, são
bem complexas para os computadores.
Um exemplo é a distinção entre gatos e cachorros, que é complexa devido às informações
estruturadas que precisam ser analisadas.
A IA é caracterizada por métodos computacionais que simulam a capacidade humana de
raciocinar, perceber, tomar decisões e resolver problemas.
IA pode ser definida como “tecnologia capaz de executar tarefas específicas tão bem quanto,
ou até melhor, que nós humanos conseguimos”.
A classificação de problemas é uma das aplicabilidades de técnicas de IA, mas a área
precisa trabalhar com conceitos de outras áreas de pesquisa, como processamento de
linguagem natural e visão computacional.

Título: Inteligência Artificial e Aprendizado de Máquina

A produção de dados não estruturados está em constante crescimento, impulsionada pela


popularização de dispositivos móveis, sensores conectados e IoT.
O tamanho do universo digital se duplica a cada dois anos, oferecendo possibilidades para
empresas e aprimoramento de algoritmos inteligentes.
A área de Big Data estuda como tratar, analisar e obter informações a partir de grandes
conjuntos de dados, utilizando sistemas de informação especializados.
Os sistemas criados utilizando técnicas de IA conseguem fazer uso desses dados de maneira
bastante efetiva, o que se tornou essencial nas relações econômicas e sociais e representou
uma evolução nos sistemas de negócio e na ciência.
As ferramentas de IA são importantes no meio corporativo na definição de estratégias de
marketing, aumento da produtividade, redução de custos e tomada de decisões mais
inteligentes.
A NEC Corporation já utilizou em sua sede em Tóquio um sistema de pagamento por meio
de reconhecimento facial, que debita as despesas feitas na cafeteria da empresa,
diretamente na conta do funcionário sem nenhum toque.
Os sistemas criados utilizam técnicas de IA não só para coletar os dados, mas fazer uso
deles de forma efetiva.

Título: Inteligência Artificial e Aprendizado de Máquina

O avanço da tecnologia permitiu a criação e armazenamento de quantidades crescentes de


informações, o que chamamos de Era da Informação.
O mundo está se tornando cada vez mais "data driven" - orientado por dados.
É necessário interpretar esses dados que estão armazenados em bancos de dados e data
lakes.
A Ciência de Dados é uma área interdisciplinar que combina métodos das áreas de
matemática, estatística, ciência da computação e engenharias, voltada para o estudo e a
análise de dados econômicos, financeiros e sociais, estruturados e não-estruturados.
A ciência de dados engloba técnicas como mineração de dados, visualização de dados,
análise de dados e aprendizagem de máquina, buscando extrair informações a partir dos
dados, mais precisamente, do Big Data.
O Big Data mudou a forma como gerenciamos, analisamos e aproveitamos dados em
qualquer indústria.
O termo "data lake" foi criado por James Dixon, CTO da Pentaho, para descrever um tipo de
repositório que armazena um conjunto de dados em seu estado natural.
A ciência de dados é capaz de dar acesso a um conjunto de informações para que uma
empresa tome decisões assertivas, o que impacta diretamente no futuro e sucesso de um
negócio.
Título: Inteligência Artificial e Aprendizado de Máquina

Empresas recebem constantemente dados e informações de fornecedores e clientes,


ferramentas baseadas em inteligência artificial conseguem compilar dados de forma mais
eficiente do que seres humanos.
Uso de análise de dados e inteligência artificial nas empresas tem aumentado nos últimos
anos para potencializar resultados, aumentar produtividade, economizar tempo, evitar
fraudes, ter aplicações mais eficientes e criar uma infraestrutura de TI confiável.
IA deixou de ser vista como ficção científica e está presente no dia a dia de muitas pessoas
no mundo.
IA deve ser vista como um investimento estratégico para otimizar o ambiente corporativo e
aumentar os índices de vendas.
Possibilidades de uso de IA no mundo empresarial são infinitas, como implementar
ferramentas de colaboração, usar IA para segurança de dados e aplicar gestão de mudança.
Soluções que usam IA conseguem aprender a melhorar o próprio serviço e aumentar a
performance, otimizando o cotidiano operacional e proporcionando mais tempo para cuidar
da estratégia da empresa.
Tecnologia de IA é acessível para pequenas e médias empresas, causando uma revolução
digital nos negócios e moldando processos e desenvolvimento de produtos personalizados.
IA alterou a maneira de fazer negócios em diversos segmentos do comércio, da indústria e
do varejo.

Vantagens da inteligência artificial nas


empresas
Aumento da produtividade, economizando 6,2 bilhões de horas de atividades.
Redução da chance de erros nos processos.
Automação dos processos e aprendizado dos recursos preferidos pelos usuários.
Melhoria do relacionamento com o cliente (Marketing).
Modernização dos serviços financeiros.

Desafios na implementação da inteligência


artificial
Capacitar força de trabalho para acelerar sua adoção.
Avaliar e resolver problemas de privacidade e segurança.
Otimizar a governança.

Ações necessárias para lidar com a


inteligência artificial
Integrar inteligência humana e inteligência artificial.
Garantir relacionamentos regulares e intensos entre startups, grandes empresas,
pesquisadores acadêmicos, agências governamentais e outras partes.
Atualizar a legislação relevante por meio de leis que possam ser adaptadas e se aperfeiçoem
de forma “automática”.
Complementar debates éticos para a IA com padrões mais tangíveis e melhores práticas no
desenvolvimento de máquinas inteligentes.
Tomar ações preventivas para limitar os riscos que a inteligência artificial poderia
representar para os setores e regiões mais vulneráveis.
Ferramentas de inteligência artificial
TensorFlow: biblioteca de código aberto para criação de modelos de aprendizado de
máquina.
Amazon SageMaker Neo: componente do Amazon SageMaker para criação, treinamento e
implantação de modelos de aprendizagem de máquina com otimização para nuvem ou
dispositivos de borda.
Scikit-learn: conjunto de ferramentas de aprendizagem de máquina em Python.
PyTorch: biblioteca de deep learning baseada em Python, construída com foco na
flexibilidade e modularidade.

Título: Inteligência Artificial e Aprendizado de Máquina

Theano é uma biblioteca Python para computação científica criada pela Universidade de
Montreal que permite a definição, otimização e análise de expressões matemáticas
envolvendo matrizes multidimensionais de forma eficiente.
Keras é uma API de redes neurais escrita em Python que busca simplificar ao máximo o
processo de codificação de redes neurais, diminuindo a curva de aprendizado.
Exemplos de uso de IA em organizações públicas: 1) A Secretaria do Tesouro Nacional criou
a atendente virtual Jacque, baseada em tecnologias de inteligência artificial para o Siconfi,
portal de informações contábeis da Administração Pública federal. 2) O Ministério da
Economia lançou dois serviços de atendimento virtual por meio de chatbots: a Isis, que
responde dúvidas da plataforma +Brasil; e a Lia, para esclarecimento de dúvidas do
Comprasnet. 3) O Zello, desenvolvido pelo Tribunal de Contas da União, é uma ferramenta
pelo aplicativo WhatsApp que permite efetuar consultas sobre contas irregulares, processos
e emissão de certidões do TCU. 4) Projeto Malha Fina de Convênios, da Controladoria Geral
da União, para a análise de prestações de contas dos convênios e contratos de repasses
firmados pelo governo federal por meio do sistema Siconv. 5) A Secretaria de Segurança
Pública e Defesa Social (SSPDS) do estado do Ceará desenvolveu o Sistema Policial de
Indicativo de Abordagem (Spia) que utiliza câmeras de segurança e algoritmos de
reconhecimento para identificação de pessoas procuradas e rastreamento de veículos com
queixa. 6) O Conselho Administrativo de Defesa Econômica (Cade) desenvolveu o Projeto
Cérebro, que por meio de mineração e cruzamento de dados, permite a identificação de
possíveis cartéis em licitações.

Título: Ação da Cade e PF investiga suposto cartel em contratos federais

Na manhã de 31/10/2018, foram cumpridos mandados de busca e apreensão em 13


empresas sediadas no Distrito Federal;
A ação foi realizada pela Cade (Conselho Administrativo de Defesa Econômica) e pela Polícia
Federal;
O objetivo da ação é investigar um suposto cartel em contratos federais;
A Inteligência Computacional é um ramo da área de Inteligência Artificial (IA);
A Inteligência Computacional tem como objetivo investigar e simular aspectos da cognição
humana;
A Lógica Fuzzy é uma abordagem lógica que considera qualquer número real entre 0 e 1;
As máquinas de vetores de suporte são um método que identifica padrões por meio de
análises como a classificação de regressão;
A aprendizagem de máquina (Machine Learning) investiga estratégias para que um software
proponha soluções e faça análises sobre os resultados para desenvolver outros métodos
ainda mais eficientes;
A aprendizagem profunda (Deep Learning) é um método similar ao Machine Learning, mas
que adota padrões de análise baseados em diversas camadas de dados.

Título: Inteligência Artificial e Aprendizado de Máquina

Inteligência computacional busca desenvolver sistemas com comportamento inteligente


Aprendizado de Máquina é uma subárea da Inteligência Artificial que usa dados e
algoritmos para imitar como humanos aprendem
Machine Learning é uma análise de dados que busca automatizar o desenvolvimento de
modelos analíticos
O objetivo é criar um modelo a partir de dados históricos para generalizar decisões
ML usa algoritmos que aprendem interativamente a partir de dados, permitindo que
computadores encontrem insights ocultos sem serem programados para procurá-los
Deep Learning é um subconjunto do aprendizado de máquina que usa redes neurais com
muitas camadas para aprender sobre uma grande variedade de dados
ML não é mineração de dados, mas usa os padrões descobertos para aprender
A capacidade de aplicar automaticamente cálculos matemáticos complexos a Big Data é um
desenvolvimento recente
Conforme modelos são expostos a novos dados, seus algoritmos são capazes de se adaptar
de forma independente e realizar correções.

Aprendizado de Máquina e Inteligência


Artificial
Introdução
Aprendizado de máquina é uma área de estudo que busca dar aos computadores a
habilidade de aprender sem serem programados explicitamente.
Aprendizado de máquina é um subconjunto da inteligência artificial (IA), o segmento da
ciência da computação que se concentra no uso de dados e algoritmos para imitar a forma
como os humanos aprendem, melhorando gradativamente sua precisão.

Exemplos de aplicações de aprendizado de máquina


Carros autônomos da Google que dirigem sozinhos;
Ofertas de recomendações on-line, como as da Amazon e da Netflix;
Saber o que os clientes estão dizendo sobre você no Twitter. Aqui o aprendizado de máquina
é combinado com a criação de regra linguística;
Detecção de fraudes (por exemplo, para prever se uma transação realizada com
determinado cartão de crédito é fraudulenta).

Tipos de Aprendizado de Máquina


Aprendizado supervisionado;
Aprendizado não supervisionado;
Aprendizado semi-supervisionado;
Aprendizado por esforço.

Aprendizado supervisionado
Abordagem mais comum de aprendizado de máquina;
Existe um supervisor ou professor responsável por treinar o algoritmo;
Algoritmos de aprendizado supervisionado são realizados usando exemplos rotulados;
O algoritmo de aprendizagem recebe um conjunto de entradas junto com as saídas corretas
correspondentes;
O algoritmo aprende comparando a saída real com as saídas corretas para encontrar erros e
modifica o modelo preditivo de acordo com a eliminação desses erros;
O aprendizado supervisionado é mais utilizado para aplicações nas quais os dados históricos
podem prever prováveis acontecimentos futuros.
Modelos supervisionados mais comuns
Regressão linear;
Regressão logística;
Árvore de decisão;
Random Forest;
Support Vector Machine (SVM);
Rede Neural Artificial (RNA).

Aprendizado de Máquina e Inteligência


Artificial
Técnicas de Aprendizado Supervisionado
Utilizadas em dados que possuem rótulos históricos
Algoritmos:Árvores de decisãoRegressão linearRegressão logísticaRedes neuraisK-Nearest
Neighbors (KNN)Support Vector Machines (SVM)
Árvores de decisão
Regressão linear
Regressão logística
Redes neurais
K-Nearest Neighbors (KNN)
Support Vector Machines (SVM)

Aprendizado Não Supervisionado


Utilizado em dados que não possuem rótulos históricos
O algoritmo deve descobrir a estrutura dos dados
Conjunto de técnicas para treinar um modelo em que não se sabe a saída esperada para
cada dado usado no treinamento
Algoritmo identifica semelhanças nos dados apresentados e reage com base na presença ou
ausência dessas semelhanças
Funciona bem em dados transacionais
Grandes subgrupos de aprendizado não supervisionado:Agrupamentos (Clustering)Regras
de Associação (Association Rules)
Agrupamentos (Clustering)
Regras de Associação (Association Rules)

Aprendizado Semi-Supervisionado
Usa tanto dados rotulados quanto dados não rotulados para o treinamento
Útil quando o custo associado à rotulagem é muito elevado para permitir um processo de
treinamento totalmente rotulado

Aprendizado de Máquina e Inteligência Artificial são tópicos importantes em concursos.


Aprendizado de Máquina envolve métodos como classificação, regressão e previsão. Aprendizado
por reforço é usado em robótica, jogos e navegação, onde o algoritmo descobre pela tentativa e
erro quais ações geram as maiores recompensas. Overfitting e Underfitting são dois problemas
básicos em modelos de aprendizado de máquina. Overfitting acontece quando o modelo aprende
demais sobre os dados de treino e é inadequado para novos dados. Underfitting acontece quando
o modelo não aprende o suficiente sobre os dados de treino e não é capaz de generalizar para
outros dados nunca vistos antes.
Problemas de overfitting e underfitting em
modelos de aprendizado de máquina
Modelos de aprendizado de máquina podem apresentar problemas de overfitting e
underfitting.
Underfitting ocorre quando o modelo não aprendeu o suficiente sobre os dados e apresenta
alto erro em ambos os dados de treino e teste.
Overfitting ocorre quando o modelo se ajusta demais aos dados de treino, apresentando
baixo erro nesses dados, mas alto erro em dados novos.
A curva de complexidade do modelo vs erro para dados de treino e teste pode ser utilizada
para identificar problemas de overfitting e underfitting.
Em um modelo equilibrado, há uma relação satisfatória entre rótulos esperados e rótulos
gerados.
O gráfico I da figura apresentada no texto representa uma situação de underfitting, o
gráfico III representa uma situação equilibrada e o gráfico II representa uma situação de
overfitting.
É importante implementar modelos equilibrados para garantir um bom desempenho tanto
nos dados de treino quanto em novos dados.

Underfitting e Overfitting em modelos de aprendizado de máquina

Resultado #1 indica underfitting, quando a reta não se ajusta bem aos dados e o modelo é
excessivamente simples para lidar com a complexidade do problema;
Resultado #2 corresponde ao melhor desempenho do algoritmo e não apresenta subajuste;
Overfitting ocorre quando o modelo aprende demais sobre os dados usados para
treinamento e não trabalha bem com novos dados, gerando poucos erros no treino e muitos
erros no teste.

Algoritmos de machine learning e aprendizado de máquina são ferramentas estatísticas que


ajudam a quantificar a relação entre uma variável específica e um resultado que nos interessa
enquanto controlamos outros fatores. No entanto, é importante atentar para o overfitting e o
underfitting, que podem surgir em algoritmos que são muito complexos para os dados, possuem
poucos dados de treinamento ou ruídos nos dados de treinamento. Para resolver esses
problemas, é possível simplificar o modelo escolhendo um algoritmo mais simples, coletar mais
dados para treinar o modelo ou realizar um pré-processamento adequado para tratar
interferências.

Os algoritmos de machine learning mais comuns são a regressão linear e a regressão logística. A
regressão linear é utilizada quando o dataset apresenta algum tipo de tendência de
crescimento/descrescimento constante e pode ser de dois tipos: regressão linear simples ou
regressão linear múltipla. Já a regressão logística é um método usado para problemas de
classificação binária, utilizando conceitos de estatística e probabilidade. É um algoritmo que lida
com questões e problemas de classificação, analisando diferentes aspectos ou variáveis de um
objeto para depois determinar uma classe na qual ele se encaixa melhor. Existem três modelos
principais de regressão logística: regressão logística binominal, regressão logística ordinal e
regressão logística nominal.

Inteligência Artificial e Aprendizado de Máquina


Regressão Logística Multinomial

Modelo de classificação para objetos em três ou mais categorias sem ordem entre si.
Exemplo: classificação de animais ou frutas.
Limitação da regressão logística para apenas problemas de classificação de duas classes.
Utilização da Análise Discriminante Linear (LDA) para problemas com mais de duas classes.
LDA é uma técnica de classificação linear que utiliza propriedades estatísticas dos dados de
cada classe.
Previsão feita calculando um valor diferenciado para cada classe e fazendo uma previsão
para a classe com o maior valor.
Pressupõe que os dados tenham uma distribuição normal e é útil para classificar problemas
de modelagem preditiva.

Árvores de Classificação e Regressão


Modelo de árvore binária que divide os dados em conjuntos homogêneos com base em uma
variável de entrada.
Utilização das folhas da árvore para fazer previsões com base em uma variável de saída.
Rápido para fazer previsões e preciso para uma ampla gama de problemas.
Exemplo de modelo de árvore de decisão para prever quem vai jogar tênis no recreio com
base em três variáveis: sexo, classe e altura.
Identificação da variável que cria os melhores conjuntos homogêneos de alunos.

Análise Discriminante Linear (LDA)

Técnica de classificação linear preferida para problemas com mais de duas classes.
Pode ser usado em qualquer problema que possa ser transformado em um problema de
classificação.
Exemplos: reconhecimento de velocidade, reconhecimento facial, química, recuperação de
imagens, biometria e bioinformática.

Resumo da Inteligência Artificial e


Aprendizado de Máquina
Divisão de alunos por sexo, altura e classe
30 alunos divididos em meninos e meninas
Divididos em altura menor que 1,70m e igual ou maior que 1,70m
Divididos em classe IX e X
15 alunos jogam tênis (50%)
Na classe IX, 2 alunos jogam tênis (20%)
Na classe X, 13 alunos jogam tênis (65%)

Algoritmos de Aprendizado de Máquina


Naive Bayes

Algoritmo utilizado para categorizar textos baseado na frequência das palavras usadas
Pode identificar se um e-mail é spam ou se uma notícia é sobre tecnologia, política ou
esportes
Desconsidera completamente a correlação entre as variáveis

K-Nearest Neighbors (KNN)

Algoritmo de classificação que se baseia nos vizinhos mais próximos


Classifica novos dados com base nos exemplos mais próximos apresentados na fase de
treinamento
Usado para serviços de recomendação, como produtos da Amazon e filmes na Netflix
Desvantagem: lentidão à medida que o volume de dados aumenta

Learning Vector Quantization (LVQ)


Método de aprendizado baseado em protótipo
Usado para representar diferentes classes em um conjunto de dados
Semelhante ao KNN, mas reduz os requisitos computacionais necessários para ser
executado

Support Vector Machine (SVM)

Usado em objetivos de classificação


Encontra um hiperplano em um espaço N-dimensional que classifica de forma diferente os
pontos de dados
Dados que caem em ambos os lados do hiperplano podem ser atribuídos a diferentes classes
Otimizado por um algoritmo de otimização que maximiza a margem
Pode ser um dos mais poderosos classificadores em machine learning

Título: Inteligência Artificial e Aprendizado de Máquina

Algoritmos Random Forest são criados por várias árvores de decisão, geralmente treinados
com o método de bagging.
Random Forest pode ser usado em bancos para detectar clientes que irão usar os serviços
bancários mais frequentemente que outros e pagar suas dívidas em dia, e no e-commerce
para determinar se um cliente irá gostar do produto ou não, fazendo recomendações dos
mais alinhados ao seu perfil.
Na construção de um modelo de machine learning, é necessário realizar algumas
transformações nos dados antes de apresentá-los ao algoritmo.
Na fase de pré-processamento, os dados são divididos em dados de treino e dados de teste.
Dados de treino são apresentados ao algoritmo para que ele aprenda o relacionamento entre
as variáveis e crie o modelo.
Dados de teste são utilizados para avaliar o quanto o algoritmo aprendeu.
Ao apresentar os dados de teste ao modelo, as previsões são realizadas tomando-se como
base o que foi aprendido na fase de treinamento.
Uma vez criado e validado, o modelo pode ser utilizado para que sejam realizadas novas
previsões quando for apresentado a novos dados.
As atividades envolvidas na construção de um modelo preditivo incluem extração e
dimensionamento dos atributos, seleção de atributos, redução do dimensionamento,
amostragem, rótulos, dados de treino, algoritmo de modelo final, novos dados,
aprendizagem, dedos de teste, rótulos, pré-processamento, avaliação, predição, seleção do
modelo, validação cruzada, métricas de desempenho e otimização de hiperparâmetros.
Na etapa de pré-processamento dos dados, algumas técnicas utilizadas são feature
selection, feature engineering, normalização e redução de dimensionalidade.
Na etapa de aprendizagem - construção do modelo, algumas técnicas utilizadas são cross-
validation e otimização de hiperparâmetros.

Aprendizado de Máquina e Inteligência


Artificial
Este texto apresenta conceitos relacionados ao aprendizado de máquina e inteligência artificial,
incluindo:

Divisão de dados em partições para treinar e validar o modelo;


Métricas de desempenho, como a acurácia;
Otimização de hiperparâmetros para melhorar a performance do modelo;
Avaliação do modelo com dados de teste e previsões;
Predição com um modelo avaliado e aprovado.

Outros termos importantes incluem:

Features, ou variáveis independentes, que podem ser utilizadas para prever a variável
target;
Sensibilidade de um modelo ao ser usado com outros dados diferentes do treinamento;
Parâmetros ajustados diretamente pelo processo de aprendizado;
Outlier, ou ponto fora da curva;
Tarefa, ou definição genérica daquilo que se deseja produzir como resultado do modelo
preditivo;
Técnicas, como a regularização para prevenir o overfitting.

O texto também apresenta exemplos de amostras com características e rótulos de classe, bem
como explicações sobre overfitting e underfitting.

Tipos de Aprendizado de Máquina

Pipeline de Machine Learning envolve a preparação dos dados, modelagem e deploy do


modelo
Aprendizado supervisionado envolve um supervisor ou professor que treina o algoritmo para
prever rótulos desconhecidos em um dataset
Modelos supervisionados incluem árvores de decisão, regressão linear, regressão logística,
redes neurais, K-Nearest Neighbors (KNN) e Support Vector Machines (SVM)
Aprendizado não supervisionado não utiliza rótulos/categorias para as amostras de
treinamento e busca agrupar os dados com base em características similares
Modelos não supervisionados incluem k-Means e Agrupamento Hierárquico
Aprendizado por reforço baseia-se em reforço positivo/negativo para otimização de
resultado e é utilizado em carros autônomos, robôs aspiradores, etc.
Semi-supervisionado utiliza uma pequena quantidade de dados rotulados e uma grande
quantidade de dados não-rotulados para o treinamento e pode ser aplicada para
agrupamento, regras de associação, classificação ou regressão.

Algoritmos de Machine Learning são capazes de prever valores de saída baseados em dados de
entrada, agrupar pontos de dados semelhantes, reduzir o número de características necessárias,
descobrir relações entre pontos de dados e otimizar dados com pesos. Existem diversos tipos de
algoritmos de Machine Learning, cada um com sua função específica, como regressão,
classificação, detecção de padrões, agrupamento e redução de dimensionalidade. Alguns
exemplos de algoritmos de Machine Learning incluem Logistic Regression, K-Nearest Neighbor,
Naive Bayes, Decision Trees, Regression Trees, Linear Regression, Neural Networks, Support
Vector Machines, Random Forest, PCA, Association Rules, K-means Clustering e DBSCAN.

Você também pode gostar