Escolar Documentos
Profissional Documentos
Cultura Documentos
A Inteligência Artificial (IA) é um campo de estudo que engloba várias outras ciências, como
estatística, matemática e computação.
Seu objetivo é desenvolver ferramentas para máquinas desempenharem tarefas como se um
ser humano as estivesse executando.
A IA não é apenas uma técnica ou ferramenta, mas uma área de pesquisa.
A finalidade da IA é realizar tarefas que, apesar de serem simples para seres humanos, são
bem complexas para os computadores.
Um exemplo é a distinção entre gatos e cachorros, que é complexa devido às informações
estruturadas que precisam ser analisadas.
A IA é caracterizada por métodos computacionais que simulam a capacidade humana de
raciocinar, perceber, tomar decisões e resolver problemas.
IA pode ser definida como “tecnologia capaz de executar tarefas específicas tão bem quanto,
ou até melhor, que nós humanos conseguimos”.
A classificação de problemas é uma das aplicabilidades de técnicas de IA, mas a área
precisa trabalhar com conceitos de outras áreas de pesquisa, como processamento de
linguagem natural e visão computacional.
Theano é uma biblioteca Python para computação científica criada pela Universidade de
Montreal que permite a definição, otimização e análise de expressões matemáticas
envolvendo matrizes multidimensionais de forma eficiente.
Keras é uma API de redes neurais escrita em Python que busca simplificar ao máximo o
processo de codificação de redes neurais, diminuindo a curva de aprendizado.
Exemplos de uso de IA em organizações públicas: 1) A Secretaria do Tesouro Nacional criou
a atendente virtual Jacque, baseada em tecnologias de inteligência artificial para o Siconfi,
portal de informações contábeis da Administração Pública federal. 2) O Ministério da
Economia lançou dois serviços de atendimento virtual por meio de chatbots: a Isis, que
responde dúvidas da plataforma +Brasil; e a Lia, para esclarecimento de dúvidas do
Comprasnet. 3) O Zello, desenvolvido pelo Tribunal de Contas da União, é uma ferramenta
pelo aplicativo WhatsApp que permite efetuar consultas sobre contas irregulares, processos
e emissão de certidões do TCU. 4) Projeto Malha Fina de Convênios, da Controladoria Geral
da União, para a análise de prestações de contas dos convênios e contratos de repasses
firmados pelo governo federal por meio do sistema Siconv. 5) A Secretaria de Segurança
Pública e Defesa Social (SSPDS) do estado do Ceará desenvolveu o Sistema Policial de
Indicativo de Abordagem (Spia) que utiliza câmeras de segurança e algoritmos de
reconhecimento para identificação de pessoas procuradas e rastreamento de veículos com
queixa. 6) O Conselho Administrativo de Defesa Econômica (Cade) desenvolveu o Projeto
Cérebro, que por meio de mineração e cruzamento de dados, permite a identificação de
possíveis cartéis em licitações.
Aprendizado supervisionado
Abordagem mais comum de aprendizado de máquina;
Existe um supervisor ou professor responsável por treinar o algoritmo;
Algoritmos de aprendizado supervisionado são realizados usando exemplos rotulados;
O algoritmo de aprendizagem recebe um conjunto de entradas junto com as saídas corretas
correspondentes;
O algoritmo aprende comparando a saída real com as saídas corretas para encontrar erros e
modifica o modelo preditivo de acordo com a eliminação desses erros;
O aprendizado supervisionado é mais utilizado para aplicações nas quais os dados históricos
podem prever prováveis acontecimentos futuros.
Modelos supervisionados mais comuns
Regressão linear;
Regressão logística;
Árvore de decisão;
Random Forest;
Support Vector Machine (SVM);
Rede Neural Artificial (RNA).
Aprendizado Semi-Supervisionado
Usa tanto dados rotulados quanto dados não rotulados para o treinamento
Útil quando o custo associado à rotulagem é muito elevado para permitir um processo de
treinamento totalmente rotulado
Resultado #1 indica underfitting, quando a reta não se ajusta bem aos dados e o modelo é
excessivamente simples para lidar com a complexidade do problema;
Resultado #2 corresponde ao melhor desempenho do algoritmo e não apresenta subajuste;
Overfitting ocorre quando o modelo aprende demais sobre os dados usados para
treinamento e não trabalha bem com novos dados, gerando poucos erros no treino e muitos
erros no teste.
Os algoritmos de machine learning mais comuns são a regressão linear e a regressão logística. A
regressão linear é utilizada quando o dataset apresenta algum tipo de tendência de
crescimento/descrescimento constante e pode ser de dois tipos: regressão linear simples ou
regressão linear múltipla. Já a regressão logística é um método usado para problemas de
classificação binária, utilizando conceitos de estatística e probabilidade. É um algoritmo que lida
com questões e problemas de classificação, analisando diferentes aspectos ou variáveis de um
objeto para depois determinar uma classe na qual ele se encaixa melhor. Existem três modelos
principais de regressão logística: regressão logística binominal, regressão logística ordinal e
regressão logística nominal.
Modelo de classificação para objetos em três ou mais categorias sem ordem entre si.
Exemplo: classificação de animais ou frutas.
Limitação da regressão logística para apenas problemas de classificação de duas classes.
Utilização da Análise Discriminante Linear (LDA) para problemas com mais de duas classes.
LDA é uma técnica de classificação linear que utiliza propriedades estatísticas dos dados de
cada classe.
Previsão feita calculando um valor diferenciado para cada classe e fazendo uma previsão
para a classe com o maior valor.
Pressupõe que os dados tenham uma distribuição normal e é útil para classificar problemas
de modelagem preditiva.
Técnica de classificação linear preferida para problemas com mais de duas classes.
Pode ser usado em qualquer problema que possa ser transformado em um problema de
classificação.
Exemplos: reconhecimento de velocidade, reconhecimento facial, química, recuperação de
imagens, biometria e bioinformática.
Algoritmo utilizado para categorizar textos baseado na frequência das palavras usadas
Pode identificar se um e-mail é spam ou se uma notícia é sobre tecnologia, política ou
esportes
Desconsidera completamente a correlação entre as variáveis
Algoritmos Random Forest são criados por várias árvores de decisão, geralmente treinados
com o método de bagging.
Random Forest pode ser usado em bancos para detectar clientes que irão usar os serviços
bancários mais frequentemente que outros e pagar suas dívidas em dia, e no e-commerce
para determinar se um cliente irá gostar do produto ou não, fazendo recomendações dos
mais alinhados ao seu perfil.
Na construção de um modelo de machine learning, é necessário realizar algumas
transformações nos dados antes de apresentá-los ao algoritmo.
Na fase de pré-processamento, os dados são divididos em dados de treino e dados de teste.
Dados de treino são apresentados ao algoritmo para que ele aprenda o relacionamento entre
as variáveis e crie o modelo.
Dados de teste são utilizados para avaliar o quanto o algoritmo aprendeu.
Ao apresentar os dados de teste ao modelo, as previsões são realizadas tomando-se como
base o que foi aprendido na fase de treinamento.
Uma vez criado e validado, o modelo pode ser utilizado para que sejam realizadas novas
previsões quando for apresentado a novos dados.
As atividades envolvidas na construção de um modelo preditivo incluem extração e
dimensionamento dos atributos, seleção de atributos, redução do dimensionamento,
amostragem, rótulos, dados de treino, algoritmo de modelo final, novos dados,
aprendizagem, dedos de teste, rótulos, pré-processamento, avaliação, predição, seleção do
modelo, validação cruzada, métricas de desempenho e otimização de hiperparâmetros.
Na etapa de pré-processamento dos dados, algumas técnicas utilizadas são feature
selection, feature engineering, normalização e redução de dimensionalidade.
Na etapa de aprendizagem - construção do modelo, algumas técnicas utilizadas são cross-
validation e otimização de hiperparâmetros.
Features, ou variáveis independentes, que podem ser utilizadas para prever a variável
target;
Sensibilidade de um modelo ao ser usado com outros dados diferentes do treinamento;
Parâmetros ajustados diretamente pelo processo de aprendizado;
Outlier, ou ponto fora da curva;
Tarefa, ou definição genérica daquilo que se deseja produzir como resultado do modelo
preditivo;
Técnicas, como a regularização para prevenir o overfitting.
O texto também apresenta exemplos de amostras com características e rótulos de classe, bem
como explicações sobre overfitting e underfitting.
Algoritmos de Machine Learning são capazes de prever valores de saída baseados em dados de
entrada, agrupar pontos de dados semelhantes, reduzir o número de características necessárias,
descobrir relações entre pontos de dados e otimizar dados com pesos. Existem diversos tipos de
algoritmos de Machine Learning, cada um com sua função específica, como regressão,
classificação, detecção de padrões, agrupamento e redução de dimensionalidade. Alguns
exemplos de algoritmos de Machine Learning incluem Logistic Regression, K-Nearest Neighbor,
Naive Bayes, Decision Trees, Regression Trees, Linear Regression, Neural Networks, Support
Vector Machines, Random Forest, PCA, Association Rules, K-means Clustering e DBSCAN.