Você está na página 1de 39

INTELIGÊNCIA

ARTIFICIAL
Prof. Kleber Galvão
kleber.jose@ifal.edu.gov.br
IOT

■ Uma pessoa comum, produz uma enorme quantidade de dados de forma


não estruturada. Tal produção não se limita a geração de documentos de
escritórios ou arquivos multimídias, como foto ou vídeos.
■ Essa grande produção de dados ampliou-se exponencialmente com a
popularização dos dispositivos físicos interconectados que são
incorporados com sensores, software e tecnologia de rede para coletar e
trocar dados, chamados de Internet das Coisas (IoT).
BIG DATA

■ O termo BIG DATA (Grandes Dados, em português) faz referencia a um


conjuntos de dados extremamente grandes, complexos e diversificados, que
não podem ser facilmente gerenciados, processados ou analisados com
ferramentas tradicionais de processamento de dados.
■ É lidar com volumes massivos de dados com uma alta velocidade de geração
e variedade de formatos e fontes distintas de dados. Sendo seu objetivo
principal extrair valor desses dados por meio de análise, obtenção de insights e
tomada de decisões baseadas em dados.
■ O Big Data apresenta desafios técnicos, mas também oferece oportunidades
para impulsionar a inovação e melhorar os resultados em diversos setores.
CIÊNCIAS DE DADOS

■ A Ciência de Dados é um campo multidisciplinar que envolve a extração


de conhecimento, insights e valor a partir de grandes volumes de dados.
Ela combina habilidades e técnicas de matemática, estatística, ciência da
computação e domínio do assunto para analisar dados complexos e obter
informações significativas.
■ A ciência de dados engloba técnicas de mineração de dados,
visualização de dados, análise de dados e aprendizado de máquina,
buscando extrair informações a partir dos dados, mais precisamente do
BIG DATA.
IA NAS ORGANIZAÇÕES

■ Os últimos anos, a análise de dados por intermédio da Inteligência


Artificial tem se tornado fator estratégico para as organizações
espalhadas pelo mundo.
■ Soluções que possuem funcionalidades baseadas em IA otimizam o
ambiente coorporativo e assim causando um impacto maior na melhoria
dos serviços, demandas, vendas, ect.
APRENDIZADO
DE MÁQUINA
O que é Machine Learning?

■ O aprendizado de máquina (Machine Learning) é um ramo da


inteligência artificial que se concentra no desenvolvimento de
Algoritmos e Técnicas que permitem aos computadores aprender e
tomar decisões sem serem explicitamente programados para cada
tarefa específica.
Seus objetivos

■ Objetivo central do aprendizado de máquina é:


■ Capacitar os computadores a aprender a partir de exemplos e
experiências, de forma semelhante ao modo como seres humano
aprendem. Em vez de escrever um código específico para cada cenário ou
tarefa.
■ O aprendizado de máquina permite que os algoritmos sejam treinados
usando dados de entrada e saída para aprenderem padrões e relações
inerentes nos dados.
Abordagens do AM

■ Existem diferentes abordagens e técnicas de aprendizado de máquina,


mas as duas principais são o Aprendizado Supervisionado e o
Aprendizado Não Supervisionado.
■ Existe ainda a Aprendizagem por Reforço.
Aprendizado Supervisionado

■ Nesse tipo de aprendizado, os algoritmos são treinados usando dados


rotulados, ou seja, dados de entrada que são previamente categorizados
ou classificados.
■ O objetivo é aprender a mapear os dados de entrada para as saídas
corretas com base nos exemplos fornecidos.
■ Por exemplo, um algoritmo de aprendizado de máquina pode ser treinado
para reconhecer imagens de gatos e cães com base em um conjunto de
imagens previamente rotuladas.
Aprendizado Não Supervisionado:

■ Nessa abordagem, os algoritmos são expostos a conjuntos de dados não


rotulados, ou seja, dados de entrada sem categorização prévia.
■ O objetivo é encontrar padrões e estruturas intrínsecas nos dados. Por
exemplo, algoritmos de agrupamento (clustering) podem ser usados para
agrupar automaticamente clientes em diferentes segmentos com base em
seus comportamentos de compra, sem a necessidade de rótulos
predefinidos.
Aprendizagem por reforço

■ É uma abordagem do Aprendizado de Máquina em que um agente


aprende a tomar decisões em um ambiente dinâmico para maximizar uma
recompensa cumulativa.
■ Nesse tipo de aprendizagem, o agente não é informado sobre a ação
correta a ser tomada, mas sim recebe feedback na forma de recompensas
ou penalidades após cadta ação executada.
Enfim...

■ O aprendizado de máquina tem uma ampla gama de aplicações em


diversas áreas, como processamento de linguagem natural, visão
computacional, reconhecimento de padrões, diagnóstico médico,
sistemas de recomendação, otimização de processos e muito mais.
■ À medida que os algoritmos de aprendizado de máquina são treinados
com mais dados e se tornam mais sofisticados, eles têm o potencial de
transformar muitos aspectos da sociedade, trazendo benefícios em termos
de eficiência, automação e tomada de decisões baseada em dados.
APRENDIZADO
SUPERVISIONADO
Aprendizado Supervisionado

■ O aprendizado supervisionado é uma abordagem comum no campo do


Machine Learning, onde um modelo é treinado para aprender a mapear
entradas para saídas com base em um conjunto de dados de treinamento
rotulado. Nesse tipo de aprendizado, o modelo é exposto a pares de
exemplos de entrada e saída esperada, permitindo que ele aprenda a
relação entre os dados de entrada e as respostas desejadas.
O processo de aprendizado
supervisionado
■ O processo de aprendizado supervisionado pode ser dividido em algumas
etapas principais:
■ Conjunto de dados de treinamento: É necessário ter um conjunto de
dados de treinamento que contenha exemplos rotulados. Cada exemplo
consiste em uma entrada (também chamada de características ou
atributos) e uma saída (também chamada de rótulo ou resposta). Esses
exemplos servem como referência para o modelo aprender a fazer
previsões corretas.
O processo de aprendizado
supervisionado
■ Escolha do algoritmo/modelo: É necessário selecionar um algoritmo ou
modelo apropriado para o problema em questão. Existem vários
algoritmos disponíveis, como regressão linear, regressão logística,
árvores de decisão, redes neurais, entre outros. Cada algoritmo possui
características diferentes e é adequado para diferentes tipos de problemas.
O processo de aprendizado
supervisionado
■ Treinamento do modelo: O modelo é treinado utilizando o conjunto de
dados de treinamento. Durante o treinamento, o modelo ajusta seus
parâmetros internos com base nos exemplos de entrada e saída
fornecidos. O objetivo é minimizar uma função de perda ou erro, que
mede a diferença entre as saídas previstas pelo modelo e as saídas
esperadas.
O processo de aprendizado
supervisionado
■ Validação do modelo: Após o treinamento, é importante avaliar o
desempenho do modelo em dados não vistos, chamados de conjunto de
dados de validação. Isso permite verificar se o modelo está generalizando
bem e não está apenas memorizando os exemplos de treinamento. A
validação também ajuda a ajustar hiperparâmetros do modelo, como taxa
de aprendizado, número de camadas em uma rede neural, etc.
O processo de aprendizado
supervisionado
■ Teste do modelo: Após o treinamento e validação, o modelo é avaliado
em um conjunto de dados de teste separado. Esse conjunto de dados não
deve ser usado durante o treinamento nem a validação, garantindo uma
avaliação imparcial do desempenho do modelo. O teste fornece uma
estimativa realista de como o modelo se sairá em situações reais.
O processo de aprendizado
supervisionado
■ Implantação e uso do modelo: Após passar por todas as etapas
anteriores e obter um desempenho satisfatório, o modelo está pronto para
ser implantado e usado para fazer previsões em novos dados. Ele pode ser
integrado em sistemas ou aplicativos para realizar tarefas como
classificação, regressão, detecção de anomalias, entre outras, dependendo
da natureza do problema.
O processo de aprendizado
supervisionado
■ O aprendizado supervisionado é amplamente utilizado em diversas áreas,
incluindo reconhecimento de padrões, processamento de linguagem
natural, visão computacional, medicina, finanças e muitas outras. É uma
abordagem poderosa que permite que as máquinas aprendam com
exemplos rotulados e realizem tarefas complexas de previsão e tomada de
decisão.
PRINCIPAIS ALGORITMOS
DO APRENDIZADO
SUPERVISIONADO
■ Existem vários algoritmos populares de aprendizado supervisionado,
cada um com suas próprias características e adequado para diferentes
tipos de problemas. Aqui estão alguns dos principais algoritmos de
aprendizado supervisionado:
■ Regressão Linear: É um algoritmo utilizado para problemas de
regressão, em que a tarefa é prever um valor numérico contínuo. A
regressão linear encontra uma relação linear entre as variáveis de entrada
e a variável de saída.
■ Regressão Logística: É um algoritmo utilizado para problemas de
classificação binária, em que a tarefa é prever uma classe binária (por
exemplo, sim ou não). A regressão logística estima a probabilidade de
uma instância pertencer a uma determinada classe.
■ Árvores de Decisão: São estruturas de árvore que representam decisões e
suas possíveis consequências. Em cada nó da árvore, uma decisão é tomada
com base em um atributo específico, levando a ramos subsequentes até que
uma previsão seja feita. As árvores de decisão podem ser usadas para
problemas de classificação e regressão.
■ Random Forest: É um algoritmo que combina várias árvores de decisão
independentes para realizar tarefas de classificação ou regressão. Cada árvore
na floresta é treinada com uma amostra aleatória do conjunto de dados e, em
seguida, a previsão final é obtida pela média (no caso de regressão) ou pela
votação (no caso de classificação) das previsões individuais das árvores.
■ Support Vector Machines (SVM): É um algoritmo de aprendizado
supervisionado usado para problemas de classificação. O SVM busca
encontrar o hiperplano que melhor separa as diferentes classes,
maximizando a margem entre elas. É eficaz em conjuntos de dados com
alta dimensionalidade.
■ Redes Neurais Artificiais (RNAs): São modelos inspirados no
funcionamento do cérebro humano. As RNAs são compostas por várias
camadas de neurônios interconectados, que aprendem a partir dos dados
por meio do ajuste dos pesos das conexões. Elas são altamente flexíveis e
podem ser usadas para problemas de classificação, regressão e outros.
■ Naive Bayes: É um algoritmo probabilístico baseado no teorema de
Bayes. Ele assume independência entre os atributos e calcula a
probabilidade de uma instância pertencer a uma classe específica com
base nas probabilidades condicionais dos atributos.
■ Esses são apenas alguns dos algoritmos de aprendizado supervisionado
mais comuns. Cada algoritmo tem suas vantagens e desvantagens, e a
escolha do algoritmo depende do problema específico, dos dados
disponíveis e dos requisitos do projeto.
OVERFITTING E
UNDERFITTING
O que são esses termos?

■ Na aprendizagem supervisionada, existem dois erros principais que


podem ocorrer durante o treinamento de um modelo: o erro de
overfitting e o erro de underfitting.
Overfitting (Superajuste)

■ Overfitting ocorre quando um modelo de aprendizado de máquina se ajusta


excessivamente aos dados de treinamento, capturando não apenas os padrões
subjacentes, mas também o ruído ou variações aleatórias nos dados. Isso leva a um
desempenho muito bom nos dados de treinamento, mas o modelo falha em generalizar
adequadamente para novos dados que não foram vistos durante o treinamento.
■ Em outras palavras, o modelo memoriza os exemplos em vez de aprender os padrões
gerais que podem ser aplicados a situações diferentes. Isso resulta em baixo
desempenho em dados de teste ou validação.
Soluções para o overfitting

■ Regularização: Adicionar termos de regularização às funções de perda


ajuda a penalizar coeficientes excessivamente altos, impedindo o ajuste
exagerado.
■ Aumentar Dados: Aumentar o tamanho do conjunto de treinamento
através de técnicas como data augmentation pode reduzir o overfitting.
■ Simplificação do Modelo: Usar modelos mais simples com menos
parâmetros pode limitar a capacidade do modelo de se ajustar demais aos
dados.
Underfitting (Subajuste)

■ Underfitting, por outro lado, acontece quando um modelo é muito


simples para capturar os padrões subjacentes nos dados. Ele não
consegue aprender a relação entre as entradas e as saídas de maneira
satisfatória, nem mesmo nos dados de treinamento. Como resultado, o
modelo não se encaixa bem nos dados, tanto nos dados de treinamento
quanto nos de teste ou validação.
■ Isso leva a um desempenho insatisfatório, onde o modelo não consegue
capturar as nuances do problema.
Soluções

■ Aumentar Complexidade: Usar modelos mais complexos, com maior


capacidade, pode permitir que o modelo aprenda padrões mais
intrincados nos dados.
■ Aumentar Dados: Ter mais dados de treinamento pode ajudar o modelo
a capturar melhor os padrões.
■ Ajuste de Hiperparâmetros: Ajustar os hiperparâmetros do modelo,
como a taxa de aprendizado, o número de camadas e unidades, pode
ajudar a encontrar uma configuração melhor.
■ Ambos overfitting e underfitting são problemas indesejados no
aprendizado de máquina. Encontrar o equilíbrio certo, onde o modelo é
suficientemente complexo para capturar padrões relevantes, mas não é
excessivamente complexo a ponto de memorizar ruídos, é um desafio
essencial no desenvolvimento de modelos de aprendizado de máquina
bem-sucedidos. Isso é frequentemente alcançado através de técnicas de
ajuste de hiperparâmetros, escolha adequada de arquiteturas de modelos e
o uso de conjuntos de treinamento, validação e teste bem construídos.
ATIVIDADES DE
FIXAÇÃO
Atividades em Grupo de 3 pessoas

■ Exercício 1: Definição de Aprendizagem de Máquina


– Explique, em suas próprias palavras, o que é Aprendizagem de Máquina. Como ela difere da
programação tradicional? Dê exemplos de áreas onde a Aprendizagem de Máquina é
aplicada.
■ Exercício 2: Conceitos-chave do Aprendizado Supervisionado
– Descreva os princípios básicos do aprendizado supervisionado. O que são dados de
treinamento? E como funcionam os rótulos ou etiquetas? Dê um exemplo concreto de um
problema de aprendizado supervisionado, identificando os elementos essenciais.
■ Exercício 3: Conjunto de Treinamento, Validação e Teste
– Explique a importância da divisão de conjuntos de dados em treinamento, validação e teste no
aprendizado de máquina. Qual é o propósito de cada conjunto? Como essa abordagem ajuda a
avaliar e ajustar o desempenho do modelo?

Você também pode gostar