Você está na página 1de 7

YOUTUBE - @fazquestao

INSTA - @fazquestao.diretoaoponto

INTELIGÊNCIA ARTIFICIAL, MACHINE LEARNING E


DATA SCIENCE
INTELIGÊNCIA ARTIFICIAL
A Inteligência Artificial (IA) é um campo multidisciplinar da ciência da computação
que busca criar sistemas capazes de simular a cognição humana. Essa simulação inclui a
capacidade de:

 Aprender: Extrair conhecimento de dados, seja através de exemplos, experiências


ou instruções.
 Raciocinar: Fazer inferências, deduções e generalizações a partir de informações.
 Resolver problemas: Encontrar soluções para desafios complexos de forma
autônoma.
 Tomar decisões: Avaliar diferentes opções e escolher a melhor alternativa com
base em critérios específicos.
 Realizar ações: Controlar sistemas físicos e interagir com o mundo real de forma
inteligente.
TÉCNICAS DA IA
A IA se baseia em um conjunto de técnicas e algoritmos sofisticados, divididos em
subcampos, dos quais alguns exemplos são:

 Aprendizado de Máquina: Permite que os sistemas aprendam com dados e


melhorem seu desempenho ao longo do tempo, sem serem explicitamente
programados. Exemplos: reconhecimento de imagens, tradução de idiomas, carros
autônomos.
 Processamento de Linguagem Natural: Possibilita a compreensão e geração de
linguagem humana por sistemas computacionais. Exemplos: chatbots, assistentes
virtuais, tradução automática.
 Visão Computacional: Permite que os sistemas interpretem e compreendam
imagens e vídeos. Exemplos: reconhecimento facial, análise de imagens médicas,
robótica.
 Robótica: Integra as diferentes técnicas da IA para criar sistemas físicos autônomos
capazes de interagir com o mundo real. Exemplos: drones, robôs cirúrgicos,
exoesqueletos.

#FAZQUESTÃO
1
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
ALGORITMO
Um algoritmo é um conjunto finito e ordenado de instruções que define um processo
passo-a-passo para realizar uma tarefa ou resolver um problema. Então de maneira mais
abrangente, uma receita culinária, manual de instruções para montar móveis, funções
matemáticas e programas de computador são algoritmos.

É claro que o contexto aqui é voltado para os computadores, seus programas e conjunto
de instruções para resolução de tarefas e programas e para isso ele deve possuir algumas
características essenciais:

 Precisão: As instruções do algoritmo devem ser claras e livres de ambiguidade,


permitindo que diferentes indivíduos as interpretem e executem da mesma
maneira.
 Generalidade: O algoritmo deve ser capaz de resolver um problema para qualquer
conjunto de dados de entrada que atenda às suas especificações predefinidas, sem
necessidade de modificações.
 Finitudes: O algoritmo deve ter um número finito de etapas e terminar após um
tempo finito de execução, evitando loops infinitos e processos intermináveis.
 Eficiência: O algoritmo deve ser eficiente no uso de recursos computacionais, como
tempo e memória, buscando minimizar o custo computacional da solução.

REDES NEURAIS GENERATIVAS


As Redes Neurais Generativas (RNGs) são uma classe poderosa de modelos de
aprendizado de máquina que se destaca por sua capacidade de criar dados realistas e
originais, imitando a distribuição de dados reais. Essa tecnologia revolucionária abre um
mundo de possibilidades em diversas áreas, desde a criação de imagens e textos até o
desenvolvimento de novos medicamentos e materiais.

 São redes neurais que podem gerar novos dados.


 São utilizadas para tarefas como geração de texto, geração de imagens e tradução
automática.
 Embora o GPT-3 seja mais conhecido como um modelo de linguagem, ele também
pode ser considerado uma forma de rede neural generativa. Outras famosas nessa
categoria são DALL-E, Midjourney e Gemini (Antigo Bard da Google).

#FAZQUESTÃO
2
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
CHATGPT
O ChatGPT, que significa Chat Generative Pre-trained Transformer, é um chatbot de
inteligência artificial (IA) desenvolvido pela OpenAI e lançado em novembro de 2022. Ele se
baseia em um modelo de linguagem grande pré-treinado, o GPT-3, e é capaz de realizar
diversas tarefas, como:
 Responder perguntas de forma abrangente e informativa, mesmo que sejam abertas,
desafiadoras ou estranhas.
 Gerar textos criativos, como poemas, código, scripts, peças musicais, e-mails, cartas,
etc.
 Traduzir idiomas de forma precisa e fluente.
 Escrever diferentes tipos de conteúdo de marketing, como slogans, anúncios e
descrições de produtos.
 Realizar conversas engajadoras e realistas com os usuários.

ATENÇÃO - Transações via chatbot se refere especificamente a


interações em que um chatbot alimentado pelo modelo GPT é utilizado para
realizar transações, responder a perguntas, fornecer informações ou
realizar outras tarefas por meio de uma conversa baseada em texto. Essas
transações podem incluir desde atendimento ao cliente e suporte técnico, até
assistência em compras online e agendamento de compromissos, entre
outras possibilidades.

#FAZQUESTÃO
3
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
MACHINE LEARNING
Machine Learning, ou Aprendizado de Máquina em português, é um campo da
inteligência artificial que permite que os computadores aprendam e se adaptem sem
serem explicitamente programados para isso. Isso significa que, em vez de fornecer
instruções detalhadas para cada tarefa, os algoritmos de machine learning são treinados com
dados para que possam aprender a realizar a tarefa por conta própria.

O processo de machine learning geralmente envolve as seguintes etapas:

 Coletar dados: A primeira etapa é coletar um conjunto de dados relevante para a


tarefa que o algoritmo de machine learning precisa realizar.
 Preparar os dados: Os dados coletados geralmente precisam ser limpos e pré-
processados para que o algoritmo possa interpretá-los corretamente.
 Treinar o modelo: O algoritmo de machine learning é treinado no conjunto de
dados pré-processado. Durante o treinamento, o algoritmo aprende a identificar
padrões nos dados e a fazer previsões.
 Avaliar o modelo: Após o treinamento, o modelo é avaliado em um conjunto de
dados de teste para verificar sua precisão.
 Usar o modelo: O modelo treinado pode então ser usado para realizar a tarefa
desejada.
TIPOS PRINCIPAIS DE APRENDIZADO
 Aprendizado Supervisionado: Nesse tipo de aprendizado, o algoritmo é treinado
com um conjunto de dados rotulados, onde cada entrada tem uma saída desejada. O
algoritmo aprende a mapear as entradas para as saídas.
 Aprendizado Não Supervisionado: Nesse tipo de aprendizado, o algoritmo é
treinado com um conjunto de dados não rotulados. O algoritmo aprende a identificar
padrões nos dados e a agrupá-los em categorias.
 Aprendizado por Reforço: Nesse tipo de aprendizado, o algoritmo aprende a tomar
decisões em um ambiente interativo. O algoritmo recebe recompensas ou
penalidades por suas ações, e aprende a tomar ações que maximizem sua
recompensa.

#FAZQUESTÃO
4
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
DATA SCIENCE
A Ciência de Dados, ou Data Science em inglês, é um campo interdisciplinar que
combina matemática, estatística, ciência da computação e conhecimento de domínio para
extrair insights valiosos de grandes conjuntos de dados.
CRISP-DM
O CRISP-DM, sigla para Cross Industry Standard Process for Data Mining (Processo
Padrão Inter-Indústrias para Mineração de Dados), é uma metodologia amplamente utilizada
para guiar projetos de mineração de dados. Ele fornece um roteiro estruturado com seis fases
distintas que garantem um processo abrangente e eficiente.

As seis fases do CRISP-DM:

1. Entendimento do Negócio: A primeira fase define os objetivos do projeto, as


necessidades do cliente e as expectativas de resultados. É crucial para garantir que a
análise esteja alinhada com as metas da empresa.
2. Entendimento dos Dados: Nesta fase, os dados são coletados, explorados e limpos
para identificar possíveis problemas e oportunidades. O objetivo é obter um
conhecimento profundo das características e do conteúdo dos dados.
3. Preparação dos Dados: A fase de preparação envolve a transformação dos dados
brutos em um formato adequado para a análise. Isso inclui a correção de erros, a
remoção de inconsistências e a normalização dos dados.
4. Modelagem: Nesta fase, são aplicados diversos algoritmos e técnicas de mineração
de dados para identificar padrões e modelos nos dados. O objetivo é gerar modelos
preditivos ou descritivos que auxiliem na tomada de decisões.

Portanto, mineração de dados é apenas uma das etapas de


descoberta de conhecimento em um banco de dados.

5. Avaliação: A fase de avaliação consiste em analisar a qualidade dos modelos gerados,


verificar sua confiabilidade e identificar suas potenciais aplicações. É importante
avaliar a acurácia, a robustez e a interpretabilidade dos modelos.
6. Implantação/Entrega: Na última fase, os modelos são implantados em um ambiente
de produção para que os resultados da análise sejam utilizados na tomada de
decisões. Isso pode envolver a criação de relatórios, dashboards ou sistemas
automatizados.

#FAZQUESTÃO
5
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
TIPOS DE TAREFAS
A extração de conhecimento em banco de dados pode ser realizada por meio de duas
categorias principais de tarefas:
TAREFAS PREDITIVAS
O objetivo dessas tarefas é prever o valor de um determinado atributo com base nos
valores de outros atributos. O atributo a ser predito é comumente conhecido como variável
alvo ou dependente, enquanto os atributos usados para fazer a predição são conhecidos
como variáveis explicativas ou independentes.
A modelagem preditiva refere-se à tarefa de construir um modelo para a variável alvo
em função das variáveis explicativas. Existem dois tipos de tarefas de modelagem preditiva:
classificação, que é usada para variáveis alvo discretas, e regressão, que é usada para
variáveis alvo contínuas.
Por exemplo, prever se um usuário da web fará uma compra em uma livraria online é
uma tarefa de classificação porque, neste caso, a variável alvo tem valor binário ou discreto
(sim ou não; 1 ou 0). Por outro lado, prever o preço futuro de uma ação é uma tarefa de
regressão porque o preço é um atributo de valor contínuo. O objetivo de ambas as tarefas é
aprender um modelo que minimize o erro entre os valores previstos e verdadeiros da
variável alvo. A modelagem preditiva pode ser usada para identificar clientes que
responderão a uma campanha de marketing, prever distúrbios nos ecossistemas da Terra ou
julgar se um paciente tem uma doença específica com base nos resultados de testes médicos.
TAREFAS DESCRITIVAS
Aqui, o objetivo é derivar padrões (correlações, tendências, clusters, trajetórias e
anomalias) que descrevem os relacionamentos ocultos nos dados. Tarefas descritivas de
mineração de dados são frequentemente de natureza exploratória e frequentemente
requerem técnicas de pós-processamento para validar e explicar os resultados.
A análise de associação é usada para descobrir padrões que descrevem recursos
fortemente associados nos dados. Os padrões descobertos são normalmente representados
na forma de regras de implicação ou subconjuntos de recursos. Por causa do tamanho
exponencial de seu espaço de busca, o objetivo da análise de associação é extrair os padrões
mais interessantes de uma maneira eficiente. Aplicações úteis de análise de associação
incluem encontrar grupos de genes que têm funcionalidades relacionadas, identificar
páginas da web que são acessadas juntas ou compreender as relações entre os diferentes
elementos do sistema climático da Terra e ainda quais produtos de uma loja costumam ser
comprados juntos, como {fralda}{leite}, o qual sugere que consumidores que compram
fralda frequentemente compram leite, sendo que o inverso não é necessariamente
verdadeiro.
A análise de agrupamento ou clusterização procura encontrar grupos de
observações intimamente relacionadas, de modo que as observações que pertencem ao
mesmo agrupamento sejam mais semelhantes entre si do que as observações que pertencem
a outros agrupamentos. A clusterização tem sido usado para agrupar conjuntos de clientes
relacionados, encontrar áreas do oceano que têm um impacto significativo no clima da Terra
e compactar dados.

#FAZQUESTÃO
6
YOUTUBE - @fazquestao
INSTA - @fazquestao.diretoaoponto
A detecção de anomalias é a tarefa de identificar observações cujas características são
significativamente diferentes do resto dos dados. Essas observações são conhecidas como
anomalias ou outliers. O objetivo é descobrir as anomalias reais e evitar rotular falsamente
objetos normais como anômalos. Em outras palavras, um bom detector de anomalias deve
ter uma alta taxa de detecção e uma baixa taxa de falsos alarmes. As aplicações de detecção
de anomalias incluem a detecção de fraudes, intrusões de rede, padrões incomuns de
doenças e distúrbios do ecossistema, como secas, inundações, incêndios, furacões, etc.

#FAZQUESTÃO
7

Você também pode gostar