Você está na página 1de 10

Inteligência Artificial x Machine

Learning: Quais as diferenças?


https://quikdev.com.br/inteligencia-artificial-machine-learning/?gclid=EAIaI
QobChMI44Szuvq9gQMVgTutBh3GTAXoEAAYASAAEgLPBfD_BwE

No mundo da tecnologia, os conceitos de inteligência artificial, machine


learning e deep learning estão cada vez mais difundidos, com empresas de
todos os portes buscando soluções nestes tipos de tecnologia para
aumentarem a eficiência em diversos setores dos negócios e buscarem a
escalabilidade.

Entenda neste artigo o que está por trás dos conceitos e quais são os
principais subtópicos destes tipos de tecnologia.

Como os conceitos de IA, Machine Learning e


Deep Learning começaram?
A inteligência artificial (IA) tem uma longa tradição em ciências da
computação.

O conceito existe desde a antiguidade, e pesquisas rigorosas em IA podem


ser rastreadas até a década de 1950, quando Alan Turing estabeleceu o
famoso Teste de Turing, afirmando: “Proponho considerar a questão: ‘As
máquinas podem pensar?”

Anos depois, John McCarthy criou o conceito de Inteligência Artificial em


1956, quando organizou o Programa de Pesquisa de Dartmouth sobre
inteligência artificial.

Qual é o objetivo da inteligência artificial?

Em sua proposta, um problema de IA é definido como “o de fazer uma


máquina comportar-se de tal forma que seria chamada inteligente se um
humano estivesse se comportando assim”.

Inicialmente, a pesquisa de IA se concentrava em problemas de


matemática e raciocínio lógico. O foco mudou para conhecimento e
sistemas na década de 1980.
Nas primeiras três décadas, a indústria, os governos e o público tinham
expectativas extremamente altas para alcançar a “mítica” inteligência ao
nível humano em máquinas.

Embora ambas as ondas tenham se mostrado promissoras inicialmente,


elas enfrentaram desafios consideráveis ​e apresentaram resultados abaixo
das expectativas excessivamente otimistas em seu começo.

A união entre Inteligência Artificial e Machine


Learning

Desde a década de 1990 a pesquisa sobre IA se concentra principalmente


em métodos de machine learning. A definição amplamente utilizada de
Machine Learning é de acordo Mitchell (1997): “Diz-se que um programa de
computador aprende com a experiência E em relação a alguma classe de
tarefas T e medida de desempenho P, se seu desempenho em tarefas em
T, medido por P, melhora com a experiência E”.

Embora tenha evoluído separadamente, machine learning tornou-se o


principal paradigma da pesquisa em IA e é normalmente considerado um
subcampo da IA ​(Goodfellow, Bengio, & Courville, 2016, p.9).

A última década testemunhou avanços impressionantes no desempenho


da IA, no reconhecimento de imagens, processamento de fala, direção
autônoma e muitas outras tarefas normalmente consideradas como
demonstração de inteligência ao nível humano.

O surgimento do deep learning


Por trás de grande parte desse avanço está o deep learning (LeCun,
Bengio, & Hinton, 2015), métodos que usam vários níveis de representação
normalmente implementados usando redes neurais com várias camadas
ocultas, combinados com o advento do big data e o crescimento
exponencial em hardware.

Depois, outros métodos de machine learning também se beneficiaram


dessa tendência e expandiram suas aplicações. Na imagem a seguir temos
um breve resumo da história da inteligência artificial, começando pela
própria IA em 1950, passando por Machine Learning nos anos 80 até 2010 e
finalizando com Deep Learning que teve seu início na década de 2010.
Inteligência Artificial, Machine Learning e Deep Learning tornaram-se as
tecnologias mais comentadas no mundo comercial de hoje, pois as
empresas estão usando essas inovações para construir máquinas e
aplicativos inteligentes. Embora esses termos estejam dominando os
diálogos de negócios em todo o mundo, muitas pessoas têm dificuldade
em diferenciá-los.

Talvez a pergunta mais frequente seja: “Qual é a diferença entre


Inteligência Artificial (IA) e Machine Learning (ML) — e o Deep Learning
(DL) pertence à IA ou ML?”. Uma resposta curta formal: Deep Learning faz
parte do Machine Learning e este é parte da Inteligência Artificial: DL.
Nessa imagem ilustramos os conceitos abordados. A inteligência Artificial
contêm o Machine Learning, que, por sua vez contêm o Deep Learning.
Este artigo ajudará você a obter uma compreensão clara de IA, Machine
Learning e Deep Learning e como eles diferem um do outro.

O que é Inteligência Artificial?

A inteligência artificial (IA) é atualmente uma das palavras-chave mais


populares em tecnologia, e com razão.

Nos últimos anos, várias inovações e avanços que antes estavam apenas no
domínio da ficção científica se transformaram lentamente em realidade.

A inteligência artificial, comumente chamada de IA, é o processo de


transmissão de dados, informações e inteligência humana às máquinas.

O principal objetivo da Inteligência Artificial é desenvolver máquinas auto


suficientes que possam pensar e agir como humanos.

Essas máquinas podem imitar o comportamento humano e realizar tarefas


aprendendo e resolvendo problemas. A maioria dos sistemas de IA simula
a inteligência natural para resolver problemas complexos.

Especialistas consideram a inteligência artificial como um fator de


produção, que tem o potencial de introduzir novas fontes de crescimento e
mudar a forma como o trabalho é feito em todos os setores.

Quais são os tipos de IA?


Máquinas Reativas – São sistemas que apenas reagem. Esses sistemas não
formam memórias e não usam experiências passadas para tomar novas
decisões.

Memória Limitada – Esses sistemas fazem referência ao passado e as


informações são adicionadas ao longo de um período de tempo. As
informações referenciadas são de curta duração.

Teoria da Mente – Abrange sistemas que são capazes de entender as


emoções humanas e como elas afetam a tomada de decisões. Eles são
treinados para ajustar seu comportamento de acordo.
Autoconsciência – Esses sistemas são projetados e criados para serem
conscientes de si mesmos. Eles entendem seus próprios estados internos,
preveem os sentimentos de outras pessoas e agem adequadamente.

Exemplos de IA
Neste exemplo dividiremos a inteligência artificial em algumas categorias
que estão entre as mais utilizadas atualmente.

● Machine Learning: Subdividido em Deep Learning e Análises


preditivas;
● Discursos: Utilizando a tecnologia para transformar texto em fala e
vice-versa;
● Visão: Reconhecimento por imagem e machine vision (sistema de
visão);
● Language Processing (NLP) / Processamento de Linguagem:
Classificação, Tradução, Extração de dadosk
● Sistemas Especializados;
● Planejamento e Otimização;
● Robótica;

O que é Machine Learning?


Para começar, Machine Learning é uma sub-área central da Inteligência
Artificial (IA).
Os aplicativos de ML aprendem com a experiência (ou para ser mais
preciso, dados) como os humanos fazem sem programação direta. Quando
expostos a novos dados, esses aplicativos aprendem, crescem, mudam e se
desenvolvem sozinhos.

Em outras palavras, machine learning envolve computadores que


encontram informações perspicazes sem serem informados sobre onde
procurar. Em vez disso, eles fazem isso aproveitando algoritmos que
aprendem com os dados em um processo iterativo.

O conceito de ML existe há muito tempo (pense na Máquina Enigma da


Segunda Guerra Mundial, por exemplo). No entanto, a ideia de automatizar
a aplicação de cálculos matemáticos complexos para big data só existe há
alguns anos, embora agora esteja ganhando mais força.

Em alto nível, machine learning é a capacidade de se adaptar a novos


dados de forma independente e por meio de iterações. Os aplicativos
aprendem com cálculos e transações anteriores e usam o
“reconhecimento de padrões” para produzir resultados confiáveis ​e
informados.

Tipos de Machine Learning


Machine Learning é complexo, por isso foi dividido em duas áreas
principais, aprendizado supervisionado e aprendizado não supervisionado.

Cada um tem um propósito e ação específicos, gerando resultados e


utilizando diversas formas de dados. Aproximadamente 70% do ML é de
aprendizado supervisionado, enquanto o aprendizado não supervisionado
representa de 10% a 20%. O restante é absorvido pelo aprendizado por
reforço.

Como funciona o Aprendizado Supervisionado?


No aprendizado supervisionado, os dados já estão rotulados, o que
significa que você conhece a variável de destino.

Usando esse método de aprendizado, os sistemas podem prever


resultados futuros com base em dados passados. Requer que pelo menos
uma variável de entrada e saída seja fornecida ao modelo para que ele seja
treinado.
Alguns exemplos de aprendizado supervisionado incluem regressão linear,
regressão logística, máquinas de vetor de suporte, Naive Bayes e árvore de
decisão.

Como funciona o Aprendizado Não


Supervisionado?
Os algoritmos de aprendizado não supervisionados empregam dados não
rotulados para descobrir padrões a partir dos dados por conta própria.

Os sistemas são capazes de identificar recursos ocultos a partir dos dados


de entrada fornecidos. Uma vez que os dados são mais legíveis, os padrões
e semelhanças tornam-se mais evidentes.

Alguns exemplos de aprendizado não supervisionado incluem


agrupamento k-means, agrupamento hierárquico e detecção de
anomalias.

O que é Aprendizado Por Reforço?


O objetivo do aprendizado por reforço é treinar um agente para completar
uma tarefa dentro de um ambiente incerto.

O agente recebe observações e uma recompensa do ambiente e envia


ações para o ambiente. A recompensa mede o quão bem-sucedida é a
ação em relação à conclusão da meta da tarefa.

Exemplos de algoritmos de aprendizado por reforço incluem Q-learning e


Deep Q-learning Neural Networks.

Exemplos de Machine Learning


Para demonstrar de forma mais clara algumas utilizações do machine
learning traremos 10 exemplos.

● O carro autônomo do Google;


● Resultados de busca na internet;
● Detectamento de fraudes;
● Pontuação de créditos;
● Reconhecimento de patentes;
● Aplicações de Social Listening;
● Modelos de preços de mercado;
● Análise de sentimentos baseado em textos;
● Previsão de sucessos e fracassos;
● Recomendação online ou ofertas em grandes sites de E-commerce;

O que é Deep Learning?


Assim como Machine Learning é considerado um tipo de IA, o Deep
Learning é frequentemente considerado um tipo de ML – alguns o
chamam de subconjunto.

Enquanto Machine Learning usa conceitos mais simples, como modelos


preditivos, o Deep Learning usa redes neurais artificiais projetadas para
imitar a maneira como os humanos pensam e aprendem.

Você deve se lembrar das aulas de biologia do ensino médio, em que o


componente celular primário, e o principal elemento computacional do
cérebro humano, é o neurônio e que cada conexão neural é como um
pequeno computador.

A rede de neurônios no cérebro é responsável pelo processamento de


todos os tipos de entradas: visual, sensorial e assim por diante.

Nos sistemas de computador deep learning, como no ML, a entrada ainda


é alimentada neles, mas as informações geralmente estão na forma de
grandes conjuntos de dados, porque os sistemas de deep learning
precisam de uma grande quantidade de dados para entendê-los e retornar
resultados precisos.
Em seguida, as redes neurais artificiais fazem uma série de perguntas
binárias de verdadeiro/falso com base nos dados, envolvendo cálculos
matemáticos altamente complexos, e classificam esses dados com base
nas respostas recebidas.

Quais são os tipos de Deep Learning?


Rede Neural Convolucional (CNN) – é uma classe de redes neurais
profundas mais comumente usadas para análise de imagens.

Rede Neural Recorrente (RNN) – usa informações sequenciais para


construir um modelo. Geralmente funciona melhor para modelos que
precisam memorizar dados anteriores.

Generative Adversarial Network (GAN) – são arquiteturas algorítmicas que


usam duas redes neurais para criar novas instâncias sintéticas de dados
que passam por dados reais. Um GAN treinado em fotografias pode gerar
novas fotografias que pareçam pelo menos superficialmente autênticas
para observadores humanos.

Deep Belief Network (DBN) – é um modelo gráfico generativo composto


por várias camadas de variáveis ​latentes chamadas unidades ocultas. Cada
camada é interconectada, mas as unidades não.

Conclusão
O McKinsey Global Institute prevê que aproximadamente 70% das
companhias usarão pelo menos um tipo de tecnologia de Inteligência
Artificial até 2030, e cerca de metade das grandes empresas incorporarão
uma gama completa de tecnologia de IA em seus processos.
A Inteligência Artificial está revolucionando as indústrias com suas
aplicações e ajudando a resolver problemas complexos. À medida que este
campo emergente continua a crescer, ele terá um impacto na vida
cotidiana e levará a implicações consideráveis ​para muitas indústrias.

Machine Learning, Deep learning e IA estão redefinindo a maneira como os


processos de negócios são realizados em várias áreas, como marketing,
saúde, serviços financeiros e muito mais. As empresas estão explorando
continuamente as maneiras pelas quais podem colher os benefícios dessa
tecnologia.

À medida que a busca pela melhoria dos processos atuais continua a


crescer, é essencial ter uma boa base de conhecimento sobre essas
tecnologias que estão revolucionando nosso presente e futuro.

Referências

Turing, A., (1950), “Computing Machinery and Intelligence,” Mind, Vol. LIX,
(No. 236).

McCarthy, J., M.L. Minsky, N. Rochester, and C.E. Shannon, (1955), “A


proposal for the Dartmouth summer research project on artificial
intelligence,”
(http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html)

Mitchell, T., (1997), “Machine learning,” McGraw Hill, p. 2, ISBN


978-0071154673.

​Goodfellow, I., Y. Bengio, and A. Courville, (2016), “Deep learning,” MIT press.

LeCun, Y., Y. Bengio and G. Hinton, (2015), “Deep Learning,” Nature, Vol. 521,
pp 436–444.

Você também pode gostar