Você está na página 1de 58

Redes Neurais

Prof. Alex F. V. Machado


Redes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA)
So sistemas inspirados nos neurnios
biolgicos e na estrutura maciamente paralela
do crebro, com capacidade de adquirir,
armazenar e utilizar conhecimento
experimental.
Redes Neurais Artificiais (RNA)
So sistemas computacionais estruturados numa
aproximao computao baseada em ligaes.
Ns simples (ou neurnios, processadores ou
unidades) so interligados para formar uma rede de
ns - da o termo rede neural.
A inspirao original para essa tcnica advm do
exame das estruturas do crebro, em particular do
exame de neurnios.
Redes Neurais Artificiais (RNA)
As primeiras informaes sobre neurocomputao
surgiram em 1943, em artigos do psiquiatra Warren
McCulloch, do Instituto Tecnolgico de Massachusetts,
e do matemtico Walter Pitts, da Universidade de
Illinois.
Os autores fizeram uma analogia entre clulas nervosas
vivas e o processo eletrnico, em um trabalho
publicado sobre "neurnios formais"; simulando o
comportamento do neurnio natural, no qual o
neurnio possua apenas uma sada, que era uma
funo da soma de valor de suas diversas entradas.
Aplicaes de RNA
Classificao
Reconhecimento de caracteres
Reconhecimento de imagens
Diagnstico mdico
Anlise de crdito
Deteco de fraudes
Categorizao
Agrupamento de sequncias de DNA
Minerao de dados
Agrupamento de clientes
Previso
Previso do tempo
Previso financeira (cmbio, bolsa...)
Organizao em Camadas
Organizao em camadas
Perceptron com uma Camada
Objetivo:
Atuar como classificador e como gerador de
funes lgicas binrias
Caractersticas
Aprendizado supervisionado
Representao binria
Apenas uma camada de pesos ajustveis
Limitaes do Perceptron
No admite mais de uma camada de pesos ajustveis
Aprendizado nem sempre ocorre
As duas classes C1 e C2 devem ser linearmente
separveis
Funo de Ativao
Funo de Ativao
Rede de Perceptron Simples
Organizao em camadas

Usualmente as camadas so classificadas em trs


grupos:
Camada de Entrada: onde os padres so apresentados
rede;
Camadas Intermedirias ou Escondidas: onde feita a
maior parte do processamento, atravs das conexes
ponderadas; podem ser consideradas como extratoras de
caractersticas;
Camada de Sada: onde o resultado final concludo e
apresentado.
Processos de Aprendizado
A propriedade mais importante das redes neurais a
habilidade de aprender de seu ambiente e com isso
melhorar seu desempenho.
Isso feito atravs de um processo iterativo de
ajustes aplicado a seus pesos, o treinamento.
O aprendizado ocorre quando a rede neural atinge
uma soluo generalizada para uma classe de
problemas.
Algoritmo de Aprendizado
algoritmo de aprendizado um conjunto de regras
bem definidas para a soluo de um problema de
aprendizado.
Existem muitos tipos de algoritmos de aprendizado
especficos para determinados modelos de redes
neurais,
estes algoritmos diferem entre si principalmente pelo
modo como os pesos so modificados.
Aprendizado Supervisionado, quando utilizado um
agente externo que indica rede a resposta desejada
para o padro de entrada;
Aprendizado No Supervisionado (auto-
organizao), quando no existe uma agente externo
indicando a resposta desejada para os padres de
entrada;
Reforo, quando um crtico externo avalia a resposta
fornecida pela rede.
Parmetros
Taxa de Aprendizado - Taxa para correo do Erro.
Inrcia - Proporcionalidade da taxa de aprendizado.
poca - Treinamento de todas as amostras do
conjunto.
Treinamento Supervisionado
O treinamento de rede Perceptron, consiste em
ajustar os pesos e os thresholds (bias) de suas
unidades para que a classificao desejada seja
obtida.
Quando um padro inicialmente apresentado
rede, ela produz uma sada.
Aps medir a distncia entre a resposta atual e a
desejada, so realizados os ajustes apropriados nos
pesos de modo a reduzir esta distncia.
Este procedimento conhecido como Regra Delta
Backpropagation
Durante o treinamento com o algoritmo
backpropagation, a rede opera em uma sequncia de
dois passos.
Primeiro, um padro apresentado camada de entrada da
rede. A atividade resultante flui atravs da rede, camada por
camada, at que a resposta seja produzida pela camada de
sada.
segundo passo, a sada obtida comparada sada desejada
para esse padro particular. Se esta no estiver correta, o
erro calculado. O erro propagado a partir da camada de
sada at a camada de entrada, e os pesos das conexes das
unidades das camadas internas vo sendo modificados
conforme o erro retropropagado.
As redes que utilizam backpropagation trabalham
com uma variao da regra delta, apropriada para
redes multi-camadas: a regra delta generalizada.
A regra delta padro essencialmente implementa
um gradiente descendente no quadrado da soma
do erro para funes de ativao lineares.
Entretanto, a superfcie do erro pode no ser to
simples, as redes ficam sujeitas aos problemas de
de mnimos locais.