Escolar Documentos
Profissional Documentos
Cultura Documentos
REDES NEURAIS
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
• •1
• •
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
MOTIVAÇÃO
Constatação que o cérebro processa informações de
forma diferente dos computadores convencionais
CÉREBRO
ê COMPUTADOR
velocidade 1 milhão de vezes processamento extremamente
mais lenta que qualquer gate rápido e preciso na execução
digital è processamento de sequência de instruções
extremamente rápido no è muito mais lento no
reconhecimento de padrões reconhecimento de padrões
ê
Processamento altamente paralelo
(1011 neurônios com 104 conexões cada)
• •2
• •
ê
Cérebro reage a um estímulo entre 0,2 e 1 seg.
ê
O cérebro responde em 100 “passos”
MOTIVAÇÃO
• Observações:
– O cérebro tem ∼ 10 bilhões de neurônios.
– Cada neurônio tem ∼ 1.000 a 10.000 conexões
ê
– 60 trilhões de conexões - 1014 sinapses!
ê
– Cada pessoa pode dedicar 100.000 conexões
para armazenar cada segundo de experiência
(65 anos ⇒ 2.000.000.000 de segundos!)
• •3
• •
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
OBJETIVO
• •4
• •
DEFINIÇÃO
Aquisição de Conhecimento:
Aprendizado
Treinamento efetuado através da apresentação
de exemplos
ê
Existe uma variedade de algoritmos que
estabelecem QUANDO e COMO os parâmetros
da Rede Neural devem ser atualizados
ê
Algoritmos substituem a programação
necessária para a execução das tarefas nos
computadores
• •5
• •
APLICAÇÕES GERAIS
þ Reconhecimento de Padrões
þ Classificação de Padrões
þ Correção de Padrões
þ Previsão de Séries Temporais
þ Aproximação de Funções
þ Suporte à Decisão
þ Extração de Informações
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
• •6
• •
Características Básicas
Características Básicas
• Procura Paralela e
Endereçamento pelo Conteúdo:
• •7
• •
Características Básicas
• Aprendizado:
Características Básicas
• Associação:
A rede é capaz de fazer associações
entre padrões diferentes
Ex: Cidade è Pessoa
Perfume è Pessoa
• •8
• •
Características Básicas
• Generalização:
Características Básicas
• Abstração:
• •9
• •
Características Básicas
• Robustez e Degradação Gradual:
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
• •10
• •
EVOLUÇÃO
McCulloch & Pitts (Mathematical Bio-Physics, Vol. 5, 1943),
“A Logical Calculus of Ideas Immanent in Nervous Activity”
EVOLUÇÃO
• Modelo de McCulloch-Pitts:
w1
x1
w2
x2
Entradas T s
(valores 0,1)
wn wi = +- 1
xn
i = 1,2,..., n
n
sk+1 = 1 se Σ wi xik ≥T
i=1
n
0 se Σ wi xik <T
i=1
• •11
• •
EVOLUÇÃO
• Modelo de McCulloch-Pitts:
1
x1 -1 T=0 x1
1
-1 1 1 -1
x2 T=0 T=1 s x2 T=1 T=0 s
1
-1 NAND __ 1 NOR ___
x3 T=0 A B AB
x3 A B A+B
0 0 1 0 0 1
0 1 1 0 1 0
1 0 1 1 0 0
1 1 0 1 1 0
1
entrada 1
T=1 sk+1 = xk
excitatória
-1 Célula de Memória
entrada na ausência de entradas,
inibitória a saída é armazenada
indefinidamente
HISTÓRICO
• McCulloch & Pitts (1943):
– modelo computacional para o neurônio artificial. Não possuía
capacidade de aprendizado
• Hebb (1949):
– modelo de aprendizado (Hebbian Learning Rule)
• Rosenblatt (1957):
– Perceptron, com grande sucesso em certas aplicações e
problemas em outras aparentemente similares
• Minsky & Papert ( Perceptrons 1969):
– prova matemática de que as redes Perceptron são incapazes
de solucionar problemas simples tipo OU-EXCLUSIVO
• Rumelhart (início da década de 80):
– novos modelos que superaram os problemas dos Perceptrons.
• •12
• •
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
CONCEITOS BÁSICOS
• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)
• •13
• •
Elemento Processador
Elemento Processador inspirado no Neurônio Biológico
Neurônio Neurônio
Biológico Artificial
Sinapses Dendritos
Pesos
Axônio w1 Propagação Ativação
w2
Corpo
Somático
w3
Elementos Básicos
• Estado de Ativação è sj
• Conexões entre Processadores
– a cada conexão existe um peso sináptico
que determina o efeito da entrada sobre o
processador è w ij
• Função de Ativação
– determina o novo valor do Estado de
Ativação do processador è sj = F (netj)
• •14
• •
Funções de Ativação
É a função que determina o nível de
ativação do Neurônio Artificial - sj = F(netj)
Tipos de Processadores
• •15
• •
Neurônio Artificial
3 pontos importantes: Ü Thresholding
bias
Ü Não-Linearidade
Ü Saturação
x1 w0
F(netj)
w1
net F(net) y saturação
w2
x2
não-linear
Neurônio Artificial
Em função das equações de net e F(net):
y
1
y = F(net) =
1 + e -(w0 + x1w1 + x2w2)
x1
Fórmula matemática
representada pelo
neurônio artificial x2
• •16
• •
Exemplos
Regressão Linear:
y = a0 + a1x1 + a2x2 + a3x3 Acha a reta com erro
mínimo que passe pelos
pontos existentes
Variáveis
(padrões de treinamento)
explicativas
Representação
Bias = +1
Neural Deslocamento
x1 a0 em função Reta obtida
a1
do a 0 (bias) pela regressão
a2 Função
x2 y
linear
x3 a3
Exemplos
Transformada de Fourier:
y = a0 + a1sen(wt + φ1) + a2sen(2wt + φ2) +
a3sen(3wt + φ3) + ...
φ1
a0
+1
(bias) φ2 a1
Representação φ3 a2
y
w
Neural t
2w a3
(tempo) 3w
Função
Linear
Todos com função
de ativação senoidal
• •17
• •
CONCEITOS BÁSICOS
• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)
• •18
• •
Redes Feed-Forward
Redes de uma camada
PE1
PE2
PE3
PEn
Redes Feed-Forward
Rede de Múltiplas Camadas
Camada
Camada
Escondida
de Saída
PE1
PE1
PE2
PE2
PE3
PEm
PEn
• •19
• •
Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
Input
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Learning e Recall
• Regras de Aprendizado
– Perceptron, Back Propagation e Competitive
Learning.
• •20
• •
Processamento Neural
O processamento de uma Rede Neural
pode ser dividido em duas fases:
Processo de atualização
dos pesos sinápticos para a
aquisição do conhecimento
- Aquisição da Informação
Aprendizado
• •21
• •
Aprendizado
• Processo pelo qual os parâmetros livres
- pesos sinápticos - de uma rede neural são
adaptados através de um processo
contínuo de estimulação pelo ambiente.
Treinamento Supervisionado
• •22
• •
Treinamento Supervisionado
PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)
VALOR
CÁLCULO DESEJADO
DO ERRO (t)
(e)
e(t,s)
Treinamento Não-Supervisionado
• •23
• •
Treinamento Não-Supervisionado
PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)
Treinamento em “Batch”
• •24
• •
Recuperação de Dados
Recuperação de Dados
Assumindo que um conjunto de padrões
tenha sido armazenado, a Rede Neural
pode executar as seguintes tarefas:
– Auto-associação
– Hetero-associação
– Classificação
• •25
• •
Recuperação de Dados
Assumindo que um conjunto de padrões
tenha sido armazenado, a Rede Neural
pode executar as seguintes tarefas:
– Auto-associação
– Hetero-associação GENERALIZAÇÃO
– Classificação
Recuperação de Dados
Autoassociação:
A Rede Neural recupera o padrão armazenado
mais semelhante ao padrão de entrada
apresentado. Recuperação de
padrões ruidosos
Padrão de Padrão
entrada correto
distorcido recuperado
• •26
• •
Recuperação de Dados
Heteroassociação:
A Rede Neural armazena a associação entre
um par de padrões. Recuperação de um
padrão diferente do
da entrada.
Padrão de
Padrão
entrada
correto
com ou
recuperado
sem ruído
Recuperação de Dados
Classificação:
A Rede Neural responde com a informação
relativa à classe a qual o padrão de entrada
pertence. Caso especial de Heteroassociação
Ex: Padrões de entrada divididos em 3 classes distintas.
Padrão de Classe 1
entrada Classe 2 Classe 3
com ou
Classe 3
sem ruído
• •27
• •
Recuperação de Dados
Generalização:
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento .
GENERALIZAÇÃO
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento . Interpola corretamente os novos
pontos apresentados
f(x)
Interpolação ruim
generalizações Boa interpolação
x1 x2 x3 y x4 x5 x
x i è pontos do conjunto de treinamento
y è novo ponto para generalização
• •28
• •
Exemplos de Treinamento
Supervisionado
Œ Reconhecimento de Caracteres
Reconhecimento de
Caracteres
• •29
• •
Processo de Aprendizado
Alvo
Atividade
Neural w w
I1
w H1 w O1
w w
w w
I2 w H2 O2
w
w w
w w
Dados para
Treinamento I3 w H3 w O3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Aprendizado
w w
Erro = -
w w O1
I1 H1
w w
w w
O2
I2 w H2 w
w w
w w
Dados para O3
Treinamento I3 w H3 w
w w
• •30
• •
Processo de Aprendizado
Alvo
Atividade
Neural w w
I1
w H1 w O1
w w
w w
I2 w H2 O2
w
w w
w w
Dados para
Treinamento I3 w H3 w O3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Aprendizado
w w
Erro = -
w w O1
I1 H1
w w
w w
O2
I2 w H2 w
w w
w w
Dados para O3
I3 w H3 w
Treinamento
w w
• •31
• •
Processo de Aprendizado
Alvo
Atividade
Neural w w
I1
w H1 w O1
w w
w w
I2 w H2 O2
w
w w
w w
Dados para
Treinamento I3 w H3 w O3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Generalização
Recuperação da Informação
Aprendida
• •32
• •
Processo de Generalização
Atividade
Neural w w
I1
w H1 w O1
w w
w w
I2 w H2 O2
w
w w
w w
I3 w H3 w O3
Resposta
w w correta a um
Pesos Pesos
novo padrão!
Saída
Entrada Escondida
Previsão de
Séries Temporais
• •33
• •
janela
Saída Dados de
Entradas Treinamento
da rede = Desejada =
n valores valor da série
passados k passos à
frente
Ex: valor um
Ex: 5 valores passo à frente
passados
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Saída da rede:
Valor previsto
um passo à frente
• •34
• •
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
• •35
• •
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
Processo de Aprendizado
Série temporal
janela
alvo
Dados de
Entradas
Treinamento
da rede
• •36
• •
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas
Treinamento
da rede
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
• •37
• •
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas
Treinamento
da rede
• •38
• •
Processo de Generalização
Recuperação da Informação
Aprendida
Processo de Generalização
Série temporal janela
Dados de
Entradas Treinamento
da rede
• •39
• •
Processo de Generalização
Série temporal previsto
janela
Dados de
Entradas Treinamento
da rede
Dados
previstos
Saída da rede:
Valor previsto
Processo de Generalização
Série temporal
janela previsto
Dados de
Entradas da rede: Treinamento
inclui o(s) valor(es)
previstos pela Rede Dados
previstos
Saída da rede:
Valor previsto
• •40
• •
Processo de Generalização
Série temporal previsto
janela
Dados de
Entradas da rede:
Treinamento
inclui o(s) valor(es)
previstos pela Rede Dados
previstos
Saída da rede:
Valor previsto
• •41