Escolar Documentos
Profissional Documentos
Cultura Documentos
- Redes Neurais -
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
1
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
MOTIVAÇÃO
Constatação que o cérebro processa informações de
forma diferente dos computadores convencionais
CÉREBRO
ê COMPUTADOR
velocidade 1 milhão de vezes processamento extremamente
mais lenta que qualquer “gate ” rápido e preciso na execução
digital è processamento de seqüência de instruções
extremamente rápido no è muito mais lento no
reconhecimento de padrões reconhecimento de padrões
ê
Processamento altamente paralelo
(1011 neurônios com 104 conexões cada)
2
Problema dos 100 Passos
Neurônio: 2ms Processador: 2ns
î í
Processador é 106 mais rápido que o neurônio
ê
Cérebro reage a um estímulo entre 0,2 e 1 seg.
ê
O cérebro responde em 100 passos
MOTIVAÇÃO
• Observações:
– O cérebro tem ∼ 10 bilhões de neurônios.
– Cada neurônio tem ∼ 1.000 a 10.000 conexões
ê
– 60 trilhões de conexões - 1014 sinapses
sinapses!
ê
– Cada pessoa pode dedicar 100.000 conexões
para armazenar cada segundo de experiência
(65 anos ⇒ 2.000.000.000 de segundos!)
3
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
OBJETIVO
4
DEFINIÇÃO
IDÉIA BÁSICA
Sistemas compostos de diversas
unidades simples (neurônios artificiais)
ligadas de maneira apropriada, podem
gerar comportamentos interessantes e
complexos..
complexos
Comportamento é determinado pela
estrutura das ligações (topologia
(topologia)) e
pelos valores das conexões (pesos
sinápticos))
sinápticos
5
Aquisição de Conhecimento:
Aprendizado
Treinamento efetuado através da apresentação
de exemplos
ê
Existe uma variedade de algoritmos que
estabelecem QUANDO e COMO os parâmetros
da Rede Neural devem ser atualizados
ê
Algoritmos: Substituem a programação necessária
para a execução das tarefas nos computadores
APLICAÇÕES GERAIS
þ Reconhecimento de Padrões
þ Classificação de Padrões
þ Correção de Padrões
þ Previsão de Séries Temporais
þ Aproximação de Funções
þ Suporte à Decisão
þ Geração de Informação
þ Descoberta de Conhecimento
6
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
Características Básicas
7
Características Básicas
• Procura Paralela e
Endereçamento pelo Conteúdo:
Conteúdo:
Características Básicas
• Aprendizado
Aprendizado::
8
Características Básicas
• Associação
Associação::
A rede é capaz de fazer associações
entre padrões diferentes
Ex: Cidade è Pessoa
Perfume è Pessoa
Pessoa è Nome
Características Básicas
• Generalização
Generalização::
9
Características Básicas
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
10
EVOLUÇÃO
McCulloch & Pitts (Mathematical Bio-Physics, Vol. 5, 1943),
“A Logical Calculus of Ideas Immanent in Nervous Activity”
EVOLUÇÃO
• Modelo de McCulloch
McCulloch--Pitts
Pitts::
w1
x1
w2
x2
Entradas T s
(valores 00,1)
,1 )
wn w i = +- 1
xn
i = 1,2,..., n
nn
sk+1 = 1 se Σ w i xik ≥T
i=1i=1
nn
0 se Σ w i xik <T
i=1
i=1
11
EVOLUÇÃO
• Modelo de McCulloch
McCulloch--Pitts
Pitts::
1
x 1 -1 T=0 x1
1
-1 1 1 -1
x2 T=0 T=1 s x2 T=1 T=0 s
1
NAND
NAND __ 1 NOR
NOR ___
___
x 3 -1
__
T=0 AA BB AB
AB
x3 AA BB A+B
A+B
00 00 11 00 00 11
00 11 11 00 11 00
11 00 11 11 00 00
11 11 00 11 11 00
1
entrada 1
T=1 sk+1 = x k
excitatória
-1 Célula de Memória
entrada na ausência de entradas,
inibitória a saída é armazenada
indefinidamente
HISTÓRICO
• McCulloch & Pitts (1943):
– modelo computacional para o neurônio artificial. Não possuía
capacidade de aprendizado
• Hebb (1949):
– modelo de aprendizado ( Hebbian Learning Rule)
Rule)
• Rosenblatt (1957):
– Perceptron, com grande sucesso em certas aplicações e
problemas em outras aparentemente similares
• Minsky & Papert ( Perceptrons 1969):
– prova matemática de que as redes Perceptron são incapazes
de solucionar problemas simples tipo OU-EXCLUSIVO
• Rumelhart (início da década de 80):
– novos modelos que superaram os problemas dos Perceptrons.
12
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
CONCEITOS BÁSICOS
• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)
13
Elemento Processador
Elemento Processador inspirado no Neurônio Biológico
Squashing Function
Elementos Básicos
• Estado de Ativação è sj
• Conexões entre Processadores
– a cada conexão existe um peso sináptico
que determina o efeito da entrada sobre o
processador è wji
• Função de Ativação
– determina o novo valor do Estado de
Ativação do processador è sj = F (netj)
14
Funções de Ativação
É a função que determina o nível de
ativação do Neurônio Artificial: sj = F(netj)
Degrau Pseudo--Linear
Pseudo Sigmoid
15
Tipos de Processadores
Exemplos
Regressão Linear:
y = a0 + a1 x1 + a2 x2 + a3 x3 Acha a reta com erro
mínimo que passe pelos
pontos existentes
Variáveis
(padrões de treinamento)
explicativas
Representação
Bias = +1
Neural Deslocamento
x1 a0 em função Reta obtida
a1 do a0 (bias) pela regressão
a2 Função
x2 y
linear
x3 a3
16
Exemplos
Transformada de Fourier:
y = a0 + a1sen(wt + φ 1) + a2sen(2wt + φ 2) +
a3sen(3wt + φ 3) + ...
φ1
a0
+1
(bias ) φ2 a1
Representação φ3 a2
y
w 2w
Neural t a3
(tempo) 3w
Função
Linear
Todos com função
de ativação senoidal
CONCEITOS BÁSICOS
• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)
17
Topologias das Redes
Neurais
• Redes Feed
Feed--Forward
Forward::
– redes de uma ou mais camadas de
processadores, cujo fluxo de dados é
sempre em uma única direção,
direção isto é, não
existe realimentação.
• Redes Recorrentes:
Recorrentes:
– redes com conexões entre processadores da
mesma camada e/ou com processadores das
camadas anteriores (realimentação
realimentação).
Redes Feed-Forward
Redes de uma camada
PE1
PE2
PE3
PEn
18
Redes Feed-Forward
Rede de Múltiplas Camadas
Camada
Camada
Escondida
de Saída
PE1
PE1
PE2
PE2
PE3
PEm
PEn
Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
Input
19
Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
Input
Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
20
Redes Recorrentes
Rede Convergiu para um estado estável
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).
21
Processamento Neural
O processamento de uma Rede Neural
pode ser dividido em duas fases:
Processo de atualização
dos pesos sinápticos para a
aquisição do conhecimento
- Aquisição da Informação
Aprendizado
22
Aprendizado
• Processo pelo qual os parâmetros livres -
pesos sinápticos - de uma rede neural são
adaptados através de um processo contínuo
de estimulação pelo ambiente.
Treinamento Supervisionado
23
Treinamento Supervisionado
PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)
VALOR
CÁLCULO DESEJADO
DO ERRO (t)
(e)
e(t,s)
Treinamento Supervisionado
24
Treinamento Supervisionado
FUNÇÕES OBJETIVO: Genérica
25
Treinamento Não -Supervisionado
PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)
Treinamento em “ Batch”
26
“Reinforcement Learning”
• Semelhante ao Treinamento Supervisionado
(existe um objetivo);
• NÃO existe um target para cada padrão;
• Existe uma realimentação (sinal de reforço)
que avalia a resposta como boa ou ruim;
• O objetivo é maximizar a quantidade de reforço
positivo è Ex. aprendizado de jogos
.
Recuperação de Dados
27
Recuperação de Dados
Assumindo que um conjunto de padrões
tenha sido armazenado
armazenado, a Rede Neural
pode executar as seguintes tarefas:
– Auto-associação
– Hetero-associação GENERALIZAÇÃO
– Classificação
Recuperação de Dados
Autoassociação::
Autoassociação
A Rede Neural recupera o padrão armazenado
mais semelhante ao padrão de entrada
apresentado. Recuperação de
padrões ruidosos
Padrão de Padrão
entrada correto
distorcido recuperado
28
Recuperação de Dados
Heteroassociação::
Heteroassociação
A Rede Neural armazena a associação entre
um par de padrões. Recuperação de um
padrão diferente do
da entrada.
Padrão de
Padrão
entrada
correto
com ou
recuperado
sem ruído
Recuperação de Dados
Classificação:
A Rede Neural responde com a informação
relativa à classe a qual o padrão de entrada
pertence. Caso especial de Heteroassociação
Ex: Padrões de entrada divididos em 3 classes distintas.
Padrão de Classe 1
entrada Classe 2 Classe 3 - Quadrados
com ou
Classe 3
sem ruído
29
Recuperação de Dados
Generalização:
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento .
GENERALIZAÇÃO
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento . Interpola corretamente os novos
pontos apresentados
f(x)
Interpolação ruim
generalizações Boa interpolação
x1 x2 x3 Xnovo x4 x5 x
x i è pontos do conjunto de treinamento
x novo è novo ponto para generalização
30
Exemplos de Treinamento
Supervisionado
Œ Reconhecimento de Caracteres
Reconhecimento de
Caracteres
31
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w
w w
I 2 w H2 w O 2
w w
w w
Dados para
Treinamento I 3 w H3 w O 3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Aprendizado
w w
Erro = -
w w O 1
I 1 H1
w w
w w
O 2
I 2 w H2 w
w w
w w
Dados para O 3
Treinamento I 3 w H3 w
w w
32
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w
w w
I 2 w H2 w O 2
w w
w w
Dados para
Treinamento I 3 w H3 w O 3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Aprendizado
w w
Erro = -
O 1
I 1 w H1 w
w w
w w
O 2
I 2 w H2 w
w w
w w
Dados para O 3
I 3 w H3 w
Treinamento
w w
33
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w
w w
I 2 w H2 w O 2
w w
w w
Dados para
Treinamento I 3 w H3 w O 3
w w
Pesos Pesos
Saída
Entrada Escondida
Processo de Generalização
Recuperação da Informação
Aprendida
34
Processo de Generalização
Atividade
Neural w w
w w O 1
I 1 H1
w w
w w
O 2
I 2 w H2 w
w w
w w
O 3
Novo dado I 3 w H3 w
(não apresentado w w
durante o
treinamento)
Pesos Pesos
Saída
Entrada Escondida
Processo de Generalização
Atividade
Neural w w
w w
I 1 H1 O 1
w w
w w
I 2 w H2 w O 2
w w
w w
w
I 3 H3 w O 3
Resposta
w w correta a um
Pesos Pesos
novo padrão!
Saída
Entrada Escondida
35
Previsão de
Séries Temporais
janela
Saída Dados de
Entradas Treinamento
da rede = Desejada =
n valores valor da série
passados k passos à
frente
Ex: valor um
Ex: 5 valores passo à frente
passados
36
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Saída da rede:
Valor previsto
um passo à frente
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente
37
Processo de Aprendizado
Série temporal
alvo
janela
Dados de
Entradas
Treinamento
da rede
Processo de Generalização
Recuperação da Informação
Aprendida
38
Processo de Generalização
Série temporal janela
Dados de
Entradas Treinamento
da rede
Processo de Generalização
Série temporal previsto
janela
Dados de
Entradas Treinamento
da rede
Dados
previstos
Saída da rede:
Valor previsto
39
Processo de Generalização
Série temporal janela previsto
Dados de
Entradas da rede: Treinamento
inclui o(s) valor(es)
previstos pela Rede Dados
previstos
Saída da rede:
Valor previsto
40