Você está na página 1de 40

Sistemas Inteligentes

- Redes Neurais -

Marley Maria B.R. Vellasco


ICA: Núcleo de Pesquisa em Inteligência
Computacional Aplicada
PUC--Rio
PUC

CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

1
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

MOTIVAÇÃO
Constatação que o cérebro processa informações de
forma diferente dos computadores convencionais

CÉREBRO
ê COMPUTADOR
velocidade 1 milhão de vezes processamento extremamente
mais lenta que qualquer “gate ” rápido e preciso na execução
digital è processamento de seqüência de instruções
extremamente rápido no è muito mais lento no
reconhecimento de padrões reconhecimento de padrões
ê
Processamento altamente paralelo
(1011 neurônios com 104 conexões cada)

2
Problema dos 100 Passos
Neurônio: 2ms Processador: 2ns
î í
Processador é 106 mais rápido que o neurônio

ê
Cérebro reage a um estímulo entre 0,2 e 1 seg.

ê
O cérebro responde em 100 passos

MOTIVAÇÃO
• Observações:
– O cérebro tem ∼ 10 bilhões de neurônios.
– Cada neurônio tem ∼ 1.000 a 10.000 conexões
ê
– 60 trilhões de conexões - 1014 sinapses
sinapses!
ê
– Cada pessoa pode dedicar 100.000 conexões
para armazenar cada segundo de experiência
(65 anos ⇒ 2.000.000.000 de segundos!)

– Durante os 2 primeiros anos de vida, 1.000.000


de sinapses são formadas por segundo!!

3
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

OBJETIVO

Estudar a teoria e a implementação de


sistemas massivamente paralelos
paralelos, que
possam processar informações com
eficiência comparável ao cérebro.

4
DEFINIÇÃO

Redes Neurais Artificiais são sistemas


inspirados nos neurônios biológicos e
na estrutura massivamente paralela do
cérebro, com capacidade de adquirir
adquirir,
armazenar e utilizar conhecimento
experimental.

IDÉIA BÁSICA
Sistemas compostos de diversas
unidades simples (neurônios artificiais)
ligadas de maneira apropriada, podem
gerar comportamentos interessantes e
complexos..
complexos
Comportamento é determinado pela
estrutura das ligações (topologia
(topologia)) e
pelos valores das conexões (pesos
sinápticos))
sinápticos

5
Aquisição de Conhecimento:
Aprendizado
Treinamento efetuado através da apresentação
de exemplos
ê
Existe uma variedade de algoritmos que
estabelecem QUANDO e COMO os parâmetros
da Rede Neural devem ser atualizados

ê
Algoritmos: Substituem a programação necessária
para a execução das tarefas nos computadores

APLICAÇÕES GERAIS
þ Reconhecimento de Padrões
þ Classificação de Padrões
þ Correção de Padrões
þ Previsão de Séries Temporais
þ Aproximação de Funções
þ Suporte à Decisão
þ Geração de Informação
þ Descoberta de Conhecimento

6
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

Características Básicas

Devido à similaridade com a estrutura


do cérebro, as Redes Neurais exibem
características similares ao do
comportamento humano, tais como:

7
Características Básicas

• Procura Paralela e
Endereçamento pelo Conteúdo:
Conteúdo:

O cérebro não possui endereço de


memória e não procura a
informação sequencialmente

Características Básicas

• Aprendizado
Aprendizado::

A rede aprende por experiência,


experiência não
necessitando explicitar os algoritmos
para executar uma determinada
tarefa

8
Características Básicas

• Associação
Associação::
A rede é capaz de fazer associações
entre padrões diferentes
Ex: Cidade è Pessoa
Perfume è Pessoa
Pessoa è Nome

Características Básicas

• Generalização
Generalização::

Redes Neurais são Habilidade de lidar com


capazes de ruíídos e distorç
ru distorções
ões,
generalizar o seu è respondendo
conhecimento a partir corretamente a
de exemplos padrões novos.
anteriores

9
Características Básicas

• Robustez e Degradação Gradual:


Gradual:

A perda de um conjunto de elementos


processadores e/ou conexões sinápticas
não causa o mal funcionamento da rede
neural.

CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

10
EVOLUÇÃO
McCulloch & Pitts (Mathematical Bio-Physics, Vol. 5, 1943),
“A Logical Calculus of Ideas Immanent in Nervous Activity”

Von Neumann Marvin Minsky Frank Rosenblatt


Machine Macroscopic Microscopic
Intelligence Intelligence Intelligence
1945 Digital
Computers
1950 Black-Box AI Perceptron,
(LISP) Adaline
1960 Mainframes Theorem Solver
1970 Vax 780 Expert Systems
(Time Sharing)
1980 Workstations, Commercialization Rumelhart,
PCs of E.S. Hopfield
1990 Desktop Commercialization
Supercomputers of N.N.

EVOLUÇÃO
• Modelo de McCulloch
McCulloch--Pitts
Pitts::
w1
x1
w2
x2
Entradas T s
(valores 00,1)
,1 )
wn w i = +- 1
xn
i = 1,2,..., n

nn
sk+1 = 1 se Σ w i xik ≥T
i=1i=1
nn
0 se Σ w i xik <T
i=1
i=1

11
EVOLUÇÃO
• Modelo de McCulloch
McCulloch--Pitts
Pitts::
1
x 1 -1 T=0 x1
1
-1 1 1 -1
x2 T=0 T=1 s x2 T=1 T=0 s
1
NAND
NAND __ 1 NOR
NOR ___
___
x 3 -1
__
T=0 AA BB AB
AB
x3 AA BB A+B
A+B
00 00 11 00 00 11
00 11 11 00 11 00
11 00 11 11 00 00
11 11 00 11 11 00

1
entrada 1
T=1 sk+1 = x k
excitatória
-1 Célula de Memória
entrada na ausência de entradas,
inibitória a saída é armazenada
indefinidamente

HISTÓRICO
• McCulloch & Pitts (1943):
– modelo computacional para o neurônio artificial. Não possuía
capacidade de aprendizado
• Hebb (1949):
– modelo de aprendizado ( Hebbian Learning Rule)
Rule)
• Rosenblatt (1957):
– Perceptron, com grande sucesso em certas aplicações e
problemas em outras aparentemente similares
• Minsky & Papert ( Perceptrons 1969):
– prova matemática de que as redes Perceptron são incapazes
de solucionar problemas simples tipo OU-EXCLUSIVO
• Rumelhart (início da década de 80):
– novos modelos que superaram os problemas dos Perceptrons.

12
CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

CONCEITOS BÁSICOS

• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)

13
Elemento Processador
Elemento Processador inspirado no Neurônio Biológico

Squashing Function

Elementos Básicos
• Estado de Ativação è sj
• Conexões entre Processadores
– a cada conexão existe um peso sináptico
que determina o efeito da entrada sobre o
processador è wji
• Função de Ativação
– determina o novo valor do Estado de
Ativação do processador è sj = F (netj)

14
Funções de Ativação
É a função que determina o nível de
ativação do Neurônio Artificial: sj = F(netj)

F(net j) F(net j) F(net j)

net j net j net j

Degrau Pseudo--Linear
Pseudo Sigmoid

RN x Sistema Nervoso Real


ü Feed-Forward Ø Recorrente
ü totalmente Ø conexões localizadas
conectada
ü estrutura uniforme Ø módulos funcionais
ü poucos tipos de Ø centenas de tipos de
processadores neurônios
ü geralmente estática Ø dinâmico

15
Tipos de Processadores

è Recebe os dados de entrada

è Apresenta os dados de saída

è As suas entradas e saídas


permanecem dentro do sistema

Exemplos
Regressão Linear:
y = a0 + a1 x1 + a2 x2 + a3 x3 Acha a reta com erro
mínimo que passe pelos
pontos existentes
Variáveis
(padrões de treinamento)
explicativas

Representação
Bias = +1
Neural Deslocamento
x1 a0 em função Reta obtida
a1 do a0 (bias) pela regressão
a2 Função
x2 y
linear
x3 a3

16
Exemplos
Transformada de Fourier:
y = a0 + a1sen(wt + φ 1) + a2sen(2wt + φ 2) +
a3sen(3wt + φ 3) + ...
φ1
a0
+1
(bias ) φ2 a1
Representação φ3 a2
y
w 2w
Neural t a3
(tempo) 3w
Função
Linear
Todos com função
de ativação senoidal

CONCEITOS BÁSICOS

• Neurônio Artificial
– (Elemento Processador)
• Estruturas de Interconexão
– FeedForward de 1 camada
– FeedForward de Múltiplas Camadas
– Recorrente (com realimentação)

17
Topologias das Redes
Neurais
• Redes Feed
Feed--Forward
Forward::
– redes de uma ou mais camadas de
processadores, cujo fluxo de dados é
sempre em uma única direção,
direção isto é, não
existe realimentação.
• Redes Recorrentes:
Recorrentes:
– redes com conexões entre processadores da
mesma camada e/ou com processadores das
camadas anteriores (realimentação
realimentação).

Redes Feed-Forward
Redes de uma camada

PE1

PE2

PE3

PEn

18
Redes Feed-Forward
Rede de Múltiplas Camadas
Camada
Camada
Escondida
de Saída
PE1
PE1
PE2
PE2
PE3

PEm
PEn

Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
Input

19
Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o
Input

Redes Recorrentes
Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o

20
Redes Recorrentes
Rede Convergiu para um estado estável

Output
R
e
a
l
i
m
e
n
t
a
ç
ã
o

CONTEÚDO
• Introdução
– Motivação, Objetivo, Definição, Características
Básicas e Histórico
• Conceitos Básicos
– Neurônio Artificial, Modos de Interconexão
• Processamento Neural
– Recall e Learning
• Regras de Aprendizado
– Perceptron, Back Propagation, Competitive
Learning (Mapa de Kohonen).

21
Processamento Neural
O processamento de uma Rede Neural
pode ser dividido em duas fases:
Processo de atualização
dos pesos sinápticos para a
aquisição do conhecimento
- Aquisição da Informação

Processo de cálculo da saída


da rede, dado um certo
padrão de entrada -
Recuperação da Informação

Aprendizado

22
Aprendizado
• Processo pelo qual os parâmetros livres -
pesos sinápticos - de uma rede neural são
adaptados através de um processo contínuo
de estimulação pelo ambiente.

• Existem 4 tipos principais de aprendizado:


þ Treinamento Supervisionado (TS);
þ Treinamento Não-Supervisionado;
þ Treinamento em “Batch”;
þ “Reinforcement Learning”.

Treinamento Supervisionado

A rede é treinada através do fornecimento dos


valores de entrada e de seus respectivos
valores desejados de sa
saíída (“training pair”).

Geralmente efetuado através do processo


de minimização do erro calculado na saída.

23
Treinamento Supervisionado

PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)

VALOR
CÁLCULO DESEJADO
DO ERRO (t)
(e)
e(t,s)

Treinamento Supervisionado

24
Treinamento Supervisionado
FUNÇÕES OBJETIVO: Genérica

• Sum of Squared ErrorsErrors:


ESSE = Σp Σi (tpi - ypi)2
p = padrões
i = elemento processador de saída

Treinamento Não -Supervisionado

“Self-Organization” è Não requer o


valor desejado de saí
saída da rede. O
sistema extrai as características do
conjunto de padrões, agrupando-os em
classes inerentes aos dados.
dados

Aplicado a problemas de Clusterização

25
Treinamento Não -Supervisionado

PADRÃO
DE ENTRADA PESOS SAÍDA
(X) AJUSTÁVEIS (s)
(W)

Treinamento em “ Batch”

Os valores dos pesos sinápticos são


estabelecidos a priori, em um único
passo. Também chamado de
Gravação - “Recording”

26
“Reinforcement Learning”
• Semelhante ao Treinamento Supervisionado
(existe um objetivo);
• NÃO existe um target para cada padrão;
• Existe uma realimentação (sinal de reforço)
que avalia a resposta como boa ou ruim;
• O objetivo é maximizar a quantidade de reforço
positivo è Ex. aprendizado de jogos
.

Recuperação de Dados

27
Recuperação de Dados
Assumindo que um conjunto de padrões
tenha sido armazenado
armazenado, a Rede Neural
pode executar as seguintes tarefas:
– Auto-associação
– Hetero-associação GENERALIZAÇÃO
– Classificação

Recuperação de Dados
Autoassociação::
Autoassociação
A Rede Neural recupera o padrão armazenado
mais semelhante ao padrão de entrada
apresentado. Recuperação de
padrões ruidosos

Padrão de Padrão
entrada correto
distorcido recuperado

28
Recuperação de Dados
Heteroassociação::
Heteroassociação
A Rede Neural armazena a associação entre
um par de padrões. Recuperação de um
padrão diferente do
da entrada.
Padrão de
Padrão
entrada
correto
com ou
recuperado
sem ruído

Recuperação de Dados
Classificação:
A Rede Neural responde com a informação
relativa à classe a qual o padrão de entrada
pertence. Caso especial de Heteroassociação
Ex: Padrões de entrada divididos em 3 classes distintas.

Padrão de Classe 1
entrada Classe 2 Classe 3 - Quadrados
com ou
Classe 3
sem ruído

29
Recuperação de Dados

Generalização:
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento .

GENERALIZAÇÃO
A Rede Neural responde corretamente a um
padrão de entrada fora do conjunto de
treinamento . Interpola corretamente os novos
pontos apresentados
f(x)
Interpolação ruim
generalizações Boa interpolação

x1 x2 x3 Xnovo x4 x5 x
x i è pontos do conjunto de treinamento
x novo è novo ponto para generalização

30
Exemplos de Treinamento
Supervisionado

ΠReconhecimento de Caracteres

• Previsão de Séries Temporais

Reconhecimento de
Caracteres

31
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w

w w
I 2 w H2 w O 2

w w

w w
Dados para
Treinamento I 3 w H3 w O 3

w w

Pesos Pesos
Saída
Entrada Escondida

Processo de Aprendizado

w w
Erro = -
w w O 1
I 1 H1

w w

w w
O 2
I 2 w H2 w
w w

w w
Dados para O 3
Treinamento I 3 w H3 w
w w

Pesos Pesos Saída


Entrada Escondida

Atualização dos pesos em função do erro

32
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w

w w
I 2 w H2 w O 2

w w

w w
Dados para
Treinamento I 3 w H3 w O 3

w w

Pesos Pesos
Saída
Entrada Escondida

Processo de Aprendizado

w w
Erro = -
O 1
I 1 w H1 w
w w

w w
O 2
I 2 w H2 w
w w

w w
Dados para O 3
I 3 w H3 w
Treinamento
w w

Pesos Pesos Saída


Entrada Escondida

Atualização dos pesos em função do erro

33
Processo de Aprendizado
Alvo
Atividade
Neural w w
w w
I 1 H1 O 1
w w

w w
I 2 w H2 w O 2

w w

w w
Dados para
Treinamento I 3 w H3 w O 3

w w

Pesos Pesos
Saída
Entrada Escondida

Processo de Generalização

Recuperação da Informação
Aprendida

34
Processo de Generalização
Atividade
Neural w w

w w O 1
I 1 H1

w w

w w
O 2
I 2 w H2 w

w w

w w
O 3
Novo dado I 3 w H3 w
(não apresentado w w
durante o
treinamento)
Pesos Pesos
Saída
Entrada Escondida

Processo de Generalização
Atividade
Neural w w
w w
I 1 H1 O 1
w w

w w
I 2 w H2 w O 2

w w

w w
w
I 3 H3 w O 3
Resposta
w w correta a um
Pesos Pesos
novo padrão!
Saída
Entrada Escondida

35
Previsão de
Séries Temporais

Estrutura da Rede Neural


Série temporal
alvo

janela

Saída Dados de
Entradas Treinamento
da rede = Desejada =
n valores valor da série
passados k passos à
frente

Ex: valor um
Ex: 5 valores passo à frente
passados

36
Processo de Aprendizado
Série temporal
alvo

janela

Dados de
Entradas Treinamento
da rede

Saída da rede:
Valor previsto
um passo à frente

Processo de Aprendizado
Série temporal
alvo

janela

Dados de
Entradas Treinamento
da rede
Ajuste dos pesos
a partir do erro
(Erro= alvo - previsto)

Saída da rede:
Valor previsto
um passo à frente

37
Processo de Aprendizado
Série temporal
alvo
janela

Dados de
Entradas
Treinamento
da rede

Ajuste dos pesos


a partir do erro
(Erro= alvo - previsto)
Saída da rede:
Valor previsto
um passo à frente

Processo de Generalização

Recuperação da Informação
Aprendida

38
Processo de Generalização
Série temporal janela

Dados de
Entradas Treinamento
da rede

Processo de Generalização
Série temporal previsto
janela

Dados de
Entradas Treinamento
da rede
Dados
previstos

Saída da rede:
Valor previsto

39
Processo de Generalização
Série temporal janela previsto

Dados de
Entradas da rede: Treinamento
inclui o(s) valor(es)
previstos pela Rede Dados
previstos

Saída da rede:
Valor previsto

40

Você também pode gostar