Você está na página 1de 20

REDES NEURAIS

A máquina de Boltzmann
TÓPICOS

1. Neurônios Estocásticos
2. Equilíbrio Térmico
3. A Máquina de Boltzmann
4. Algoritmo de Aprendizagem
5. Limitações da Máquina de
Boltzmann
A REDE DE HOPFIELD
 A REDE DE HOPFIELD SEMPRE TOMA UMA
DECISÃO DETERMINÍSTICA VISANDO REDUZIR
A ENERGIA DA MÁQUINA
• Essa decisão impossibilita escapar de
mínimos locais e encontrar mínimos de
menor energia (global)
 PODEMOS ADICIONAR RUÍDO NO MODELO:
• Podemos iniciar com alto ruído para romper as barreiras
de potencial e escapar de mínimos
• Na sequência, podemos reduzir o ruído gradativamente
com o objetivo de convergir para um mínimo melhor
 ESTE PROCESSO É RECONHECIDO COMO RECOZIMENTO
SIMULADO (SIMULATED ANNEALING)

Fontes: https://towardsdatascience.com/hopfield-networks-neural-memory-machines-4c94be821073
MÍNIMOS LOCAIS

A QUANTIDADE DE RUÍDO PODE SER ASSOCIADA À


TEMPERATURA DO SISTEMA

• Temperatura mais alta – mais ruído

• Temperatura mais baixa – menos ruído

Alterando a
temperatura,
alteramos a
A probabilidade
de mudança de
B estado do
sistema
O NEURÔNIO ESTOCÁSTICO

Relembrando: um neurônio com resposta probabilística


SISTEMAS DINÂMICOS
• O equilíbrio térmico não representa A
que o sistema está fixo em um B
mínimo de energia

• Na prática, o estado de equilíbrio


térmico indica que o sistema
atingiu uma distribuição
estacionária dentro de uma região
de mínima energia

• Os neurônios podem continuar


oscilando neste estado, porém, de
forma reduzida
A MÁQUINA DE BOLTZMANN
H2
H1 H2

• É máquina similar a rede de Hopfield, porém,


com unidades estocásticas V1 V4

V2 V3
• Além dos neurônios visíveis, a máquina
também possui um grupo de neurônios ocultos

• O estado do sistema é definido com base na


energia da rede
A MÁQUINA DE BOLTZMANN

A ENERGIA DA MÁQUINA É DEFINIDA POR:

H2
H1 H2

V1 V4
V2 V3
A MÁQUINA DE BOLTZMANN
H2
H1 H2

• O número de estados pode tornar o cálculo da V1 V4


função de partição proibitivo V2 V3

• Podemos usar Markov Chain Monte Carlo para


mostrar estados da máquina a partir de uma
condição inicial aleatória

• A partir da condição inicial, os neurônios têm


seus estados atualizados de acordo com o seu
gap de energia
A MÁQUINA DE BOLTZMANN

 OS NEURÔNIOS H2
H1 H2
• Neurônios visíveis representam os padrões
V1 V4
• Neurônios ocultos são extratores de padrões V2 V3

 A MÁQUINA OPERA EM DUAS FASES


DISTINTAS:
• Fase positiva (presa): neurônios visíveis
permanecem fixos (representando um padrão do
conjunto de treinamento)

• Fase negativa (livre): todos os neurônios operam


livremente
A MÁQUINA DE BOLTZMANN
H2
H1 H2
• A energia da máquina depende dos pesos e dos
estados dos neurônios ocultos e visíveis V1 V4
V2 V3
• O ajuste de pesos tem por objetivo habilitar a
máquina a exibir, na camada visível, exemplos
similares aos existentes no conjunto de dados

• Para isso, precisamos reduzir a energia da


máquina dos estados associados a estes
padrões e aumentar a energia dos demais
estados
TREINAMENTO

O QUE PODEMOS FAZER PARA AUMENTAR A


PROBABILIDADE DOS ESTADOS QUE REPRESENTAM
PADRÕES DO CONJUNTO DE TREINAMENTO?

Gradiente
descendente
TREINAMENTO

Fase
Positiva

Fase
Negativa
TREINAMENTO
TREINAMENTO

 FASE POSITIVA: fixamos os neurônios v e deixamos


os estados de h evoluir, ao atingir o equilíbrio
calculamos as correlações

 FASE NEGATIVA: todos os neurônios operam


livremente até atingir o equilíbrio. Neste momento,
calculamos as correlações
FASES (+) VS (–)

Por que precisamos de ambas as fases?


Energia

(+) (-) Estados


Exemplo Mínimo
COMO USAMOS A MB

• INFERÊNCIA: instancia-se um padrão


disponível na camada visível. Após, a MB evolui
até atingir o equilíbrio térmico. O padrão de
saída é formado na camada visível (saída)

• EXPLICAÇÃO: mantém-se a camada visível fixa


e observa-se o padrão formado nos neurônios
ocultos no equilíbrio térmico

• GERAÇÃO: a partir de um estado inicial


aleatório, a máquina evolui até o equilíbrio
térmico. Após, realiza-se amostragens na
camada visível
QUAL É A LIMITAÇÃO?

• O cálculo das correlações em ambas as fases é


muito custoso computacionalmente

• Precisamos de uma grande quantidade de


passos de atualização de todos os neurônios
da rede para atingir o equilíbrio térmico

• Na prática, a máquina de Boltzmann original


tem pouca aplicação
O QUE VIMOS?

• Relembramos do neurônio estocástico


• Entendemos o conceito de equilíbrio
térmico
• Conhecemos a máquina de Boltzmann
e o seu treinamento
PRÓXIMA AULA

• Aprenderemos sobre a máquina restrita


de Boltzmann e o seu algoritmo de
aprendizagem: Divergência Contrastiva

ATÉ A PRÓXIMA VIDEOAULA

Você também pode gostar