Escolar Documentos
Profissional Documentos
Cultura Documentos
REDES AUTÔNOMAS
REDES NÃO-AUTÔNOMAS
Reconhecimento “Aprendendo
de fala redes neurais”
Geração Primeira
de música nota
A informação
pode atingir um
Rede neurônio mais
recorrente de uma vez.
Camada de Memória, ordem
Saída
Entrada Camada temporal
Escondida
REDES RECORRENTES
yt y1 y2 y3 yt
RNN
= RNN1 RNN2 RNN3 RNNT
xt x1 x2 x3 xt
PRINCIPAIS ARQUITETURAS
y1 y1 y2 yt y
a0 a0 … a0 …
x1 x1 x1 x2 xt
Um-para-um Um-para-muitos Muitos-para-um
y1 y2 yt yt yty
a0 … a0 … …
x1 x2 xt x1 xtx
Muitos-para-muitos Muitos-para-muitos
EXEMPLO: SEQUÊNCIA DE PALAVRAS
…
4100
6750 7100
One-Hot-Encoding
EXEMPLO: SEQUÊNCIA DE PALAVRAS
QUESTÃO:
Podemos usar uma rede alimentada
adiante para predizer a próxima palavra
da sequência?
Como fazer isso?
Qual é a limitação?
EXEMPLO: SEQUÊNCIA DE PALAVRAS
QUESTÃO:
Podemos usar uma rede alimentada adiante
para predizer a próxima palavra da sequência?
Resposta curta: SIM
Palavra t Camada de
Saída
Camada
Entrada
Escondida
EXEMPLO: SEQUÊNCIA DE PALAVRAS
Palavra 2
• A memória é limitada a t Palavra t+1
• Excesso de parâmetros
Recordando o Unrolling
yt y1 y2 y3 yt
xt x1 x2 x3 xt
y
y1 y2 y3 yt wy
wa
a
wx
RNN1 RNN2 RNN3 RNNT
x
x1 x2 x3 xt
RETROPROPAGAÇÃO AT
y
wy
wa
LOGO, PARA CALCULAR O GRADIENTE DE UM a
NEURÔNIO, PRECISAMOS CONHECER:
wx
Gradientes dos neurônios da camada x
posterior (no exemplo do neurônio de saída y)
x1 x2 x3 xt
RETROPROPAGAÇÃO AT
y
wy
wa
O processo de atualização é idêntico ao
a
realizado pelo algoritmo de retropropagação
tradicional utilizado na rede MLP wx
x
LIMITAÇÕES DAS RNNS