Escolar Documentos
Profissional Documentos
Cultura Documentos
LINGUAGEM NATURAL
1. Modelos Seq2Seq
2. Atenção e Autoatenção
3. Transformers
4. BERT
REDES NEURAIS PROFUNDAS
1. Recordar do Embedding
2. Modelos Seq2Seq e suas limitações
3. O mecanismo de Atenção e Autoatenção
4. As redes Transformers
WORD EMBEDDING
➢ Tradução automática
➢ Geração de resumos
➢ Classificação de textos
➢ etc.
MODELOS SEQ2SEQ
Fonte: https://www.researchgate.net/figure/Seq2seq-LSTM-structure_fig4_347217555
LIMITAÇÕES
Língua portuguesa
• Interdependência e a
importância relativa entre
palavras da sequência
• Aprendizado de relações de
longo alcance
• Paralelizável
TRANSFORMERS
Fonte:
https://arxiv.org/abs/
• Modelo encoder-decoder 2006.10685
• Seq2Seq
• Aplicações:
• Classificação
• Tradução
• Geração de textos
• Processamento de vídeos
• Sequências biológicas
• etc.
ENCODER
• Detalhes de treinamento:
• Utiliza o encoder do transformer
• Self-attention
• Treinado na Wikipédia + corpus de livros
• Dois modelos principais:
• BERT-base: 12 camadas, 768d escondidas,
12 cabeças
• BERT-large: 24 camadas, 1024d
escondidas, 16 cabeças
BERT (Devlin et al. 2018)
• Modelos Seq2Seq
• Atenção e Autoatenção
• Transformers
• BERT
Próxima Videoaula
• Prática: Classificação de Textos
23
Referências
• Curso de Aprendizado Profundo
• Prof. Marcos G. Quiles (UNIFESP)