Escolar Documentos
Profissional Documentos
Cultura Documentos
Fonte: TUNSTALL, Lewis; et al. Natural Language Processing with Transformers: Building Language Applications with Hugging Face. 2022.
Arquitetura Seq2Seq
• Redes neurais recorrentes são aplicadas frequentemente para
mapear uma sequência de palavras em outra, tarefa utilizada em
sistemas de tradução;
Fonte: TUNSTALL, Lewis; et al. Natural Language Processing with Transformers: Building Language Applications with Hugging Face. 2022.
Arquitetura Seq2Seq
• Um modelo Seq2Seq possui dois componentes chamados
encoder e decoder;
Fonte: JAIN, Shashank M. Introduction to Transformer for NLP: with the Hugging Face Library and Models to Solve Problems. 2022.
Mecanismo de Atenção
• A arquitetura de RNN possui uma característica que cria uma
espécie de gargalo em relação ao vetor produzido: ele precisa
representar o processamento de toda sequência de entrada.
Caso a sequência de entrada seja muito longa, seu início pode
ser comprometido;
Fonte: TUNSTALL, Lewis; et al. Natural Language Processing with Transformers: Building Language Applications with Hugging Face. 2022.
Transfer Learning
Fonte: TUNSTALL, Lewis; et al. Natural Language Processing with Transformers: Building Language Applications with Hugging Face. 2022.
Transformer
Fonte: JAIN, Shashank M. Introduction to Transformer for NLP: with the Hugging Face Library and Models to Solve Problems. 2022.
Encoder – Multi-headed Attention
• O sistema é composto de múltiplos módulos de “self-attention”
que possuem capacidade de capturar diferentes formas de
atenção;
Fonte: JAIN, Shashank M. Introduction to Transformer for NLP: with the Hugging Face Library and Models to Solve Problems. 2022.
Hugging Face
• Hugging Face é uma empresa construída sob o princípio do uso
de software e dados abertos;