Escolar Documentos
Profissional Documentos
Cultura Documentos
Intuição BERT
Intuição BERT
Intuição
BERT - Intuição
O que é BERT?
O que é BERT?
Embeddings
BERT - Intuição
Ideia geral
Transfer learning
Transfer learning:
Transfer learning
- pseudo bidirecional
- porém, utiliza RNNs
Transfer learning
BERT:
Arquitetura BERT
Encoders from Transformer
tokenization embedding
Tokenizador BERT’:
WordPiece tokenizer:
- 30,522 “palavras”
- Lida com uma nova palavra combinando palavras conhecidas
- Ajuda a resolver o problema de palavras que “estão e não estão” no vocabulário
- Cada palavra terá um identificador (ID) único
Transformed inputs (entradas transformadas)
O codificador recebe:
- Embedded words (palavras)
- Indicação sobre a primeira e segunda sentença
- Positional embedding (como no Transformer)
Outputs (saídas)
Pré-treinamento BERT
Pré-treinamento
Duas fases:
- MLM (Masked Language Model) -> vetor
para cada token
- NSP (Next Sentence Prediction) -> um vetor
para classificação
Pré-treinamento
[MSK]
Pré-treinamento