Escolar Documentos
Profissional Documentos
Cultura Documentos
Introdução
O que é um modelo de língua?
● Objetivo: Prever um termo dado um
contexto
● Aplicações
○ Autocomplete de Texto
○ Transfer Learning
● Tipos de modelos de língua
○ Probabilísticos
○ Sequências
○ Atenção
Modelos Probabilísticos O Grupo Turing é ……..
É um modelo que visa estimar a Contexto Termo
Problemas:
- Processamento Sequencial
- Perda de informação com textos extensos
- Vanishing Gradients
Modelos de Atenção
Classe de rede neurais poderosa para
modelar sequências paralelamente,
utilizando mecanismos de atenção.
Problema:
- Custo e Tempo de treinamento
Modelos de Atenção
Muitos parâmetros
Exemplo de Transformers: T5 do Google
Podem ser treinados para
executar mais de uma tarefa.
Self Attention
Mecanismos de Atenção
Y Pesos Y-com-pesos
3 2 6
4 1.7 6.8
5 1.5 7.5
6 1 6
5 0.8 4
Self Attention - Introdução
Pesos
● castelo ● avião
● país ● computador
● riqueza ● chinelo
● coroa ● óculos
V1 V2 V3 V4
PESOS
Y1 Y2 Y3 Y4 Versão contextualizada
V1 V2 V3 V4
Y1
Recalculamos todos os vetores em função
de V1!
PESOS
Y1 Y2 Y3 Y4
V1 V2 V3 V4
Y1
Recalculamos todos os vetores em função
de V1!
PESOS
Y1 Y2 Y3 Y4
V1 V1 = S11 W11
normalização
V1 V2 = S12 (soma = 1) W12
V1 V3 = S13 W13 W11V1 + W12V2 + W13V3 + Y1
V1 V4 = S14 W14
W14V4
Y2
Y3
Y4
Keys, values, queries
V1 V1 = S11 W11
normalização
V1 V2 = S12 (soma = 1) W12
V1 V3 = S13 W13 W11V1 + W12V2 + W13V3 + Y1
V1 V4 = S14 W14
W14V4
Y2
V1 V2 V3 V4 Y3
Até agora não temos parâmetros que Y4
Attention são atualizados com o treinamento
Y1 Y2 Y3 Y4
Keys, values, queries
V1 V1 = S11 W11
normalização
V1 V2 = S12 (soma = 1) W12
V1 V3 = S13 W13 W11V1 + W12V2 + W13V3 + Y1
V1 V4 = S14 W14
W14V4
Y2
Values
Query Keys
Y3
Y4
Keys, values, queries
Queries
matmul normalização
V1
Keys
Wi
j
Vn
Values matmul
embeddings
Y1
embeddings contextualizados
Yn
Self Attention
Sij
Queries
matmul normalização
V1
Keys
Wi
j
Vn
Values matmul
embeddings
Y1
embeddings contextualizados
Yn
Multi Head Attention
Multi-Head Attention - Introdução
Vamos ver mais um exemplo. Em relação a “deu”, para quais outras palavras queremos dar atenção?
Mecanismo de
atenção 2
(Queries) Sij
Camada linear
matmul normalização
V1 (Keys)
Camada linear
Wi
j
Vn (Values)
Camada linear matmul
embeddings
h
...
Linear 1
matmul normalização
1
V1 h Wi
...
j
Linear 1 ...
h
Wi
Vn j
h
... matmul
embeddings Linear 1
h camadas lineares paralelas, inicializadas com
pesos aleatórios diferentes
1 h
Multi-head Attention Sij ... Sij
h
...
Linear 1
matmul normalização
1
V1 h Wi
...
j
Linear 1 ...
h
Wi
Vn j
h
... matmul
embeddings Linear 1
1 h
Y1 Y1 Y1
embeddings
concatenação e ...
contextualizados camada densa
Yn Yn Yn
1 h
Multi-head Attention Sij ... Sij
h
...
Linear 1
matmul normalização
1
Wi
V1 h j
... ...
Linear 1 h
Wi
matmul j
Vn
h
... 1 h
1 Yij ... Yij
embeddings Linear