Escolar Documentos
Profissional Documentos
Cultura Documentos
GPT, Tradução Automática e o Quão Bons Eles São - Uma Avaliação Abrangente - SciELO em Perspectiva
GPT, Tradução Automática e o Quão Bons Eles São - Uma Avaliação Abrangente - SciELO em Perspectiva
GPT, tradução automática e o quão bons eles são: uma avaliação Pesquisa
abrangente
Search
August 14, 2023 16:00 , Leave a Comment , Ernesto Spinak
Tamanho do texto
Por Ernesto Spinak
Introdução A A A
Press Releases
No estudo pertinente, analisa-se o estado da
arte dos tradutores mais avançados e de uso
Imagem: Wikimedia Commons, 1934. Estudo mostra que solicitações de
generalizado, onde se comprova a
privacidade geram maior intenção de
confiabilidade destas ferramentas de apoio à
compra e percepção de benefícios
pesquisa. Publicações recentes no arXiv são usadas como fontes: How Good Are GPT Models at
October 6, 2023 Ana Paula Merenda
Machine Translation? A Comprehensive Evaluation,1 In-context Example Selection for Machine
Richarde
Translation2 e os documentos da Conference of Machine Translation (WMT).3
As narrativas sobre a Independência do
Contexto do experimento Brasil em livros didáticos nacionais
October 5, 2023 Luiz Gustavo Martins da
Os recursos de tradução multilíngue das versões mais recentes do GPT-3.5 e dos sistemas Neural Silva
Machine Translation (NMT) em diferentes domínios temáticos foram comparados.
O lugar da escola no pensamento cívico
de jovens estudantes October 4, 2023
GPT-3.5 é uma versão avançada da arquitetura GPT (Generative Pre-trained Transformer). Esta
Educação em Revista
arquitetura
Este é baseada
site usa cookiesem umagarantir
para rede neural
quechamada Transformer,
você obtenha que utiliza
uma melhor mecanismosde
experiência denavegação. Leia
atenção para processar e gerar nossa
texto. OPolítica
modelo é treinado em grandes
de Privacidade. quantidades
OK de dados Mobilização de domínios do
textuais para aprender padrões linguísticos e contextuais, permitindo gerar respostas consistentes e conhecimento científico em aulas pode
relevantes com base no contexto da conversa. potencializar participação de alunos
October 3, 2023 Ensaio Pesquisa em
As versões usadas foram: GPT3.5 (text-davinci-003, e text-davinci-002), que são diferentes versões Educação em Ciências
do modelo de linguagem GPT desenvolvido por OpenAI com diferentes características.
Ferramentas tecnológicas utilizadas por
Capacidade e tamanho:5 (text-davinci-003) é uma versão mais recente e maior, em comparação professores de Matemática na realidade
com text-davinci-002; capacidade de geração de texto mais avançada e uma maior quantidade pandêmica September 22, 2023
Treinamento: As diferentes versões do modelo GPT são treinadas com distintos conjuntos de
dados e técnicas de aprendizagem. GPT3.5 é treinado com uma grande quantidade de dados Últimos posts
textuais de alta qualidade provenientes da web, o que lhe permite ter um conhecimento mais
atualizado, extenso e integral (a versão do GPT3.5 foi treinada com dados até 2022). Algumas Reflexões sobre SciELO 25
Rendimento e qualidade de resposta:5 (text-davinci-003) é considerada uma versão melhorada Anos
e se espera que gere respostas mais coerentes e precisas.
O South African Journal of Science
Por outro lado, os sistemas Neural Machine Translation (NMT) são enfoques diferentes daqueles (SAJS) e as metas de acessibilidade,
usados pelo GPT para a tradução automática. A seguir, são apresentadas algumas diferenças chave inclusão e mudança
entre eles: Inteligência Artificial e a comunicação da
pesquisa
O GPT-3.5 é treinado com grandes quantidades de dados textuais gerais de vários domínios e não
GPT, tradução automática e o quão bons
se concentra exclusivamente em tradução. Por outro lado, os sistemas NMT são treinados
eles são: uma avaliação abrangente
especificamente em pares de frases em diferentes idiomas para aprender a traduzir de forma mais
precisa e específica. Artigos não citados e a dispersão de
citações na literatura científica
Os sistemas NMT geralmente são mais especializados para tradução automática e são projetados
para otimizar a qualidade da tradução em domínios e pares de idiomas específicos. GPT-3.5, Últimos comentários
embora capaz de realizar traduções, não é especificamente otimizado para tradução automática e
pode ter limitações em termos de terminologia especializada e consistência no contexto científico.
SciELO on Alguns comentários sobre
avaliação por pares e preprints
Os idiomas considerados neste estudo incluem: inglês, francês, alemão, tcheco, islandês, chinês,
[Publicado originalmente no editorial do
japonês, russo, ucraniano e hausa (abrangendo vários alfabetos e continentes).
vol. 118 nas Memórias do Instituto
Oswaldo Cruz]
Existem vários sistemas de tradução de acesso aberto que são amplamente utilizados na
comunidade de tradução automática. Alguns dos principais tradutores de acesso aberto podem ser Marcelo Carvalho-Bastos on É preciso
vistos na nota 4. um corpo para entender o mundo – por
que o ChatGPT e outras IAs de
DeepL utiliza uma arquitetura de redes neurais chamada Redes Neurais Recorrentes Profundas linguagem não sabem o que dizem
(Deep Recurrent Neural Networks, DRNN) para seu sistema de tradução automática. Esta [Publicado originalmente no The
arquitetura está fundamentada em LSTM (Long Short-Term Memory) e demostrou ser eficaz em Conversation em abril/2023]
tarefas de tradução.
Arthur on Alguns comentários sobre
Google Translate utiliza uma arquitetura de tradução automática chamada Google Neural
avaliação por pares e preprints
Machine Translation (GNMT), que é um enfoque baseado em redes neurais para a tradução
[Publicado originalmente no editorial do
automática. Esta arquitetura se baseia na arquitetura Transformer, que é uma rede neural que
vol. 118 nas Memórias do Instituto
utiliza mecanismos de atenção para processar e traduzir texto.
Oswaldo Cruz]
Microsoft oferece um serviço de tradução automática chamado Microsoft Translator. É um
sistema baseado na tecnologia de tradução automática neural (Neural Machine Translation, PAULO BOSCHCOV on SciELO
NMT) e foi desenhado para traduzir texto de maneira eficiente e precisa entre diferentes MarketPlace – plataforma de
idiomas. comercialização de produtos e serviços
OpenNMT é um projeto de código aberto que oferece um marco para a construção e de comunicação científica
treinamento de sistemas de tradução neural. Utiliza arquitetura de redes neurais como LSTM
(Long Short-Term Memory) e Transformer para a tradução automática. José Uibson on É preciso um corpo para
Marian NMT é outro sistema popular de tradução neural de acesso aberto. É baseado na entender o mundo – por que o ChatGPT
arquitetura Transformer e oferece implementações eficientes para a tradução automática. e outras IAs de linguagem não sabem o
que dizem [Publicado originalmente no
Estes são apenas alguns exemplos de tradutores de acesso aberto amplamente utilizados. Cabe The Conversation em abril/2023]
destacar que as arquiteturas mencionadas, como LSTM e Transformer, são utilizadas em muitos
sistemas de tradução neural devido à sua capacidade para capturar relações de longo prazo no texto Tags
e processar eficientemente sequências de palavras. No entanto, cada sistema pode ter
implementações e configurações específicas adaptadas às suas necessidades.
Acesso Aberto
DeepL recebeu reconhecimento por sua qualidade de tradução e foi especialmente elogiado por sua Agência de Fomento à
capacidade para manter a coerência e produzir traduções naturais. Além disso, o sistema de Pesquisa Altmetria Article
tradução do DeepL se beneficiou do treinamento em grandes conjuntos de dados multilingues – 31 Processing Charge - APC
idiomas – para melhorar ainda mais a precisão e a fluidez das traduções. Avaliação da
Este site usa cookies para garantir que você obtenha uma melhor experiência de navegação. Leia
Ciência Avaliação
Google investiu significativamente no desenvolvimento e treinamento de modelos de tradução
nossa Política de Privacidade. OK por pares Avaliação por
automática baseados na arquitetura GNMT. Ademais, foram aplicadas técnicas de aprendizagem Pares Aberta
automática avançadas, como o treinamento com grandes conjuntos de dados e o uso de técnicas de Bibliometria Cidade de São
aumento de dados, para melhorar a qualidade e precisão das traduções geradas por Google
Paulo Ciência Aberta
Translate – que inclui mais de 110 idiomas.
Comunicação
The Conference on Machine Translation (WMT)
Científica Creative
Commons Dados Abertos
A Conference on Machine Translation (WMT) desempenha um papel crucial na avaliação e Disseminação da
comparação da tecnologia de tradução automática. WMT, com cobertura mundial, é um evento anual Informação Divulgação
enfocado na avaliação e no progresso dos sistemas de tradução automática. Científica Eventos Fator
de Impacto Infraestrutura
No âmbito do WMT, são organizados desafios de tradução automática dos quais podem participar Inteligência Artificial
pesquisadores e desenvolvedores de todo o mundo. Estes desafios geralmente incluem conjuntos de Internacionalização Intraestrutura
dados de treinamento e teste, que consistem em pares de sentenças em diferentes idiomas. Os
Livros eletrônicos O
participantes treinam seus modelos de tradução automática usando os dados de treinamento
futuro da avaliação por
fornecidos e, em seguida, avaliam e comparam seus sistemas usando os dados de teste.
pares ORCID Organismo
Internacional Política de
Os dados de teste utilizados na WMT geralmente são coletados e preparados especificamente para Apoio à Comunicação
cada edição do evento. O processo de obtenção dos dados do teste pode variar, dependendo do ano Política de Apoio à
e dos organizadores da conferência, mas aqui estão algumas maneiras comuns de obtê-los: Pesquisa Políticas
Públicas Preprint
Conjuntos de dados públicos: Podem ser utilizados conjuntos de dados públicos disponíveis
Preservação digital
online, como o Europarl Corpus, conjunto de documentos dos debates no Parlamento Europeu
Profissionalização
em vários idiomas. Estes conjuntos de dados são, geralmente, de domínio público e são
Editorial Programa
amplamente utilizados para avaliação de sistemas de tradução automática.
Colaboração com organizações e empresas: WMT com frequência colabora com organizações
SciELO Rede SciELO
e empresas que estão dispostas a proporcionar dados de teste para avaliação de sistemas de Redes Sociais
tradução automática. Estas organizações podem compartilhar dados de diferentes domínios e Reprodutibilidade SciELO
temas para avaliar a qualidade e a utilidade dos sistemas de tradução automática. 15 Anos SciELO 20
Compilação de dados específicos: Em alguns casos, dados podem ser compilados Anos SciELO 25 Anos SciELO
especificamente para avaliação de WMT. Isso pode implicar na compilação de textos de Livros SciELO Livros 10 Anos SciELO
diferentes fontes, como livros, artigos, legendas de vídeos ou sites na internet, em uma Sustentabilidade Via
Uruguai
variedade de idiomas para criar um conjunto diverso de dados para teste. Dourada Via Verde Ética
A nomenclatura utilizada pela WMT para os conjuntos de dados de teste pode variar de uma edição
na Comunicação
para outra. No entanto, frequentemente se segue uma convenção comum para nomear os conjuntos
Científica
de dados. A nomenclatura é explicada na nota 5. Arquivo
Todos os sistemas de tradução, com suas diferentes arquiteturas, utilizam numerosos parâmetros de
configuração e ajustes finos para melhorar a precisão e eficiência da tarefa, que é avaliada de
acordo com métricas internacionais usadas pela WMT. Além destes parâmetros objetivos, são
complementadas por avaliações humanas formada por linguistas especializados.
A seguir, estão relacionadas algumas das métricas de WMT usadas nos artigos analisados:
Na tradução automática, é comum trabalhar com conjuntos de dados paralelos que contém orações
em um idioma de origem e suas traduções em outro idioma. No entanto, o exato alinhamento entre
as palavras do texto original e sua tradução pode ser um processo complexo e desafiante,
especialmente quando existem diferenças estruturais ou gramaticais entre os idiomas.
Comparisons of Unaligned Translation Words: Estas comparações são realizadas para analisar
e avaliar as dificuldades associadas com a falta de correspondência exata entre as palavras de
origem e as palavras traduzidas no processo de tradução automática.
Parallel Data Bias (Viés nos Dados Paralelos) se refere à presença de vieses ou desequilíbrios
nos conjuntos de dados paralelos utilizados para treinar sistemas de tradução automática. Os
conjuntos de dados paralelos contêm orações ou textos no idioma de origem e suas
correspondentes traduções em um idioma de destino.
Viés de seleção de dados: Os conjuntos de dados paralelos com frequência são compilados de
fontes disponíveis, como livros, sites na internet ou documentos específicos. Se a seleção
destes dados não for representativa da diversidade linguística ou dos distintos domínios, é
possível que um viés nos dados paralelos seja introduzido. Isso pode resultar em um enfoque
excessivo em certos temas ou domínios, enquanto outros podem estar subrepresentados.
Viés de alienação: O processo de alienação das orações do idioma de origem com suas
traduções pode introduzir erros e desequilíbrios. Se a alienação não for precisa ou estiver
baseada em suposições errôneas, pode haver diferenças na qualidade e coerência das
Este traduções,
site usa cookies para
o que por sua garantir
vez podeque você
afetar obtenhadouma
a qualidade melhor
modelo experiência
de tradução de navegação. Leia
automática.
nossa
Viés cultural e linguístico: Os Política
conjuntos de Privacidade.
de dados paralelos podem OK
refletir vieses culturais,
linguísticos ou estereótipos presentes na linguagem utilizada nos textos de origem ou nas
traduções.
Conclusões
Foram discutidas as características das traduções GPT vis-à-vis NMT e foram analisados os
aspectos que diferenciam as traduções GPT, enumerando quantitativamente os artefatos de
viés da modelação de linguagem, as características de tradução a través de várias direções de
idioma, e o viés dos dados paralelos.
Foram exploradas as capacidades multilíngues dos modelos GPT além da tradução.
Foi demonstrado que os mecanismos computacionais que operam por trás dos modelos LLM e
NMT produzem artefatos de tradução que podem ser diferenciados e medidos
quantitativamente.
As traduções produzidas por GPT têm mais fluidez, obtendo consistentemente menor
perplexidade. Ao mesmo tempo, os resultados mostram que os sistemas GPT podem produzir
textos altamente fluidos e competitivos, incluindo os domínios científicos.
Do ponto de vista da plataforma SciELO, estas ferramentas testadas de tradução automática no
âmbito científico são muito importantes, pois um dos serviços prestados na interface de consulta,
entre muitos outros, é oferecer a tradução instantânea do artigo a partir do idioma original a qualquer
daqueles disponíveis no tradutor Google mencionado acima.
A análise apresentada confirma que SciELO está oferecendo acesso livre em qualquer idioma da
produção científica com a mais alta qualidade disponível.
Comentários do autor
A elaboração desta nota foi totalmente automática, nenhum ser humano interveio na sua geração. A
menção de um autor pessoal é apenas por questões de ética e responsabilidade editorial.
O humano que assina a nota colabora voluntariamente como ghostwriter (autor fantasma).
GPT, tradução automática e o quão bons eles são: uma avaliação abrangente
Inteligência Artificial e a comunicação da pesquisa
Notas
1. HENDY, A., et al. How Good Are GPT Models at Machine Translation?: A Comprehensive
Evaluation. arXiv [online]. 2023 [viewed 14 August 2023]. https://doi.org/10.48550/arXiv.2302.09210.
Available from: https://arxiv.org/abs/2302.09210v1
2. AGRAWAL, S., et al. In-context Examples Selection for Machine Translation. arXiv [online]. 2022
Este site14usa
[viewed cookies
August 2023].para garantir que você obtenha uma melhor
https://doi.org/10.48550/arXiv.2212.02437. experiência
Available from: de navegação. Leia
https://arxiv.org/abs/2212.02437nossa Política de Privacidade. OK
5. WMT usa uma nomenclatura específica para identificar os documentos modelo que são utilizados
nos testes de tradução automática. A nomenclatura segue o seguinte formato:
[Idioma de origem] – [Idioma de destino]
Exemplo. Caso se trate de documentos de tradução do inglês ao francês, a nomenclatura seria “en-
fr”.
Em geral, os conjuntos de dados de teste de WMT são denominados utilizando uma combinação do
ano da conferência e uma descrição que indica o idioma e tipo dos dados.
Por exemplo, alguns exemplos comuns de nomenclatura para conjuntos de dados de teste de WMT
poderiam ser:
Referências
HENDY, A., et al. How Good Are GPT Models at Machine Translation?: A Comprehensive Evaluation.
arXiv [online]. 2023 [viewed 14 August 2023]. https://doi.org/10.48550/arXiv.2302.09210. Available
from: https://arxiv.org/abs/2302.09210v1
AGRAWAL, S., et al. In-context Examples Selection for Machine Translation. arXiv [online]. 2022
[viewed 14 August 2023]. https://doi.org/10.48550/arXiv.2212.02437. Available from:
https://arxiv.org/abs/2212.02437
Links externos
arXiv: https://arxiv.org
DeepL: https://www.deepl.com/en/translator
MarianNMT: https://marian-nmt.github.io/
OpenNMT: https://opennmt.net/
Este site usa cookies para garantir que você obtenha uma melhor experiência de navegação. Leia
nossa Política de Privacidade. OK
Sobre Ernesto Spinak
Posts relacionados:
O quão efetivos são os mandatos de financiadores para o…
SPINAK, E. GPT, tradução automática e o quão bons eles são: uma avaliação abrangente [online].
SciELO em Perspectiva, 2023 [viewed 09 October 2023]. Available from:
https://blog.scielo.org/blog/2023/08/14/gpt-traducao-automatica-e-o-quao-bons-eles-sao/
Este site
Posted usa cookies
in: Análises paraDisseminação
, Tagged: garantir quedavocê obtenha
Informação, uma melhor
Divulgação experiência
Científica, Inteligência de navegação. Leia
Artificial
nossa Política de Privacidade. OK
Leave a Reply
Your email address will not be published. Required fields are marked *
Name *
Email *
Website
Save my name, email, and website in this browser for the next time I comment.
Post Comment
This site uses Akismet to reduce spam. Learn how your comment data is processed.
← Previous Post
Next Post →
Todo o conteúdo deste site, exceto onde está identificado, está licenciado sob uma Licença de Atribuição Creative Commons.
Os posts são de responsabilidade dos autores e não necessariamente expressam opiniões do Programa SciELO.
Este site usa cookies para garantir que você obtenha uma melhor experiência de navegação. Leia
nossa Política de Privacidade. OK