Você está na página 1de 59

Engenharia de Prompt com

ChatGPT
Instrutor: Marcelo de Almeida Viana

2023

v2.0
30/11/2023
Engenharia de Prompt com ChatGPT

Conteúdo
Marcelo de Almeida Viana

Revisão
Luciano Henrique Naldi

Editoração
Marcelo de Almeida Viana

Coordenação-Geral
José Augusto de Lima Prestes
Engenharia de Prompt com ChatGPT

Especialista de Projetos na Facti - Fundação de Apoio à Capacitação


em Tecnologia da Informação. Tem experiência na área de
Inteligência Artificial, Engenharia Biomédica, Engenharia Elétrica e
Eletrônica, atuando principalmente nos seguintes temas:
programação de algoritmos de Inteligência Artificial, projetos e
soluções de produtos ou serviços para saúde.

Também atuou como professor universitário e é membro do Comitê


Brasileiro Odonto-Médico-Hospitalar da ABNT/CB-026, relacionado a
projetos de normas técnicas.

Como formação acadêmica é Doutor em Engenharia Elétrica


(UNICAMP, 2019), Especialista em Gerenciamento de Projetos
(SENAC-SP, 2020), Mestre em Engenharia Elétrica (UNICAMP, 2011) e
Engenheiro Elétrico pela PUC-MG (2007).

Acesse aqui o perfil público do instrutor.


Engenharia de Prompt com ChatGPT

SUMÁRIO
1. Introdução 05

2. Inspiração 06

3. Conceitualização 07

3.1. Engenharia de Prompt 07


3.2. Modelo de Linguagem de Grande Escala 11
3.3. Entendendo o ChatGPT e suas funcionalidades 16
3.4. Técnicas de Engenharia de Prompt do ChatGPT 25

4. Consolidação 49

4.1. Estudo de Caso 49


4.2. Infraestrutura necessária para solução do Estudo de Caso 51
4.3. Proposta de solução do Estudo de Caso 56

5. Avaliação 57

Referências 58
Engenharia de Prompt com ChatGPT

1. INTRODUÇÃO
Ao longo deste curso, abordaremos os pontos mais importantes
para compreender o que é a engenharia de prompt, como um conceito
que vem se tornando essencial no campo da Inteligência Artificial (IA),
no qual desempenha um papel crucial na interação com modelos de
linguagem, como o GPT-3 e o GPT-4 utilizados pelo ChatGPT.

Esta área envolve a formulação cuidadosa de instruções ou


perguntas para direcionar o comportamento do modelo para obter as
respostas desejadas. A arte da engenharia de prompt reside na
capacidade de criar entradas de texto que sejam claras, precisas e
eficazes em orientar o modelo a produzir saídas relevantes. Isso é
fundamental para tirar o máximo proveito desses modelos em uma
variedade de aplicações, desde geração de texto até a resolução de
problemas complexos.

Uma abordagem eficaz da engenharia de prompt leva em


consideração a compreensão do modelo, suas limitações e as nuances
da linguagem. Ela exige a formulação de perguntas ou comandos de
uma forma que forneça contexto suficiente para o modelo entender a
tarefa e evitar ambiguidades. Além disso, a engenharia de prompt pode
ser utilizada para mitigar vieses e garantir respostas éticas e imparciais.
À medida que a IA continua a evoluir, a engenharia de prompt
desempenha um papel cada vez mais significativo na interação
homem-máquina, moldando o potencial da IA para resolver problemas
e melhorar nossa compreensão do mundo.

5
Engenharia de Prompt com ChatGPT

2. INSPIRAÇÃO
O que você entende de Inteligência Artificial? E de engenharia de
prompt? Quais são as tendências para o mercado para os próximos
anos?

Antes de iniciarmos a Etapa de Conceitualização do conteúdo,


acesse a aba “Atividades”, seção “Etapa Inspirar”, na plataforma do
Google Classroom para executar as atividades previstas.

Inicie respondendo ao formulário de Apresentação para se


apresentar ao instrutor. Na sequência, acesse a atividade Assista ao
Vídeo de Inspiração para começar a se ambientar ao conteúdo que
será abordado durante o curso e, em seguida, acesse a atividade Sobre
Engenharia de Prompt e Reflexões sobre Engenharia de Prompt
para registrar suas respostas baseadas em seu conhecimento, com
insights e opiniões acerca das questões apresentadas.

Para finalizar esta etapa, você precisará cadastrar, previamente ao


início das aulas online, as ferramentas que utilizaremos no curso, como
na plataforma do ChatGPT, da OpenAI. Você deverá consultar o item 4.2
Infraestrutura para solução do Estudo de Caso deste material e
seguir o tutorial para o cadastro.

6
Engenharia de Prompt com ChatGPT

3. CONCEITUALIZAÇÃO
3.1 Engenharia de Prompt

O termo "engenharia" em engenharia de prompt é usado de forma


metafórica para descrever o processo sistemático, criativo e, às vezes,
complexo de projetar os prompts, que se dá a um modelo de
linguagem. Da mesma forma que a engenharia tradicional envolve a
aplicação de conhecimentos técnicos para construir estruturas ou
sistemas, a engenharia de prompt envolve a aplicação de
conhecimentos sobre como os modelos de linguagem funcionam para
criar prompts que geram os resultados desejados.

Assim como a engenharia convencional requer um entendimento


profundo de princípios científicos e matemáticos, a engenharia de
prompt exige um conhecimento sobre o funcionamento interno dos
modelos de linguagem, como eles realizam o Processamento de
Linguagem Natural (PLN) e como diferentes tipos de prompts podem
influenciar suas respostas. Por esta razão, exige-se um cuidado na
escolha de palavras e estruturas para que o prompt comunique a
intenção com precisão para que se otimize a formulação da melhor
resposta possível de um modelo de linguagem.

Um modelo de linguagem é um tipo de IA que foi treinado para


entender, prever e gerar linguagem humana. Esses modelos são
baseados em técnicas de Aprendizado de Máquina (Machine Learning) e
Aprendizado Profundo (Deep Learning), e são treinados usando grandes
quantidades de texto.
7
Engenharia de Prompt com ChatGPT

O princípio fundamental de um modelo de linguagem é a previsão


de texto, ou seja, dado um fragmento de texto como entrada, o modelo
tenta prever qual palavra ou sequência de palavras que virá a seguir.
Para isso, o modelo aprende padrões de linguagem, como gramática,
uso de palavras, estilo, nuances e até mesmo alguns conhecimentos do
mundo real, a partir dos dados nos quais foi treinado. Os modelos de
linguagem podem ser utilizados para uma grande variedade de tarefas,
incluindo, mas não limitado a (FINGER, 2021):

➔ Geração de texto: podem escrever artigos, histórias, códigos de


programação, poemas, mantendo coerência e relevância ao tópico;
➔ Tradução de linguagem: traduz texto de uma língua para outra;
➔ Sumarização de texto: resumir textos longos em versões mais
curtas, mantendo os pontos principais;
➔ Resposta a perguntas: respondem à perguntas feitas em
linguagem natural, fornecendo informações precisas ou
explicativas;
➔ Assistência virtual: auxiliam em tarefas como agendar reuniões,
responder e-mails e oferecer suporte ao cliente;
➔ Análise de sentimentos: avaliam textos e determinam o
sentimento por trás deles, como positivo, negativo ou neutro.

Um exemplo bem conhecido de modelo de linguagem é a família


de modelos GPT (Generative Pretrained Transformer), desenvolvida pela
OpenAI, incluindo o GPT-2, GPT-3 e a versão mais recente, o GPT-4.
Estes modelos são chamados de "Transformers" devido ao tipo de
arquitetura de rede neural que utilizam, que é muito eficaz em tarefas
de PLN, devido à sua capacidade de lidar com sequências de dados,
como texto, de maneira eficiente e eficaz. Os termos "Generative" (Gera-
8
Engenharia de Prompt com ChatGPT

tivo) e "Pretrained" (Pré-treinado) fazem parte da descrição da classe


dos modelos de linguagem (DSA, 2023b).

Um modelo generativo não apenas gera novos conteúdos, mas


entende, classifica informações ou prevê sequências de dados que não
viu antes. No contexto da linguagem, isso significa que pode compor
texto em prosa, poesia, diálogo, código de programação e até mesmo
emular estilos de escrita específicos. Isso é diferente dos modelos
discriminativos, que são projetados para reconhecer ou diferenciar
entre diferentes tipos de dados, mas não para gerar novos conteúdos
(DSA, 2023b).

Já o pré-treinamento serve para dar ao modelo um entendimento


abrangente da língua, de modo que ele não precisa ser treinado do
zero para cada tarefa específica, ajustando os pesos da rede neural
com base em textos extensos que cobrem uma ampla variedade de
tópicos, gêneros e estilos. Isso torna o modelo muito mais versátil e
pronto para ser adaptado a tarefas específicas por meio de um
processo chamado "fine-tuning" (ajuste fino), em que o modelo é
posteriormente treinado (geralmente por um período mais curto) em
um conjunto de dados mais específico ou para uma tarefa particular.

Diante deste contexto, a engenharia de prompt surgiu como uma


resposta à necessidade de se comunicar efetivamente com modelos de
linguagem e vem se tornando uma técnica fundamental no campo da
IA, desempenhando um papel crucial nesta interação. Ela envolve a
criação estratégica de instruções ou perguntas, chamadas "prompts",
para direcionar o comportamento do modelo em obter respostas
específicas, isto é, são instruções ou estímulos textuais que orientam a
IA sobre o tipo de resposta ou ação que se espera dela.

9
Engenharia de Prompt com ChatGPT

Os prompts são, portanto, a forma de comunicação principal entre o


usuário e a IA e desempenham um papel crucial na determinação de
como o modelo de linguagem responderá. Um prompt pode variar
desde uma simples pergunta até uma instrução complexa que requer
que a IA execute uma série de tarefas ou considere um contexto
extenso antes de responder.

Os engenheiros de prompt devem criar instruções que forneçam


contexto suficiente para que o modelo compreenda a tarefa, mas sem
introduzir ambiguidades. Isso requer um profundo entendimento do
modelo em uso, incluindo suas capacidades e limitações. A escolha das
palavras, o formato da pergunta e a estrutura da instrução
desempenham um papel fundamental na eficácia do prompt. Por
exemplo, ao solicitar uma tradução, um prompt pode ser formulado de
maneira a especificar o idioma de origem e de destino, fornecendo um
contexto claro para o modelo.

À medida que a IA continua a evoluir, a engenharia de prompt se


torna uma habilidade essencial para aproveitar o potencial dos
modelos de linguagem. Ela permite que os usuários controlem o
comportamento do modelo e o direcionam para atender a uma ampla
gama de necessidades. No entanto, a engenharia de prompt não é uma
tarefa simples e requer conhecimento especializado para ser executada
com eficácia. À medida que a IA desempenha um papel cada vez mais
central em nossa sociedade, a capacidade de formular prompts eficazes
se torna uma habilidade valiosa e necessária.

10
Engenharia de Prompt com ChatGPT

3.2 Modelo de Linguagem de


Grande Escala

Os Modelos de Linguagem de Grande Escala (LLMs, do inglês "Large


Language Models") são sistemas de IA projetados para entender, gerar e
interagir com texto humano em um nível avançado. Eles são treinados
em extensos conjuntos de dados compostos por uma vasta gama de
textos, permitindo-lhes capturar uma ampla variedade de nuances
linguísticas, estilos de escrita e informações.

Os LLMs como o GPT-3 ou GPT-4 são enormes em termos de


número de parâmetros. Um parâmetro é um elemento da rede neural
que a máquina aprende a partir de dados, ou seja, é uma parte do
modelo que ajuda a determinar a saída dada à uma entrada específica,
pois indica a complexidade do modelo e sua capacidade potencial de
aprender e generalizar a partir de dados. Com bilhões ou mesmo
trilhões de parâmetros, os LLMs podem armazenar uma quantidade
significativa de informações e aprender padrões complexos. Estas são
estimativas da quantidade de parâmetros para as versões conhecidas
da família GPT:

● GPT (original): a primeira versão do GPT, lançada em junho de


2018, tinha 117 milhões de parâmetros;
● GPT-2: lançado em fevereiro de 2019, o GPT-2 veio em quatro
versões com diferentes quantidades de parâmetros. A maior versão
do GPT-2 tinha 1,5 bilhão de parâmetros;
● GPT-3: lançado em junho de 2020, marcou um grande salto em
tamanho e capacidade, contando com 175 bilhões de parâmetros;

11
Engenharia de Prompt com ChatGPT

● GPT-4: lançado em março de 2023, estima-se, não oficialmente, que


a versão possui cerca de 100 trilhões de parâmetros.

Os parâmetros dos LLMs são treinados usando técnicas de


Aprendizado de Máquina, especificamente o modelo de Aprendizado
Supervisionado, em que é alimentado com grandes quantidades de
texto e as saídas desejadas (DSA, 2023a). Por meio de um processo
iterativo chamado backpropagation, o modelo ajusta seus parâmetros
para minimizar a diferença entre suas previsões e as saídas reais. No
entanto, o GPT pode envolver uma combinação de métodos de
treinamento, conforme os modelos (GUO et al., 2023):

● Aprendizagem Supervisionada (AS) e LLMs

Os LLMs, como o GPT-3, são predominantemente produtos do AS.


Durante o pré-treinamento, o GPT é exposto a um grande conjunto de
dados de texto que inclui pares de entradas (por exemplo, um prompt
de texto) e saídas esperadas (a continuação apropriada do texto). O
modelo aprende a prever a próxima palavra em uma sequência,
tentando corresponder suas previsões às saídas reais nos dados de
treinamento. Este processo é claramente um exemplo de AS, em que o
modelo é "supervisionado" ou guiado para produzir o resultado correto
com base nos exemplos fornecidos e essa técnica foi fundamental para
o desenvolvimento de LLMs, pois permite que eles gerem texto que é
não apenas gramaticalmente correto, mas também contextualmente
relevante.

12
Engenharia de Prompt com ChatGPT

● Aprendizagem Não Supervisionada (ANS)

Embora o termo "não supervisionado" possa ser às vezes


mencionado em discussões sobre modelos de linguagem devido à
maneira como eles aprendem a capturar representações de linguagem
de grandes conjuntos de dados sem anotações específicas de tarefas,
no contexto técnico de Aprendizado de Máquina, o treinamento do GPT
não é um exemplo de aprendizagem não supervisionada, pois ela
envolve encontrar padrões em um conjunto de dados sem rótulos
pré-fornecidos, o que não é o caso do modelo GPT. No entanto,
durante o pré-treinamento, os LLMs podem usar autoencoders para
aprender representações densas de texto sem anotações específicas, o
que ajuda a entender melhor a semântica e a sintaxe da linguagem
humana.

● Aprendizado por Reforço (AR)

Quando se trata de refinar os LLMs para tarefas específicas ou


melhorar suas interações com os usuários, é utilizada a técnica
conhecida como Aprendizado por Reforço com Humanos no Loop
(Reinforcement Learning from Human Feedback - RLHF), que foi usada em
algumas iterações de modelos de linguagem como o GPT-3 para refinar
ainda mais seus comportamentos e permitem que os LLMs ajustem
suas respostas com base nas preferências de feedbacks sobre as saídas
do modelo, sendo ajustado para maximizar o feedback positivo, como
uma forma de AR. No entanto, isso geralmente ocorre após o estágio
inicial da AS.

13
Engenharia de Prompt com ChatGPT

Assim, o campo do Aprendizado de Máquina oferece uma


variedade de métodos que permitem que as máquinas aprendam a
partir de dados a melhorarem suas tarefas ao longo do tempo. Estes
três modelos têm contribuído de maneiras distintas para o avanço dos
LLMs, como o notável GPT-3, que utiliza a arquitetura de rede neural
Transformer, que é singularmente adequada para tarefas de NLP devido
ao seu mecanismo de atenção (BROWN et al., 2020).

O Transformer abandona a recorrência em favor de atenções


globais que processam palavras em paralelo, proporcionando uma
compreensão mais eficaz do contexto em sequências de texto. Esta
arquitetura é não só altamente paralelizável, o que reduz os tempos de
treinamento, mas também é excepcionalmente boa em capturar
dependências de longo alcance no texto, um desafio histórico no NLP,
como encontrado em abordagens anteriores, como as redes neurais
recorrentes (RNNs) e as Long Short-Term Memory Networks (LSTMs).

Outra característica chave dos Transformers é o mecanismo de


self-attention, que permite que o modelo avalie a importância de cada
parte da entrada (por exemplo, palavras em uma frase) em relação a
todas as outras partes. O mecanismo também permite que o modelo
avalie todas as partes da entrada ao mesmo tempo e determine quais
partes são mais relevantes entre si. Isso é especialmente útil para
entender o contexto e a relação entre palavras em uma sentença ou
documento, independentemente da distância entre elas no texto
(BROWN et al., 2020).

Os LLMs são efetivamente construídos em cima e ao redor da


arquitetura Transformer e são, portanto, a base para o GPT e muitos
outros modelos de linguagem de última geração, pois fornece um

14
Engenharia de Prompt com ChatGPT

equilíbrio entre capacidade de generalização e especialização para uma


ampla gama de tarefas de NLP.

3.2.1 Limitações dos LLMs

Os LLMs são marcos notáveis no campo da IA. No entanto, esses


sistemas ainda estão longe da perfeição e enfrentam uma série de
desafios significativos (DSA, 2023a):

➔ Desafios de contextualização e precisão: enquanto os LLMs


podem captar certo contexto para informar suas respostas, eles
nem sempre são precisos. Muitas vezes, podem interpretar mal o
contexto ou fornecer respostas que são inapropriadas ou
incorretas, particularmente quando confrontados com perguntas
que caem fora do domínio de seu treinamento.
➔ Questões de viés e equidade: os LLMs têm potencial para
continuar e até mesmo intensificar os vieses encontrados nos
dados com os quais foram treinados. Isso pode incluir preconceitos
relacionados a gênero, raça, localização geográfica e cultura, bem
como inclinações políticas.
➔ Entendimento de senso comum: o senso comum, embora
intrínseco aos humanos que o adquirem ao longo da vida, é um
conceito esquivo para os LLMs. Eles carecem da experiência
vivencial e só podem simular a compreensão com base nos dados
fornecidos durante o treinamento, o que não substitui uma
verdadeira percepção do mundo.
➔ Interpretabilidade dos modelos: a complexidade e o tamanho
extenso dos LLMs muitas vezes tornam obscuro o processo pelo
qual eles chegam a determinadas conclusões ou respostas.
15
Engenharia de Prompt com ChatGPT

Um LLM reflete a qualidade dos dados que recebe. A precisão não é


garantida e pode não ser uma maneira adequada de expressar essa
restrição. Em essência, os LLMs atingem um nível de desempenho
condizente com a qualidade e a integralidade dos dados de
treinamento fornecidos.

3.3 Entendendo o ChatGPT e suas


funcionalidades

Ao apresentar estes os conceitos, é útil recordar que um chatbot


funciona como um robô de conversação. Na prática, quase todas as
empresas que interagem com clientes ou parceiros recorrem a algum
tipo de chatbot em seu serviço de atendimento. Esta abordagem traz
benefícios como a otimização do tempo e dos recursos,
proporcionando um atendimento direcionado para solucionar
problemas específicos ou fornecer informações detalhadas sobre um
tema particular.

A experiência com chatbots tradicionais (sem IA) revela que eles têm
suas restrições. Frequentemente, se o usuário apresenta uma questão
que desvia do roteiro programado, o chatbot falha em fornecer uma
resposta satisfatória, o que pode gerar frustração e insatisfação no
cliente ou parceiro que procurava assistência (JIMENEZ, 2023).

Nesse contexto, a implementação de um chatbot com IA torna-se


essencial e desafiadora. O ChatGPT, por exemplo, oferece uma
experiência de diálogo similar a um chatbot convencional, mas supera

16
Engenharia de Prompt com ChatGPT

as limitações de um roteiro de atendimento pré-definido, permitindo


uma interação mais fluida e adaptativa (JIMENEZ, 2023).

O ChatGPT é treinado para entender e gerar texto natural,


permitindo que ele participe de conversas, responda perguntas e até
crie conteúdo em diversos formatos. Sua aplicação abrange desde
responder a consultas simples até auxiliar em tarefas mais complexas
como programação, redação criativa e aprendizado de idiomas.

O sucesso e a eficácia do ChatGPT estão enraizados na quantidade


de dados em que foi treinado e na sua capacidade de aprender
padrões de linguagem. No entanto, o modelo não é perfeito e ele pode
gerar respostas imprecisas ou tendenciosas, refletindo limitações nos
dados de treinamento e na compreensão atual da IA sobre contextos
humanos complexos (FERNANDES, 2023).

Para usuários que interagem com o ChatGPT, o entendimento


desses pontos é crucial. Saber como formular perguntas ou instruções
(conhecido como "engenharia de prompt") pode significativamente
influenciar a qualidade das respostas recebidas. Por exemplo,
perguntas claras, específicas e bem estruturadas tendem a resultar em
respostas mais precisas e úteis.

Além disso, é importante para os usuários reconhecer as limitações


dos modelos de linguagem, como o do ChatGPT. Enquanto o modelo
pode fornecer informações úteis e insights, suas respostas devem ser
avaliadas criticamente, especialmente em tópicos complexos ou
sensíveis. O modelo, por exemplo, pode não estar atualizado com as
informações mais recentes ou pode não compreender completamente
nuances culturais ou contextuais.

17
Engenharia de Prompt com ChatGPT

Ao empregar o ChatGPT, é crucial estar ciente das restrições de


caracteres que variam conforme a versão do modelo em uso. Por
exemplo, na versão GPT-3, o limite é de 4.096 tokens, enquanto na
versão GPT-4, esse limite é estendido para 8.192 tokens abrangendo
tanto a entrada quanto a saída de caracteres. Para otimizar a eficácia
do modelo, é essencial formular prompts que sejam concisos e
objetivos. Isso assegura que a resposta gerada seja completa e não
seja abruptamente cortada antes de atingir uma conclusão satisfatória
(JIMENEZ, 2023).

Os "tokens" em modelos como o ChatGPT são uma unidade


fundamental de processamento de texto. Ao contrário da contagem
tradicional de caracteres ou palavras, um token pode representar uma
palavra inteira, uma parte de uma palavra ou mesmo símbolos de
pontuação. Por exemplo, a palavra "incompreensível" pode ser dividida
em vários tokens, como "in", "compreen", "sível", dependendo de como
o modelo foi treinado para segmentar o texto. Portanto, a
compreensão de como os tokens funcionam e como são contados é
vital para usar modelos como o ChatGPT de maneira eficaz, garantindo
uma comunicação clara e recebendo respostas completas e relevantes.
Veja alguns fatores importantes sobre os tokens (JIMENEZ, 2023):

➔ Limites de processamento: devido às restrições computacionais,


os modelos de linguagem como o ChatGPT têm um limite máximo
de tokens que podem processar em uma única solicitação. Isso
afeta o quanto de texto pode ser considerado e gerado de uma vez;
➔ Eficiência do prompt: saber como os tokens são contados ajuda na
formulação de prompts eficientes. Um entendimento claro pode
levar a uma comunicação mais eficaz, garantindo que a informação

18
Engenharia de Prompt com ChatGPT

mais relevante seja incluída sem exceder o limite do modelo.

➔ Qualidade da resposta: quando um prompt é muito longo e


excede o limite de tokens, o modelo pode não conseguir processar
todas as informações ou gerar uma resposta completa. Isso pode
resultar em respostas truncadas ou incompletas;
➔ Adaptação para diferentes versões: como diferentes versões do
modelo têm diferentes limites de tokens, compreender esses limites
pode ajudar os usuários a adaptar seus prompts de acordo com a
versão que estão utilizando;
➔ Variação na granularidade: tokens podem variar em tamanho. Em
inglês, frequentemente correspondem a palavras inteiras, mas em
idiomas com palavras mais longas ou em casos de palavras
complexas em inglês, podem representar partes de palavras. Essa
granularidade afeta a maneira como o modelo processa e gera
linguagem;
➔ Subtokens em diversos idiomas: em idiomas com estruturas
morfológicas complexas, como o turco ou o finlandês, ou em
idiomas que não usam espaços, como o chinês e o japonês, os
subtokens se tornam mais frequentes. Isso influencia como o
modelo lida com diferentes idiomas.
➔ Influência na compreensão do contexto: o número de tokens que
um modelo pode processar simultaneamente (conhecido como
'comprimento do contexto') tem um impacto direto na sua
habilidade de entender e manter o contexto em uma conversa ou
texto;
➔ Limites e desempenho: modelos com capacidade de processar
mais tokens geralmente podem gerar e compreender textos mais

19
Engenharia de Prompt com ChatGPT

longos, o que é crucial para tarefas como resumir documentos


extensos ou manter conversas complexas;
➔ Treinamento e ajuste fino: a forma como os tokens são definidos e
utilizados é um aspecto crucial no treinamento de modelos de
linguagem. O processo de “tokenização” impacta tanto a eficiência
do treinamento quanto a qualidade do modelo final;
➔ Customização de “tokenização”: em aplicações especializadas, a
tokenização pode ser adaptada para melhor atender às
necessidades específicas do domínio. Por exemplo, em contextos
médicos ou técnicos, a “tokenização” pode ser ajustada para lidar
melhor com terminologias específicas;
➔ Considerações de armazenamento e processamento: embora
modelos com maiores limites de tokens possam ser mais
poderosos, eles também requerem mais recursos de computação e
armazenamento, tanto para treinamento quanto para inferência
(geração de respostas);
➔ “Tokenização” como processo preliminar: antes de um texto ser
processado por um modelo de linguagem, ele passa por um
processo de “tokenização”, que é uma etapa essencial para
transformar o texto bruto em uma forma que o modelo pode
entender.

Entender esses aspectos dos tokens ajuda a ter uma visão mais
completa não só de como interagir mais eficientemente com modelos
como o ChatGPT, mas, também, de como esses modelos funcionam e
são treinados. Isso é fundamental para qualquer pessoa que trabalhe
com PLN em um nível técnico ou que busque otimizar o uso de tais
tecnologias.
20
Engenharia de Prompt com ChatGPT

Os tokens, portanto, desempenham um papel central nas


funcionalidades do ChatGPT, agindo como a espinha dorsal para a
interpretação e geração de linguagem. Estas funcionalidades são
possíveis graças a sua base na arquitetura Transformer, que lhe confere
uma compreensão e geração de linguagem natural de alto nível. As
principais funcionalidades do ChatGPT incluem:

➔ Geração de texto: pode criar texto coerente e contextualmente


relevante em vários formatos, incluindo respostas a perguntas,
ensaios, histórias, poemas e até códigos de programação;
➔ Conversação e diálogo: é capaz de conduzir conversas interativas,
respondendo a perguntas e seguindo o fluxo de um diálogo de
maneira natural e fluída;
➔ Resposta a perguntas: pode fornecer respostas informativas e
detalhadas a uma ampla gama de perguntas, abrangendo diversos
tópicos;
➔ Tradução de idiomas: embora não seja sua principal função, o
ChatGPT pode realizar traduções de textos entre vários idiomas;
➔ Sumarização: é capaz de resumir textos longos, destacando os
pontos principais de forma concisa;
➔ Assistência em tarefas: pode auxiliar em tarefas específicas como
programação, oferecendo sugestões de códigos, correções e
explicações;
➔ Geração de conteúdo criativo: pode ser usado para gerar ideias
criativas, como conceitos para histórias, roteiros, marketing e
conteúdo de blogs;
➔ Aprendizado e educação: serve como uma ferramenta de
aprendizado, explicando conceitos complexos e ajudando com
material educacional;
21
Engenharia de Prompt com ChatGPT

➔ Jogos de palavras e atividades lúdicas: capaz de participar de


jogos baseados em linguagem e outras atividades interativas;
➔ Análise de sentimentos: pode avaliar o texto para determinar o
tom emocional, embora esta não seja sua função principal e possa
ser menos precisa do que sistemas especializados.

Apesar dessas funcionalidades, o ChatGPT tem limitações, incluindo


a possibilidade de gerar informações imprecisas, falta de consciência
de eventos atuais (dependendo de quando foi treinado pela última vez)
e a reprodução de vieses presentes em seus dados de treinamento. É
importante abordar as respostas do ChatGPT com um olhar crítico e
considerar sua utilização como uma de várias ferramentas em um
conjunto mais amplo de recursos.

3.3.1 Implicações éticas e responsabilidades

Na engenharia de prompts é fundamental considerar as implicações


éticas e assumir as responsabilidades pelo impacto das interações
produzidas.

É imperativo que os prompts sejam cuidadosamente elaborados


para prevenir a inclusão de viés ou discriminação, considerando tanto a
linguagem empregada quanto as respostas que são geradas. É vital
assegurar que os prompts sejam justos e equânimes, tratando todos os
usuários com igualdade e sem reforçar preconceitos ou estereótipos
(LIMA, 2023). Além disso, é importante estar atento à sensibilidade
cultural e contextual nas interações, garantindo que a comunicação
seja apropriada e respeitosa para com a diversidade dos usuários. Esta

22
Engenharia de Prompt com ChatGPT

abordagem não apenas fomenta uma experiência mais inclusiva e


representativa, mas também reflete uma prática responsável e ética no
uso de tecnologias de IA. Há também outras considerações
importantes que devem ser consideradas ao projetar e utilizar prompts
em tecnologia (LIMA, 2023):

➔ Viés nos dados de treinamento: a qualidade e a natureza dos


dados usados para treinar modelos de linguagem podem
incorporar vieses existentes. Se os dados de treinamento incluem
linguagem ou conceitos discriminatórios, o modelo pode aprender
e perpetuar esses mesmos vieses;
➔ Transparência e accountability: desenvolvedores e usuários dos
modelos devem manter uma postura de transparência e
responsabilidade. Isso significa reconhecer as limitações dos
modelos e estar aberto a feedback, especialmente de comunidades
sub-representadas ou afetadas por vieses;
➔ Monitoramento contínuo: o monitoramento e a revisão contínuos
dos prompts e das respostas do modelo são necessários para
identificar e corrigir vieses, o que é especialmente importante à
medida que o modelo continua aprendendo e se adaptando com
base em novas interações;
➔ Educação e conscientização: promover a educação e a
conscientização sobre vieses em IA entre desenvolvedores,
usuários e partes interessadas é fundamental, incluindo
treinamento em ética de IA e sensibilidade cultural;
➔ Legislação e políticas: estar em conformidade com leis e
regulamentos locais e internacionais relacionados a privacidade,
discriminação e direitos humanos é crucial, o que envolve estar
atento às políticas internas de ética e diversidade da organização.
23
Engenharia de Prompt com ChatGPT

Um outro importante fator ao projetar prompts, é essencial evitar


qualquer intenção de manipular ou persuadir os usuários de forma
subliminar ou explícita. As interações devem ser construídas com base
na transparência e na ética, assegurando que os usuários mantenham
total autonomia sobre suas decisões. Isso envolve evitar técnicas que
possam levar à tomada de decisão coercitiva ou influenciada de forma
oculta. Além disso, é fundamental informar os usuários sobre a
natureza e o funcionamento dos modelos de IA, para que possam
entender melhor as respostas e recomendações geradas, o que inclui
clarificar que, embora o modelo possa fornecer informações ou
sugestões, a decisão final sempre pertence ao usuário, respeitando sua
capacidade de julgamento independente. Ademais, deve-se prestar
atenção especial para não criar dependência tecnológica ou emocional
nos usuários, promovendo um uso consciente e equilibrado da
tecnologia (LIMA, 2023).

Os responsáveis pela criação de prompts no contexto de modelos


de linguagem como o ChatGPT carregam o peso significativo de
assegurar que os resultados produzidos sejam não apenas confiáveis e
precisos, mas, também, úteis e seguros, implicando em uma vigilância
constante e uma ação proativa para monitorar, identificar e corrigir
potenciais erros ou falhas no sistema. Tal responsabilidade estende-se
à prevenção de efeitos adversos que possam impactar negativamente
os usuários, evitando assim consequências indesejadas. Além disso, é
vital implementar mecanismos de feedback que permitam a detecção e
a correção rápida de problemas, bem como a atualização contínua do
sistema para aprimorar sua precisão e confiabilidade (SOUZA, 2023).

Os desenvolvedores devem também estar cientes das implicações

24
Engenharia de Prompt com ChatGPT

éticas e legais associadas à geração de conteúdo por IA, garantindo


que os prompts e as respostas geradas estejam em conformidade com
padrões éticos e regulamentações pertinentes. Isso inclui a
sensibilidade a questões de privacidade, consentimento e uso justo de
dados, assegurando que os direitos e a dignidade dos usuários sejam
sempre respeitados, estabelecendo políticas claras para o uso de dados
pessoais, a fim de garantir que as informações sejam tratadas de
maneira confidencial (SOUZA, 2023).

Compreender e enfrentar as questões éticas e de privacidade é


crucial para maximizar os benefícios e minimizar os riscos associados à
IA. É fundamental que desenvolvedores, provedores de tecnologia,
usuários e reguladores colaborem ativamente para assegurar um uso
responsável e ético da IA. Trabalhando em conjunto, pode-se criar um
ecossistema de IA que não apenas avança tecnologicamente, mas
também respeita e protege os valores humanos fundamentais.

3.4 Técnicas de Engenharia de


Prompt do ChatGPT

Embora o uso do ChatGPT possa parecer simples à primeira vista,


apenas digitando uma pergunta (prompt) e aguardando por uma
resposta, a qualidade das perguntas é crucial. Prompts muito abertos,
imprecisos ou mal otimizados podem levar a respostas genéricas,
pouco úteis ou até mesmo incorretas. Um prompt "fraco" ou genérico
tende a produzir resultados menos específicos e mais padronizados.

25
Engenharia de Prompt com ChatGPT

O prompt funciona como uma linha de comando essencial para


interagir com sistemas de IA, como o ChatGPT. A forma como o prompt
é estruturado é fundamental para assegurar que as solicitações sejam
compreendidas e efetivamente processadas pelos sistemas de IA. Na
composição do prompt, encontramos comandos, argumentos e opções.
O comando define a ação específica que o usuário deseja executar,
enquanto os argumentos fornecem detalhes adicionais necessários
para a execução do comando. Já as opções permitem a personalização
do comportamento do comando, oferecendo flexibilidade adicional na
interação com o sistema de IA (SOUZA, 2023).

Assim, a engenharia de prompt é essencialmente sobre formular


comandos precisos e bem pensados, visando obter respostas mais
acertadas e informativas. A eficácia em receber respostas inteligentes e
úteis do ChatGPT depende integralmente da habilidade do usuário em
elaborar, planejar e enviar prompts bem estruturados ao sistema de
chatbot (JIMENEZ, 2023).

A compreensão da estrutura do prompt é importante porque


permite ao usuário fazer solicitações precisas aos sistemas de IA. Se o
usuário não fornecer os argumentos ou opções apropriados no prompt,
o sistema de IA pode falhar em executar a ação desejada ou pode gerar
resultados que não correspondam às expectativas. Isso ocorre porque
a IA depende de instruções claras e específicas para processar
solicitações de forma eficaz. Além disso, um entendimento profundo da
estrutura do prompt é fundamental para que o usuário possa explorar
todas as funcionalidades oferecidas pelo sistema de IA, melhorando
não apenas a eficiência, mas também a precisão das respostas geradas
(SOUZA, 2023).

26
Engenharia de Prompt com ChatGPT

Compreender a lógica e os parâmetros que guiam a IA permite aos


usuários criar interações mais sofisticadas e adaptadas às suas
necessidades específicas, além de possibilitar a identificação e correção
mais rápidas de possíveis falhas na comunicação. Assim, o
conhecimento detalhado sobre a engenharia de prompt torna-se uma
habilidade valiosa na era da tecnologia avançada, habilitando os
usuários a interagir de maneira mais produtiva e criativa com sistemas
baseados em IA.

Veja a seguir alguns aspectos importantes a serem levados em


conta para otimizar as respostas do ChatGPT (JIMENEZ, 2023):

1. Evite generalidades - seja sempre claro, preciso, direto e


específico ao formular sua pergunta

Ao utilizar qualquer tipo de prompt, é fundamental que seus


comandos sejam claros, objetivos e específicos. A precisão e a riqueza
de detalhes no seu comando influenciam diretamente a qualidade das
respostas geradas. Ao formular seu prompt, inclua detalhes como o
propósito específico da sua solicitação, o público-alvo em questão e
quaisquer limitações ou parâmetros relevantes, como orçamento
disponível ou prazos. Além disso, forneça um contexto claro e
abrangente - explique ao sistema de IA suas expectativas, necessidades
e qualquer informação de fundo que possa ajudar a gerar uma
resposta mais precisa e útil. Essa abordagem detalhada e
contextualizada não apenas melhora a precisão da resposta, mas
também ajuda o sistema de IA a compreender melhor a complexidade
e a nuance da sua solicitação, resultando em uma interação mais
eficiente e produtiva.
27
Engenharia de Prompt com ChatGPT

Imagine um cenário em que você é um desenvolvedor de software


trabalhando em um projeto de aplicativo móvel. Você está
utilizando o ChatGPT para obter assistência sobre aspectos
específicos de programação e melhores práticas. A eficácia das
suas interações com o ChatGPT depende fortemente de como você
formula suas perguntas.

Prompt ruim: "Como programar em Java?"

Problema com o prompt: Esta pergunta é extremamente genérica e


não fornece informações suficientes sobre o que você precisa
especificamente. Programar em Java pode abranger uma vasta gama
de tópicos, desde conceitos básicos até aspectos avançados.

Prompt correto: "Preciso de ajuda para otimizar uma consulta SQL, em


Java, para um aplicativo móvel que lida com um grande volume de
dados. Como posso melhorar a eficiência da minha consulta para
reduzir o tempo de resposta no meu aplicativo?"

Melhoria no prompt: Este prompt é claro e específico. Ele fornece


detalhes sobre o contexto (desenvolvimento de um aplicativo móvel), o
problema específico (otimização de consulta SQL) e o objetivo desejado
(reduzir o tempo de resposta). Isso permite que o ChatGPT forneça
uma resposta focada e útil para a sua questão específica.

28
Engenharia de Prompt com ChatGPT

2. Contextualização - sempre que iniciar um prompt, forneça um


CONTEXTO para orientar a IA

Incorporar um contexto adequado no prompt pode melhorar


significativamente a relevância e precisão das respostas. Isso é
especialmente importante em conversas sequenciais onde cada
interação se baseia na anterior.

O ChatGPT, assim como outros chatbots avançados baseados em IA,


opera com um vasto banco de dados que cobre uma ampla gama de
tópicos em variados contextos. Ao incluir um contexto apropriado em
seu prompt, você facilita para o ChatGPT compreender o propósito
específico da sua pergunta, permitindo que ele direcione suas
respostas de maneira mais precisa e relevante. Isso significa integrar
ao seu pedido informações pertinentes, detalhes especializados ou
aspectos particulares que você deseja explorar. Fornecer um contexto
claro não apenas evita respostas vagas ou genéricas, mas também
ajuda a prevenir mal-entendidos.

Na ausência de um contexto suficiente, o ChatGPT pode acabar


fazendo suposições equivocadas ou produzindo respostas que não
alinham com o que você realmente busca. Portanto, detalhar o cenário,
as condições específicas e as nuances do seu tópico de interesse é
crucial para otimizar a utilidade das respostas fornecidas pelo ChatGPT,
especialmente em consultas complexas ou técnicas.

29
Engenharia de Prompt com ChatGPT

Suponhamos que você seja um profissional de segurança


cibernética buscando aconselhamento do ChatGPT sobre como
reforçar a segurança de uma rede empresarial. Para obter
respostas mais precisas e úteis do ChatGPT, é crucial fornecer um
contexto detalhado na formulação do seu prompt.

Prompt ruim: "Como melhorar a segurança de rede?"

Problema com o prompt: Esta pergunta é muito ampla e não fornece


informações específicas sobre o tipo de rede, os desafios enfrentados
ou as políticas de segurança existentes. Sem esse contexto, a IA pode
fornecer uma resposta genérica que pode não ser totalmente aplicável
à sua situação.

Prompt correto: "Estou trabalhando em um ambiente de rede


corporativa com acesso frequente à Internet e múltiplos endpoints.
Recentemente, enfrentamos tentativas de phishing e ataques DDoS
(Distributed Denial of Service - ataque distribuído de negação de serviço).
Que medidas específicas de segurança posso implementar para
proteger melhor nossa rede contra esses tipos de ameaças?"

Melhoria no prompt: Este prompt fornece um contexto claro - uma


rede corporativa com desafios específicos (phishing e ataques DDoS).
Isso permite que o ChatGPT forneça conselhos mais direcionados e
aplicáveis sobre medidas de segurança específicas para esse tipo de
ambiente e ameaças.

30
Engenharia de Prompt com ChatGPT

3. Evite prompts abertos ou amplos demais

Evite prompts abertos ou demasiadamente amplos, pois estes


podem resultar em diálogos desordenados ou desfocados. Em vez
disso, esforce-se para ser o mais específico possível ao formular seus
prompts, estabelecendo claramente o propósito e o foco da conversa.

Prompts bem definidos e direcionados são cruciais para ajudar o


ChatGPT a compreender a intenção do usuário, possibilitando que ele
forneça respostas precisas e pertinentes. Ao detalhar o contexto, as
expectativas e as necessidades específicas dentro do seu prompt, você
facilita para o sistema de IA identificar a informação mais relevante e
adequada à sua solicitação. Isso não apenas melhora a qualidade da
interação, mas também economiza tempo, evitando a necessidade de
esclarecimentos ou ajustes adicionais.

Portanto, um bom prompt deve ser pensado não apenas em termos


de especificidade, mas também de clareza e relevância, alinhando a sua
pergunta com o objetivo específico da consulta.

31
Engenharia de Prompt com ChatGPT

Imagine agora que você, desenvolvedor, está trabalhando em um


aplicativo móvel que utiliza a realidade aumentada (RA). Você está
usando o ChatGPT para obter orientações específicas sobre a
integração de recursos de RA em seu aplicativo. Para garantir que
você receba as informações mais relevantes e úteis, é essencial
evitar prompts abertos ou demasiadamente amplos.

Prompt ruim: "Como faço um aplicativo?"

Problema com o prompt: Esta pergunta é extremamente ampla e não


especifica o tipo de aplicativo, as funcionalidades desejadas ou o
contexto de desenvolvimento. O ChatGPT pode responder com
informações muito básicas e gerais sobre o desenvolvimento de
aplicativos, que podem não ser úteis para o seu projeto específico.

Prompt correto: "Estou desenvolvendo um aplicativo móvel de RA para


Android que visa a educação em História. Que bibliotecas de RA você
recomendaria para integrar recursos interativos que permitem aos
usuários visualizar reconstruções históricas em 3D em locais reais?"

Melhoria no prompt: Este prompt é específico e direcionado. Ele


fornece informações sobre o tipo de aplicativo (RA para educação em
História), a plataforma (Android) e o tipo de funcionalidade desejada
(visualização de reconstruções históricas em 3D). Isso permite que o
ChatGPT forneça recomendações específicas e úteis que são
diretamente relevantes para o seu projeto.

32
Engenharia de Prompt com ChatGPT

4. Use perguntas de acompanhamento - avalie e faça ajustes


contínuos

Utilize perguntas de acompanhamento de forma estratégica para


encorajar o ChatGPT a fornecer explicações mais detalhadas ou
aprofundar em tópicos específicos. Essas perguntas adicionais podem
ser cruciais para esclarecer dúvidas, explorar aspectos adicionais de um
tópico ou obter informações mais precisas.

Além disso, é vital avaliar constantemente a eficácia dos seus


prompts iniciais e estar preparado para adaptá-los conforme as
respostas que você recebe. Esta abordagem iterativa promove uma
interação mais dinâmica e produtiva com o sistema de IA, permitindo
ajustes finos que refinam a qualidade e relevância das respostas. Por
exemplo, se a resposta inicial do ChatGPT não aborda completamente
sua consulta, uma pergunta de acompanhamento pode direcionar o
foco da conversa para áreas específicas que necessitam de mais
detalhamento. Isso não só melhora a sua compreensão do assunto em
discussão, mas também ajuda a aprimorar suas habilidades de
formulação de prompts, resultando em uma comunicação mais
eficiente e frutífera com a IA.

Adicionalmente, considerar o feedback dos usuários finais pode ser


extremamente benéfico. As opiniões e experiências dos usuários
oferecem insights valiosos, que podem ser usados para refinar ainda
mais os prompts e melhorar a interação global com o sistema. A
incorporação deste feedback ajuda a garantir que o sistema permaneça
relevante, útil e intuitivo para os usuários, contribuindo para uma
experiência mais positiva e eficiente.

33
Engenharia de Prompt com ChatGPT

Imagine que você é um cientista de dados em uma empresa de


tecnologia, trabalhando no desenvolvimento de algoritmos de IA
para análise de grandes conjuntos de dados no setor de varejo.
Você está utilizando o ChatGPT para obter insights sobre técnicas
avançadas de análise de dados e Machine Learning. Para garantir
respostas úteis e precisas do ChatGPT, é essencial não apenas
formular bem os prompts iniciais, mas, também, utilizar perguntas
de acompanhamento para refinar e ajustar as informações
recebidas.

Prompt ruim: "Como faço análise de dados?"

Problema com o prompt: Este prompt é muito genérico e não


especifica o tipo de análise, os dados em questão ou o objetivo da
análise. O ChatGPT pode fornecer uma resposta básica e ampla que
pode não ser útil para sua necessidade específica.

Prompt correto: "Quais são as melhores práticas para aplicar análise


preditiva em grandes conjuntos de dados no setor de varejo?"

Feedback/Acompanhamento: "Baseado na sua resposta, como posso


lidar com o problema de overfitting em modelos preditivos para
previsão de tendências de compra dos consumidores?"

Melhoria no prompt: O prompt inicial é específico, abordando um setor


e um tipo de análise. A pergunta de acompanhamento baseia-se na
resposta inicial para explorar um aspecto técnico específico (overfitting),
proporcionando uma oportunidade para o ChatGPT oferecer
informações mais profundas e detalhadas.
34
Engenharia de Prompt com ChatGPT

5. Uso estratégico de argumentos e opções

A seleção cuidadosa de argumentos e opções é essencial para


maximizar tanto a eficiência quanto a eficácia de um prompt. Isso
envolve escolher palavras-chave relevantes, aplicar filtros apropriados
ou definir parâmetros que direcionam o sistema de IA a fornecer um
tipo específico de resposta que você procura. Complementando, a
escolha do tempo verbal também desempenha um papel crucial: utilize
verbos no presente para questões sobre informações atuais e no
passado para referências históricas. As palavras-chave devem ser
precisas e pertinentes ao tópico, garantindo foco e relevância na
interação.

Para otimizar ainda mais seus prompts, comece a pergunta com um


verbo, seguido dos detalhes necessários, criando um contexto claro e
específico para a situação. Ao usar verbos para indicar comandos, você
está fornecendo direções mais claras ao ChatGPT, o que aumenta a
probabilidade de receber respostas relevantes e úteis para suas
necessidades.

Além disso, um prompt eficaz deve direcionar claramente o usuário


para a ação ou resposta desejada. Utilize instruções explícitas e verbos
de ação específicos para guiar o usuário sobre o que fazer em seguida.
Evite enunciados vagos ou ambíguos que possam resultar em
mal-entendidos ou interpretações errôneas. Isso é especialmente
importante em interfaces de usuário onde a clareza na comunicação
pode impactar significativamente a experiência do usuário e a eficácia
da interação.

35
Engenharia de Prompt com ChatGPT

Você é um gerente de projetos em uma empresa de


desenvolvimento de software, trabalhando em um projeto
complexo que envolve várias tecnologias e metodologias. Você está
utilizando o ChatGPT para obter orientações sobre as melhores
práticas de gerenciamento de projetos em ambientes ágeis. Para
maximizar a eficiência das suas interações com o ChatGPT, é
essencial aplicar um uso estratégico de argumentos e opções nos
seus prompts.

Prompt ruim: "Como gerenciar projetos?"

Problema com o prompt: Este prompt é muito vago e não especifica o


tipo de projeto, a metodologia de gerenciamento ou os desafios
específicos enfrentados. O ChatGPT pode fornecer uma resposta
genérica que pode não ser aplicável ao seu projeto de software.

Prompt correto: "Quais são as estratégias eficazes para gerenciar


projetos de software ágeis que envolvem equipes distribuídas
globalmente, considerando a comunicação e a colaboração entre
diferentes fusos horários?"

Melhoria no prompt: Este prompt é específico e inclui vários


argumentos importantes: o tipo de projeto de software (metodologia
ágil), a configuração da equipe (distribuída globalmente) e os desafios
específicos (comunicação e colaboração entre fusos horários). Isso
permite que o ChatGPT forneça recomendações focadas e relevantes
para o seu cenário específico.

36
Engenharia de Prompt com ChatGPT

6. Uso de tonalidade e temperamento na escrita

O tom e a escolha de palavras na conversa são fundamentais para


manter uma interação tanto respeitosa quanto profissional. É essencial
evitar uma linguagem demasiadamente informal que possa
comprometer a eficácia da comunicação. No uso do ChatGPT, a
aplicação de diferentes temperamentos ou tons na escrita pode afetar
consideravelmente a natureza das respostas e a dinâmica da interação
com o modelo. O temperamento diz respeito ao modo como a
linguagem é utilizada, abrangendo o estilo ou a atitude refletida nas
respostas. Variações no tom de escrita podem ser adaptadas de acordo
com o contexto específico, o propósito da conversa e as preferências
individuais do usuário.

Diversos temperamentos podem ser empregados no ChatGPT,


incluindo, mas não se limitando a, formal, amigável, autoritário,
humorístico e neutro. Cada um desses estilos possui características
únicas, podendo criar atmosferas distintas na conversa, como
contextos profissionais ou acadêmicos podem exigir um tom mais
formal para assegurar seriedade e credibilidade, enquanto situações
mais informais e descontraídas podem se beneficiar de um estilo
amigável para estabelecer uma conexão mais próxima com o usuário.

Além da escolha do temperamento, a tonalidade da escrita também


pode ser ajustada em termos de assertividade, empatia e capacidade
de persuasão. Estes elementos são fundamentais para moldar a
maneira como as informações são apresentadas e podem influenciar
significativamente a reação emocional e a percepção dos usuários em
relação às respostas fornecidas.

37
Engenharia de Prompt com ChatGPT

Você trabalha no suporte técnico de uma empresa de software,


lidando com clientes que têm variados níveis de conhecimento
técnico. Você está utilizando o ChatGPT para gerar respostas a
perguntas frequentes dos clientes. Neste cenário, é vital escolher a
tonalidade e o temperamento adequados na escrita para
comunicar-se de forma eficaz com os diferentes tipos de clientes.

Prompt ruim: "Meu software não funciona. O que devo fazer?"

Problema com o prompt: Este prompt é vago e usa uma linguagem


casual, o que pode não ser adequado para um contexto de suporte
técnico onde precisão e clareza são essenciais. Falta contexto e
detalhes específicos sobre o problema.

Prompt correto: "Sou um usuário iniciante e estou tendo dificuldades


para iniciar o software XYZ após a instalação. Aparece uma mensagem
de erro sobre uma falha de configuração. Qual é o procedimento
recomendado para solucionar esse problema?"

Melhoria no prompt: Este prompt é claro e oferece um contexto


específico, incluindo o nível de conhecimento do usuário (iniciante) e a
natureza exata do problema (mensagem de erro após a instalação). O
tom é formal e educado, adequado para um ambiente de suporte
técnico e a pergunta é direcionada para uma solução específica, o que
facilita uma resposta mais precisa e útil do ChatGPT.

38
Engenharia de Prompt com ChatGPT

7. Assumindo papéis - personagens e especialidades

Ao interagir com o ChatGPT, pode ser muito eficaz indicar que ele
assuma um "papel" específico na descrição do prompt. Ao fornecer um
contexto adicional que sugere uma persona particular, você direciona o
chatbot a adotar características, comportamentos e habilidades típicas
de pessoas em determinadas profissões ou situações. Ao fazer isso,
você não está apenas personalizando a interação, mas também
orientando o chatbot a acessar e aplicar padrões estatísticos e
comportamentais que são comuns a um nicho, grupo ou personalidade
específica na sua base de dados.

Por exemplo, você pode pedir ao ChatGPT para responder como


um professor experiente, um técnico de TI ou um especialista em
saúde, dependendo do contexto da sua pergunta. Ao adotar essas
personas, o ChatGPT pode fornecer respostas que refletem o tipo de
linguagem, o nível de detalhamento e a abordagem que seriam
esperados desses profissionais.

É importante lembrar, no entanto, que o ChatGPT não pode replicar


perfeitamente esses estilos ou o conhecimento profundo de um
especialista real. Embora possa se aproximar desses estilos em termos
de tom e conteúdo quando solicitado, suas respostas são limitadas pela
natureza e pela qualidade dos dados em que foi treinado. Portanto,
embora a personalização do prompt possa melhorar a relevância e o
direcionamento das respostas, é sempre essencial avaliar e
complementar essas informações com conhecimento e insights
humanos.

39
Engenharia de Prompt com ChatGPT

Suponha que você é um consultor de marketing digital buscando


aprimorar suas estratégias para clientes em diferentes setores.
Você decide usar o ChatGPT para obter insights e conselhos
específicos, simulando a interação com especialistas em várias
áreas do marketing digital.

Prompt ruim: "Como posso melhorar o marketing digital?"

Problema com o prompt: Este prompt é extremamente genérico e não


especifica qual aspecto do marketing digital você deseja melhorar. Sem
um foco claro, o ChatGPT pode fornecer uma resposta ampla e pouco
útil.

Prompt correto: "Assuma o papel de um especialista em SEO com foco


em e-commerce. Quais são as três principais estratégias de SEO que
você recomendaria para melhorar o ranking de uma loja online de
telefonia?"

Melhoria no prompt: Ao pedir ao ChatGPT para assumir o papel de um


especialista específico em SEO para e-commerce, o prompt se torna
mais direcionado. Isso encoraja o sistema a fornecer respostas que
refletem o conhecimento e as práticas recomendadas específicas para
otimização de mecanismos de busca no setor de e-commerce de
informática.

40
Engenharia de Prompt com ChatGPT

8. Reaproveite parâmetros da conversa

É essencial manter um registro contínuo das suas interações com o


ChatGPT. Ao compreender e utilizar os comandos de forma efetiva,
você pode aumentar progressivamente a utilidade do chatbot. Em vez
de abordá-lo como uma simples ferramenta de busca, iniciando uma
nova consulta a cada interação, o ideal é manter e desenvolver tópicos
de conversas ao longo do tempo. Cada interação, refinamento de
dados e detalhes adicionados a uma conversa específica enriquecem o
contexto disponível para o chatbot, aprimorando a sua capacidade de
fornecer respostas cada vez mais relevantes e precisas.

É importante compreender que o chatbot se aprimora e "treina"


continuamente. Portanto, ao retomar uma conversa anterior sobre um
tópico já abordado, o ChatGPT pode utilizar as informações
previamente discutidas para fornecer respostas mais precisas e
contextualizadas. Por exemplo, se você treinou o ChatGPT em uma
conversa específica para discutir as características e vantagens de um
produto, essa informação permanece útil para consultas futuras dentro
da mesma conversa.

Se você decidir iniciar uma nova conversa, ao invés de continuar a


anterior, será necessário reabastecer o prompt com o contexto e os
refinamentos de resposta previamente estabelecidos. Isso equivale a
começar do zero, ignorando toda a história e o desenvolvimento de
conversas anteriores. Em tais casos, o chatbot agirá como se fosse a
primeira vez que você está abordando esse assunto, perdendo a
vantagem do contexto acumulado e das nuances já estabelecidas na
conversa anterior.

41
Engenharia de Prompt com ChatGPT

Imagine que você é um desenvolvedor de software trabalhando em


um aplicativo de saúde que rastreia e analisa a dieta e a atividade
física dos usuários. Você está utilizando o ChatGPT para obter
informações sobre integração de dados de saúde, privacidade do
usuário e melhores práticas de UX/UI para aplicativos de saúde.

Prompt ruim: "Como faço um aplicativo?"

Problema com o prompt: Este prompt é extremamente genérico e não


se baseia em interações anteriores. Falta especificidade sobre o tipo de
aplicativo ou as informações que você precisa.

Prompt correto: "Na nossa última conversa, discutimos sobre a


integração de dados de atividade física no aplicativo de saúde. Com
base nisso, quais seriam as melhores práticas para garantir a
privacidade dos dados dos usuários ao implementar essa
funcionalidade?"

Melhoria no prompt: Este prompt é eficaz, pois se baseia em


informações de conversas anteriores, permitindo que o ChatGPT utilize
o contexto já estabelecido para fornecer uma resposta mais
direcionada e profunda. Ao fazer referência a discussões anteriores,
você ajuda o chatbot a entender melhor a continuidade da sua
necessidade e a fornecer informações mais relevantes sobre a
privacidade dos dados em aplicativos de saúde.

42
Engenharia de Prompt com ChatGPT

9. Educação e sensibilidade ética e cultural

A educação dos usuários em como interagir eficientemente com


sistemas de IA é um aspecto crucial, principalmente para aqueles que
são novatos no campo da tecnologia ou que estão se aventurando pela
primeira vez com modelos de linguagem avançados. Esta educação
pode incluir orientações sobre como formular prompts de maneira
eficaz, entendendo a importância de ser específico, claro e
contextualizado nas suas solicitações.

Além da competência técnica, a sensibilidade a questões éticas e


culturais na formulação de prompts é igualmente importante. Isso
envolve escolher palavras e tons que sejam respeitosos e considerados,
evitando linguagem que possa ser ofensiva, insensível ou que perpetue
estereótipos e vieses. A sensibilidade cultural é particularmente vital
em um ambiente globalizado, em que os sistemas de IA podem
interagir com uma ampla gama de usuários de diferentes culturas e
contextos. Prompts que levam em consideração a diversidade cultural e
as normas éticas podem não apenas evitar mal-entendidos, mas
também promover uma interação mais inclusiva e respeitosa.

Uma abordagem bem-sucedida na criação de prompts eficientes


para sistemas de IA requer uma combinação de conhecimento técnico,
consciência ética e sensibilidade cultural. Ao equipar os usuários com
estas ferramentas e conhecimentos, eles estarão mais preparados para
interagir de forma produtiva e responsável com a tecnologia de IA,
maximizando a eficácia das suas interações e promovendo uma
utilização ética e respeitosa da IA.

43
Engenharia de Prompt com ChatGPT

Você está trabalhando em uma empresa de desenvolvimento de


software que cria aplicativos voltados para um público
internacional. Neste contexto, é crucial compreender as nuances
culturais e éticas de diferentes regiões para garantir que os
aplicativos sejam bem recebidos e respeitosos para com os
usuários de diversas culturas. Utilizar o ChatGPT para obter
informações sobre práticas de desenvolvimento sensíveis a esses
aspectos pode ser uma estratégia eficiente.

Prompt ruim: "Me dê dicas para fazer um app popular."

Problema com o prompt: Este prompt é muito vago e não leva em


conta as diferenças culturais ou étnicas que podem ser fundamentais
para o sucesso do aplicativo em diferentes regiões.

Prompt correto: "Estou desenvolvendo um aplicativo de aprendizado


de idiomas para um público global. Como posso garantir que o design
e o conteúdo do app sejam culturalmente sensíveis e respeitem as
normas éticas de diferentes regiões?"

Melhoria no prompt: Este prompt é específico e mostra uma


preocupação com a sensibilidade cultural e ética. Ao solicitar
informações sobre como tornar um aplicativo de aprendizado de
idiomas respeitoso e apropriado para um público global, o prompt
incentiva o ChatGPT a fornecer respostas focadas em práticas inclusivas
e respeitosas, cruciais para o sucesso em um mercado internacional.

44
Engenharia de Prompt com ChatGPT

10. Compreensão das capacidades do modelo de IA

Um entendimento aprofundado das capacidades e limitações de


um modelo de inteligência artificial, como o ChatGPT, é essencial para
formular prompts que maximizem a eficácia das respostas. Conhecer as
características específicas do modelo pode orientar na criação de
solicitações mais adaptadas às suas potencialidades e restrições.

Um exemplo crítico é o entendimento do limite de tokens do


modelo. Em modelos de linguagem como o ChatGPT, um 'token'
geralmente representa uma palavra ou parte de uma palavra. Saber o
número máximo de tokens que o modelo pode processar de uma vez
influencia diretamente como você deve estruturar seus prompts. Por
exemplo, se o limite de tokens é relativamente baixo, é importante ser
conciso e direto, evitando perguntas longas e excessivamente
complexas que poderiam exceder a capacidade de processamento do
modelo.

Além disso, compreender as capacidades do modelo em termos de


estilos de linguagem, compreensão contextual e habilidades
específicas, como tradução ou geração de conteúdo criativo, pode
ajudar a moldar os prompts de forma a explorar esses recursos de
maneira eficiente. Por exemplo, se um modelo é particularmente forte
em gerar texto criativo, você pode ajustar seus prompts para tirar
proveito dessa habilidade, enquanto para modelos com forte
capacidade de análise de dados, você pode focar em prompts que
exigem interpretação e síntese de informações.

Um entendimento claro das capacidades e limitações do modelo de


IA não só melhora a precisão e relevância das respostas recebidas, mas

45
Engenharia de Prompt com ChatGPT

também, permite uma utilização mais eficiente e criativa da tecnologia,


alinhando expectativas e melhorando a comunicação entre o usuário e
o sistema de IA.

Em resumo, o interagir com sistemas de IA como o ChatGPT, a arte


de criar prompts eficazes é um aspecto chave para uma comunicação
bem-sucedida. Esta habilidade envolve uma série de técnicas
essenciais, começando pela importância de ser específico e claro nas
perguntas. Evitar generalidades e fornecer detalhes concretos
direciona o modelo de IA a gerar respostas mais precisas e alinhadas
com as expectativas do usuário. A contextualização amplia esse
princípio, pois ao incluir informações de fundo relevantes e detalhes do
cenário específico, o usuário capacita o sistema de IA a compreender
melhor a situação, resultando em respostas mais acuradas e
informativas.

A escolha estratégica de argumentos e opções no prompt é crucial.


Esta abordagem permite ao usuário direcionar o modelo para
resultados específicos, sejam eles mais criativos, detalhados ou
técnicos, dependendo das palavras-chave e parâmetros utilizados.
Perguntas de acompanhamento também desempenham um papel
fundamental, pois permitem aprofundar o diálogo, esclarecer dúvidas
ou explorar novos aspectos de um tópico, com base nas respostas
iniciais recebidas.

Uma técnica interessante envolve instruir o ChatGPT a assumir


certos papéis ou personalidades, o que pode ser particularmente útil
para simular estilos de fala ou níveis de conhecimento específicos. Isso,

46
Engenharia de Prompt com ChatGPT

combinado com a prática de manter o contexto de conversas


anteriores, enriquece a interação, permitindo que o modelo utilize
conhecimento acumulado para fornecer informações mais detalhadas
e contextualizadas.

O uso de tonalidade e temperamento na escrita também influencia


significativamente a natureza das respostas. Adaptar o tom de acordo
com o contexto da interação pode tornar as respostas mais
apropriadas e eficazes, seja em um cenário formal ou informal. Desta
forma, ter a clareza na formulação dos prompts é vital para evitar
ambiguidades e mal-entendidos, assegurando respostas mais precisas
e úteis.

Para aprimorar ainda mais a eficácia dos prompts no ChatGPT, é


essencial incorporar uma abordagem educativa e uma sensibilidade
ética e cultural. Compreender e respeitar as nuances culturais e éticas é
crucial, especialmente em um cenário globalizado em que os sistemas
de IA interagem com uma ampla gama de usuários. Ao formular
prompts, é importante considerar e refletir sobre como diferentes
culturas e contextos podem interpretar ou responder a certas frases ou
conceitos. Uma abordagem educativa pode incluir ensinar os usuários
a reconhecer e evitar linguagem ou temas que possam ser sensíveis ou
ofensivos em diferentes culturas, além de encorajá-los a usar uma
linguagem inclusiva e acessível. Isso não apenas promove uma
interação mais respeitosa, como garante que os sistemas de IA sejam
utilizados de maneira responsável e consciente, evitando a propagação
de estereótipos ou preconceitos.

Por fim, ter uma compreensão clara das capacidades do modelo de


IA é fundamental para criar prompts mais eficientes. Conhecer os limi-

47
Engenharia de Prompt com ChatGPT

tes e as potencialidades do modelo, como o número máximo de tokens


que ele pode processar ou as áreas em que ele é mais eficaz, pode
ajudar a formular perguntas que se alinham melhor com suas
capacidades. Por exemplo, se um modelo é particularmente hábil em
processar linguagem natural em um contexto de conversação, os
prompts podem ser adaptados para explorar essa força. Por outro lado,
estar ciente das limitações do modelo, como a falta de acesso a
informações atualizadas ou a compreensão incompleta de contextos
muito específicos, pode ajudar a evitar perguntas que estão além do
escopo de suas capacidades, levando a interações mais produtivas e
satisfatórias.

O sucesso na geração de prompts eficazes para sistemas de IA


como o ChatGPT não depende apenas de uma única técnica, mas sim
da habilidade de combinar diferentes abordagens de forma
harmoniosa e adaptativa. Compreendendo a importância de cada
aspecto - da especificidade e clareza à contextualização e ao uso
estratégico de tonalidade - os usuários podem melhorar
significativamente a qualidade e a relevância das interações com esses
sistemas avançados de IA.

48
Engenharia de Prompt com ChatGPT

4. CONSOLIDAÇÃO
No decorrer desta unidade, apresentaremos o estudo de caso que
será utilizado para compreender um utilizando os conceitos de
engenharia de prompt, aplicado na ferramenta ChatGPT da OpenAI.

4.1 Estudo de caso: melhoria do


sistema de recomendação de
filmes com IA

Você é um desenvolvedor de software na equipe de inovação da


Netflix, responsável por otimizar o sistema de recomendação de filmes
e séries da plataforma. Recentemente, a Netflix implementou um novo
recurso: um chatbot de IA integrado à plataforma para oferecer
sugestões personalizadas aos usuários. No entanto, após alguns meses,
a equipe percebeu que muitos usuários estão insatisfeitos com as
recomendações, relatando que elas não refletem seus interesses e
preferências reais.

Análises iniciais indicam que o chatbot muitas vezes falhado em


entender as nuances das preferências dos usuários, resultando em
sugestões que não se alinham com os gostos pessoais. Parece haver
uma desconexão entre como os usuários expressam suas preferências e
como o chatbot interpreta essas informações.

49
Engenharia de Prompt com ChatGPT

No papel de um aluno de engenharia de prompt, você foi


convidado a colaborar com a equipe da Netflix para resolver esse
problema. Suas tarefas incluem:

1. Análise de interações: use o ChatGPT para entender onde e


como as interações entre os usuários e o chatbot podem estar
falhando. Identifique padrões comuns em prompts ineficazes
ou mal interpretados;
2. Desenvolvimento de prompts eficazes: crie exemplos de
prompts que os usuários da Netflix podem usar para comunicar
suas preferências de forma mais clara e precisa ao chatbot;
3. Estratégia de educação do usuário: desenvolva um guia ou
tutorial para ensinar os usuários da Netflix a interagir de forma
mais efetiva com o chatbot, visando obter melhores
recomendações;
4. Sugestões de melhorias no chatbot: baseado em suas análises,
proponha modificações no algoritmo ou na interface do chatbot
para facilitar uma compreensão mais precisa das preferências
dos usuários;
5. Relatório detalhado: prepare um relatório detalhado com suas
análises, exemplos de prompts eficientes, estratégias educativas
para os usuários e sugestões de melhorias para a equipe da
Netflix.

Este estudo de caso objetiva aprimorar suas habilidades em


engenharia de prompt, aplicadas ao cenário real da Netflix. O foco é
demonstrar como a formulação eficaz de prompts e o entendimento
das capacidades de IA podem aprimorar significativamente a
experiência personalizada dos usuários na plataforma de streaming.

50
Engenharia de Prompt com ChatGPT

4.2 Infraestrutura utilizada para o


estudo de caso
4.2.1 ChatGPT
Como vem sendo abordado, o ChatGPT é uma ferramenta de IA
desenvolvida pela OpenAI, que se destaca por sua habilidade de
entender e gerar linguagem natural de maneira avançada. Baseado na
arquitetura de modelos de linguagem generativos, o GPT-3, que é o
alicerce do ChatGPT, representa um salto qualitativo na forma como as
máquinas compreendem e interagem com os humanos por meio da
linguagem escrita.

Ao se aproximar do ChatGPT, é fascinante considerar que essa


tecnologia é o resultado de um extenso treinamento com uma
quantidade massiva de texto, o que lhe permite realizar tarefas que vão
desde responder perguntas triviais até elaborar ensaios complexos,
redigir código de programação e criar conteúdo diversificado. A
experiência com o ChatGPT é fluida e intuitiva, refletindo anos de
pesquisa e desenvolvimento em PLN e Aprendizado de Máquina.

Para começar a utilizar o ChatGPT e o modelo GPT-3, os usuários


precisam criar uma conta na plataforma da OpenAI. O processo de
cadastro envolve fornecer alguns dados pessoais básicos e aceitar os
termos de uso, que asseguram um compromisso com a ética e a
responsabilidade no uso da IA. Uma vez cadastrado, o usuário tem
acesso às diversas funcionalidades do ChatGPT, podendo começar a
explorar as vastas possibilidades que essa ferramenta oferece.

51
Engenharia de Prompt com ChatGPT

É importante que os usuários entendam os limites e as capacidades


do ChatGPT, bem como as diretrizes de uso seguro e ético, que são
cruciais para garantir que a interação com o modelo seja produtiva e
livre de abusos. Com essa compreensão, o ChatGPT pode se tornar um
recurso valioso em diversos contextos, abrindo novas fronteiras para a
produtividade, criatividade e inovação.

Para você que está iniciando e quer aprender como usar esta
ferramenta, seguem os passos para criar uma conta no ChatGPT:

PASSO 1: acesse o site da OpenAI, pelo link https://openai.com e clique


em “Try ChatGPT”, no canto superior direito da página (Figura ).

Figura . Acessando o site da OpenAI.

Fonte: adaptado de OpenAi.com.

PASSO 2: será preciso realizar o cadastro para acessar o ChatGPT. Caso


não tenha uma conta, clique em “Sign up” para se inscrever (Figura ),
forneça seu e-mail e crie uma senha (de 12 caracteres). Após fornecer
os detalhes de cadastro, como nome, data de nascimento e telefone.

52
Engenharia de Prompt com ChatGPT

A OpenAI enviará uma mensagem SMS com um código numérico em


seu celular, em que deverá abrir e informar o código de verificação para
ativar sua conta. Com o número de telefone verificado, o site fará o
direcionamento para a página principal do ChatGPT.

Figura . Criando o cadastro no site da OpenAI.

Fonte: adaptado de OpenAi.com.

É possível também se inscrever diretamente pela conta Google,


Microsoft ou Apple. Clique na opção em que já possui uma conta e siga
os passos solicitados para a permissão de acesso pela conta. Esta
opção pode ser mais rápida, pois não exige a definição de uma senha
separada.

A criação da conta no ChatGPT pode ter requisitos adicionais


ou diferentes dependendo do tipo de uso que se deseja fazer.
Por exemplo, caso seja necessário utilizar a API do ChatGPT
em um projeto, é necessário fazer uma solicitação de acesso e
seguir os passos adicionais descritos no site do OpenAI.

53
Engenharia de Prompt com ChatGPT

PASSO 3: uma vez logado, será direcionado à uma interface em que


poderá começar a digitar suas perguntas ou comentários em um
campo de texto dedicado (Figura ). Digite a sua mensagem (“Send a
message”) e pressione “Enter” ou clique no botão de envio para o
ChatGPT responder às suas solicitações. Continue digitando suas
perguntas para manter o contexto da conversa, permitindo uma
interação fluida e contínua. Para iniciar uma nova conversa, clique em
“+ New chat” no canto superior esquerdo.

Figura . Ambiente de conversação do ChatGPT.

Fonte: adaptado de OpenAi.com.

A utilização gratuita do ChatGPT é realizada com a versão GPT-3.5,


sendo esta a que será utilizada para as atividades deste curso. A versão
GPT-4 tem um nível de compreensão muito maior, porém, é paga a um
custos de U$ 20,00 (vinte dólares americanos) mensais. Contudo, a
utilização do GPT-3.5 ou GPT-4 marca etapas progressivas no
desenvolvimento dos modelos de linguagem da OpenAI. O GPT-3.5
atua como uma ponte entre o GPT-3 e o GPT-4, com objetivos de
aumentar a velocidade e reduzir os custos operacionais.
54
Engenharia de Prompt com ChatGPT

Uma das suas variantes, o GPT 3.5 Turbo, foi especialmente


ajustada para fins de conversação, mantendo a capacidade de realizar
outras tarefas do modelo GPT 3.5.

Por sua vez, o GPT-4 é uma evolução significativa, apresentando


maior confiabilidade, criatividade e a habilidade de processar
instruções mais complexas. Ele aceita entradas de texto e imagem,
gerando saídas de texto e é notável por seu desempenho a nível
humano em benchmarks profissionais e acadêmicos. Como foi
abordado, o GPT-4 possui um número muito maior de parâmetros,
potencialmente até 1 trilhão, em comparação com os 175 bilhões do
GPT-3, o que lhe confere uma maior precisão e uma melhor
compreensão contextual.

O GPT-4 também é capaz de escrever códigos mais complexos,


resolver problemas mais intrincados e aprender mais rapidamente do
que o GPT-3.5. Enquanto ambos os modelos lidam com desafios de
viés, o GPT-4 têm menos probabilidade de fornecer respostas
tendenciosas ou ofensivas, além de ser menos propenso a criar
respostas naturalmente incorretas.

55
Engenharia de Prompt com ChatGPT

4.3 Proposta de solução do


Estudo de Caso

Agora que estudou as técnicas essenciais para o desenvolvimento


de prompts mais eficazes, chegou a hora de aplicar todo o conteúdo de
forma mais específica.

O registro dos prompts que você desenvolver com o ChatGPT,


acerca das situações apresentadas para solução do estudo de caso,
deverá ser enviado, individualmente, conforme as instruções que serão
passadas no momento síncrono deste curso.

A Etapa Consolidar é composta por:

● Discussão do Estudo de Caso; e


● Envio, por meio de formulário, da Solução do Estudo de Caso.

O formulário estará disponível no Google Sala de Aula desta turma,


na aba Atividades. No próximo capítulo haverá instruções sobre a Etapa
Avaliar, com o propósito de registrar o que é necessário para evidenciar
o seu conhecimento.

LEMBRE-SE: O registro das conclusões do estudo de caso, DEVE SER


ENVIADO INDIVIDUALMENTE.

56
Engenharia de Prompt com ChatGPT

5. AVALIAÇÃO
5.1 Compartilhando Conquistas

Para a finalização do curso, temos um desafio para você.

Agora que você já sabe os principais conceitos da engenharia de


prompt, que tal pensar em uma aplicação prática diferente das que
foram abordadas durante o curso?

Tente explorar ao máximo todos os recursos disponíveis


apresentados durante o curso e conseguirá consolidar todo o
aprendizado.

A Etapa Avaliação será composta por:

● Registro de respostas no Questionário de Avaliação.

O formulário está disponível no Google Sala de Aula desta turma,


na aba Atividades.

57
Engenharia de Prompt com ChatGPT

REFERÊNCIAS
BROWN, T., MANN, B., RYDER, N., SUBBIAH, M., KAPLAN, J.D.,
DHARIWAL, P., NEELAKANTAN, A., SHYAM, P., SASTRY, G., ASKELL, A.,
AGARWAL, S., HERBERT-VOSS, A., KRUEGER, G., HENIGHAN, T., CHILD,
R., RAMESH, A., ZIEGLER, D., WU, J., WINTER, C., HESSE, C., CHEN, M.,
MCCANDLISH, S., RADFORD, A., SUTSKEVER, I., AMODEI, D. Language
Models are Few-Shot Learners. NeurIPS Proceedings, v.33, 2020.

DSA, Data Science Academy. Funcionamento dos LLMs e Machine


Unlearning. 2023a. Disponível em: https://blog.dsacademy.com.br/
funcionamento-dos-llms-e-machine-unlearning. Acesso em: 09
novembro 2023.

DSA, Data Science Academy. Guia Completo Sobre Inteligência


Artificial Generativa. 2023b. Disponível em: https://blog.dsacademy.
com.br/guia-completo-sobre-inteligencia-artificial-generativa. Acesso
em: 09 novembro 2023.

FERNANDES, S. ChatGPT: Descubra como funciona a inteligência


artificial que surpreendeu o mundo. 2023. Disponível em:
https://copybase.com.br/blog/chatgpt. Acesso em: 10 novembro 2023.

FINEGER, M. Inteligência Artificial e os rumos do processamento do


português brasileiro. Inteligência Artificial - Estud. av. 35 (101), 2021.

GUO, Z., JIN, R., LIU, C., HUANG, Y., SHI, D., YU, L., LIU, Y., LI, J., XIONG,
B., XIONG, D. Evaluating Large Language Models: A Comprehensive
Survey. ArXivLabs, 2023. Disponível em: https://arxiv.org/abs/
2310.19736. Acesso em: 09 novembro 2023.

JIMENEZ, A. ChatGPT na Prática - Engenharia de Prompts: Aprenda


praticando com mais de 800 exemplos de modelos de prompts.
eBook. 1ª edição. 225 p. 2023.

LIMA, A. Engenharia de Prompt: O Guia Definitivo para Criar


Interações Inteligentes. eBook. 1ª edição. 60 p. 2023.

SOUZA, E. Engenheiro de Prompt: A profissão do futuro. eBook. 1ª


edição. 2023.
58
Engenharia de Prompt com ChatGPT

INSTITUIÇÃO EXECUTORA

COORDENADORA

INICIATIVA

Este projeto foi apoiado pelo Ministério da Ciência, Tecnologia e Inovação, com recursos da Lei nº 8.248,
de 23 de outubro de 1991, no âmbito do PPI-Softex, coordenado pela Softex e publicado Residência em
TIC 03 (Processo: 01245.010224/2022-33).

Você também pode gostar