Como fazer um Prompt Batuta para os modelos de LLM
Fala galera, eu costumo fazer alguns artigos sobre IA no MEdium, talvez faça sentido aqui para vocês, então resolvi trazer um relacionado a criação de Prompts. Meio que já deve estar batido como fazer um bom Prompt para um modelo de Linguagem generativa, e é claro lembrando que você pode perguntar ao próprio ChatGPT, Grok ou outro modelo como fazer um prompt ou melhorá-lo, mas existem algumas nuances que não são tão fáceis de serem percebidas, eu vou estar mostrando alguns truques que você pode fazer para ter um bom prompt. Esse artigo eu escrevi no final de Novembro do Ano passado, sinto que já deve estar meio desatualizado.
É importante em um Prompt alguns fatores:
Como você quer que seja feita a ação
O porquê que você quer que a ação seja feita
E às vezes o resultado que você espera da ação realizada
Parece bobo, mas a diferença de um prompt bacana para um prompt ruim é esse tipo de detalhe.
Por exemplo:
“Escreva um email profissional para meu chefe pedindo home office às sextas”
Nesse exemplo, não temos contexto correto, tamanho do email, qual o tom se é mais sério ou mais leve. Já no exemplo abaixo:
“Preciso escrever um email para meu chefe pedindo home office às sextas. Quero um tom profissional mas amigável, destacando que minha produtividade continua alta e que isso me ajudaria com o equilíbrio vida/trabalho. O email deve ter no máximo 3 parágrafos curtos.”
O segundo prompt vai ser muito mais eficaz, independente do modelo que você está usando, pois você tem o como e o porquê.
Vamos pensar em algo mais complexo agora? Que tal uma API de lista de tarefas?
“Faça uma calculadora em Python”
É um exemplo bem simples, que pode funcionar dependendo do modelo de LLM que você está usando (GPT5 e o Sonnet 4.5 já criam algo legal para você), mas talvez não tenha os detalhes que você precisa.
Essa calculadora precisa de quais botões? É científica? Aqui um exemplo de um Prompt bem mais avançado.
“Crie uma calculadora em Python que:
— Funcione no terminal (CLI)
— Aceite operações: +, -, *, /
— Valide se o usuário digitou números válidos
— Permita fazer várias operações seguidas até o usuário digitar ‘sair’
— Mostre mensagens de erro amigáveis se algo der errado —
Inclua comentários explicando as partes principais do código
Exemplo de uso esperado:
- Digite o primeiro número: 10
- Digite a operação (+, -, *, /): +
- Digite o segundo número: 5
- Resultado: 15
- Deseja continuar? (s/n): “
Percebe como esse exemplo é muito melhor? Se fossemos espelhar no JIRA, uma História precisa ter o Objetivo, Escopo, Critério de Aceite e em boa parte dos casos o BDD e muito mais. Quanto mais claro for seu prompt, melhor ele funciona.
Dito isso, tem alguns “truques” que você pode colocar em seu prompt para ter um resultado melhor.
Chain-of-Thought (CoT) — “Mostre seu raciocínio”
Se você usa bastante LLM’s já deve saber como funciona, mas se você ainda não percebeu, Chain of Thought é uma maneira do LLM demonstrar o que ele está “pensando” na hora.
A Cadeia de Pensamentos (Chain-of-Thought) foi introduzida em 2022 por pesquisadores do Google em um paper que mostrou algo interessante: quando pedimos para o modelo “pensar em voz alta”, ele comete muito menos erros, principalmente em problemas de matemática e lógica. E tem mais: essa técnica funciona MUITO melhor em modelos maiores. Se você está usando um modelo pequeno ou mais antigo, talvez não veja tanta diferença. Mas em modelos como GPT-5, Claude Sonnet, ou Gemini Pro, o resultado é impressionante. É como se o modelo precisasse de “espaço mental” para raciocinar, e os modelos maiores têm mais desse espaço.
Atualmente os modelos já vem com o modo “Thinking” embutido, mas você pode aprimorar seus prompts para que executem isso também. É como se um professor pedisse para você explicar como você multiplica 30 x 10, para entender como seu racicionio funciona. Isso é uma boa forma de alinhar Inteligências Artificiais, mas o mais importante no nosso cenário é que facilita a maneira de como um LLM vai te responder.
Prompt Chaining — “Dividir para conquistar”
Esse aqui parece ser algo bem óbvio, mas que pode passar batido. Prompt Chaining nada mais é que dividir sua tarefas em vários pedaços, onde cada resposta alimenta a próxima pergunta, dessa forma você tem vários pequenos prompts respondendo entre si. É como fazer um bolo — você não joga tudo junto de uma vez (Eu já fiz isso, o resultado não foi um bolo). Primeiro prepara a massa, depois assa, depois faz a cobertura.
Além da analogia do bolo, o Prompt Chaining resolve outro problema prático: o limite de contexto. Sabe quando você está conversando com um LLM e, de repente, ele “esquece” o que você disse lá no início? Isso acontece porque existe um limite de quanto texto (contexto) o modelo consegue “segurar” na memória ao mesmo tempo.
Com o Prompt Chaining, você divide tarefas grandes em pedaços menores, e cada pedaço fica dentro do limite de contexto. É como fazer várias conversas curtas e focadas, em vez de uma conversa gigante onde as coisas se perdem. Exemplo prático: Em vez de pedir “Analise este relatório de 50 páginas e me dê insights”, você divide em: 1. “Resume as páginas 1–10” 2. “Resume as páginas 11–20” 3. [continua…] 4. “Agora, com base nos resumos anteriores, me dê os principais insights”
Mesmo com os modelos com janelas de contexto bem maiores (Gemini com 2 milhões de Tokens ou o GPT 5 com 400 mil), ainda dependendo da sua tarefa, dividir o prompt em vários pedaços ajuda o modelo a funcionar de maneira melhor.
Auto-Revisão — “Seja seu próprio crítico”
Essa é uma estratégia bem interessante. Você pede para a IA antes de te responder revisar o próprio trabalho. Incrivelmente muda muito a resposta dependendo do que você for usar.
Eu preparei (Cof, Cof, Sonnet) um Prompt utilizando as três técnicas para algo simples, como planejar uma viagem, olha só como ficou:
PASSO 1 - CoT:
Vou viajar para Lisboa em dezembro. Vamos pensar passo a passo:
- Qual a melhor época para visitar em dezembro?
- Quantos dias são ideais?
- Quais os pontos turísticos essenciais?
- Qual o budget médio por dia?
PASSO 2 - Chaining: [Após receber resposta do Passo 1]
Com base nessas informações, crie um roteiro dia a dia:
- 5 dias em Lisboa - Budget médio - Incluindo pontos turísticos
- restaurantes + transporte
PASSO 3 - Auto-Revisão: [Após receber o roteiro]
Revise o roteiro que você criou:
- Está muito corrido ou tem tempo livre?
- Os lugares estão geograficamente próximos ou vou perder muito tempo
em transporte? - Falta algum ponto turístico importante?
Ajuste o roteiro com base nessa análise.
Dessa forma, você vai ter uma resposta muito melhor de qualquer LLM. Isso se aplica a qualquer cenário seja um planejamento de viagem, programação, qualquer coisa que seja possível utilizar.
Outras Técnicas que Você Deveria Conhecer
Few-Shot Prompting — “Aprenda pelo exemplo”
Em vez de explicar o que você quer, você mostra exemplos.
Exemplo:
"Classifique o sentimento das frases abaixo como positivo, negativo ou neutro:
Frase: 'Adorei o produto!' → Positivo
Frase: 'Não funcionou como esperado' → Negativo
Frase: 'O produto chegou ontem' → Neutro
Agora classifique: 'Atendimento péssimo, não recomendo'"
O modelo aprende o padrão dos exemplos e aplica na nova frase. Isso também vale para código! Você pode mostrar exemplos de áreas do código e de funções que você utilizou, o modelo entenderá bem melhor o que ele deve fazer. E é mais ou menos dessa forma que um modelo de LLM é treinado, com uma lista (ENORME) de exemplos.
Persona/Role Prompting — “Você é um…”
Você dá um papel para o LLM interpretar, e ele ajusta o tom e profundidade. Por exemplo:
“Você é um nutricionista esportivo com 15 anos de experiência. Explique a importância da proteína pós-treino.”
Funciona porque o modelo tem “conhecimento” sobre como diferentes profissionais falam e pensam.
Disclaimer: Sempre vale a ajuda profissional na maioria dos cenários, não vá tentar usar uma IA que alucina para algo que você não tem conhecimento e fazer besteira hein.
Output Formatting — “Controle o formato”
Você especifica exatamente como quer a resposta: JSON, tabela, bullet points, etc. Exemplo:
“Liste 5 linguagens de programação e suas principais características em formato JSON com as chaves: nome, tipo, dificuldade”
Isso é ESSENCIAL se você está integrando LLMs em aplicações.
Temperatura/Parâmetros — “Controle a criatividade”
Não é exatamente uma técnica de prompt, mas mudar parâmetros como “temperature” muda completamente o resultado:
— Temperatura baixa (0.1–0.3): Respostas mais previsíveis e consistentes
— Temperatura alta (0.7–1.0): Respostas mais criativas e variadas
Use a temperatura baixa para código ou análises técnicas. Use a temperatura alta para brainstorming e conteúdo criativo.
E o Prompt Perfeito?
Não tem! Novas técnicas de Prompt Engineering estão surgindo e cada Prompt ou técnica se encaixa melhor em cada contexto de uso. Eventualmente, os modelos tendem a melhorar ao ponto que algumas técnicas se tornem melhores que as outras ou mesmo se tornem irrelevantes, mas saber como “solicitar” algo a um LLM pode te economizar um bom tempo.
E sim, você pode perguntar para um LLM formatar um prompt para você, mas se você souber como fazer isso, a saída vai ser melhor não? É isso!