Prompt Engineering na Prática — As 4 Técnicas que Vão Melhorar Suas Respostas com IA
Introdução
"O importante é saber pedir para a IA" — essa frase se popularizou, mas entender como pedir de forma estratégica ainda é raro entre desenvolvedores.
Com o avanço dos Large Language Models (LLMs), dominar técnicas de prompt engineering deixou de ser diferencial e passou a ser essencial. Vamos conhecer 4 abordagens fundamentais que ajudam a estruturar melhor as interações com IA:
- CoT | Chain of Thought
- Self-Consistency
- ToT | Tree of Thought
- SoT | Skeleton of Thought
Técnicas essenciais
🧠 Chain-of-Thought (CoT)
O que é:
Uma técnica que guia o modelo a resolver problemas passo a passo, em vez de gerar a resposta diretamente.
Exemplo clássico:
Pergunta: Se João tem 3 maçãs e compra mais 4, quantas ele tem?
Resposta com CoT: João começa com 3 maçãs. Ele compra mais 4. 3 + 4 = 7. Resposta: 7
Por que funciona:
Ajuda o modelo a "pensar em voz alta", melhorando a precisão em problemas que exigem raciocínio lógico ou matemático.
Resultados:
Pesquisadores (Wei et al., 2022) descobriram que apenas adicionar a frase “Let’s think step by step” no prompt já melhora significativamente o desempenho do modelo.
Esse método, chamado de Chain-of-Thought com zero-shot, faz o modelo raciocinar em etapas, mesmo sem receber exemplos anteriores.
No benchmark GSM8K (conjunto de problemas matemáticos de nível fundamental), a taxa de acertos do modelo:
- Sem a frase: 17,9%
- Com “Let’s think step by step”: 58,1%
Ou seja, a performance mais que triplicou, apenas orientando melhor o modelo com uma instrução simples.
🔁 Self-Consistency
O que é:
Em vez de uma única cadeia de pensamento, o modelo gera múltiplas respostas e escolhe a mais frequente.
Como funciona:
- Gere 5 a 10 respostas com CoT.
- Extraia apenas a resposta final de cada uma.
- Escolha a que mais se repete.
Vantagens:
- Reduz erros ocasionais em uma cadeia mal construída.
- Torna o modelo mais robusto.
Resultados:
- Aumento de acurácia em benchmarks como:
- GSM8K: +17.9%
- SVAMP: +11.0%
- AQuA: +12.2%
🌳 Tree-of-Thought (ToT)
O que é:
Uma evolução do CoT. Em vez de seguir um único caminho linear de raciocínio, o modelo explora várias possibilidades paralelas, como ramos de uma árvore, e avalia qual sequência leva à melhor solução.
Como funciona na prática:
- Defina uma tarefa complexa que pode ter múltiplas abordagens (ex: resolver um puzzle, escrever uma narrativa, planejar uma estratégia).
- Peça ao modelo para gerar múltiplas ideias por etapa, como em:
"Liste 3 abordagens iniciais para resolver esse problema."
- Para cada abordagem, peça os próximos passos:
"Dado o caminho 1, quais seriam os próximos 2 passos possíveis?"
- Avalie os caminhos com base em critérios como lógica, criatividade ou viabilidade.
- Escolha o melhor ramo ou continue expandindo até alcançar uma solução satisfatória.
Esse processo pode ser manual (você mesmo controla os caminhos) ou automatizado com ferramentas como LangChain, que fazem a navegação e escolha entre os ramos.
Ideal para:
- Problemas criativos.
- Jogos de estratégia.
- Planejamentos com múltiplos passos.
Resultados:
- No desafio Game of 24 (um jogo matemático de lógica):
- CoT resolve apenas 4% dos casos
- ToT alcança até 74% de acerto, graças à busca deliberada por caminhos mais promissores
🦴 Skeleton-of-Thought (SOT)
O que é:
Antes de pensar passo a passo, peça ao modelo para organizar a estrutura do raciocínio (o "esqueleto" do pensamento), e só então desenvolver cada parte de forma mais aprofundada.
Como funciona na prática:
- Peça ao modelo para listar os principais tópicos ou etapas antes de elaborar.
- Em seguida, solicite que expanda cada ponto individualmente, mantendo o foco e a estrutura clara.
Exemplo:
Prompt: "Liste as etapas para resolver esse problema em tópicos. Depois, desenvolva cada etapa detalhadamente."
Vantagens:
- Organiza melhor o pensamento.
- Reduz redundâncias e fugas de contexto.
- Ideal para tarefas com múltiplos eixos de raciocínio ou escrita estruturada.
Quando usar:
- Geração de textos técnicos, artigos, planos ou código comentado.
- Problemas longos e ramificados que exigem organização clara antes da execução.
Resultados observados:
- Em aplicações práticas, como geração de textos explicativos ou código modular, o SOT ajuda a manter a coerência lógica e clareza, reduzindo erros de continuidade.
- Testes internos e benchmarks qualitativos (por exemplo, relatados por equipes da Meta e comunidade LangChain) indicam que o uso de SOT melhora a legibilidade e estrutura final de saídas longas em até 30%, especialmente em tarefas como code scaffolding, resumos técnicos e textos com múltiplas seções.
Observação:
Ainda há poucos estudos formais e quantitativos sobre o SOT, mas ele tem ganhado tração entre desenvolvedores e pesquisadores como técnica intermediária entre CoT e ToT.
Comparação entre técnicas
| Técnica | Facilidade de Uso | Precisão / Qualidade | Quando Usar |
|---|---|---|---|
| CoT | Alta | Alta | Raciocínio lógico, tarefas passo a passo |
| Self‑Cons | Média | Muito Alta | Tarefas críticas com resposta única confiável |
| ToT | Baixa | Superior | Puzzles, planejamento, problemas criativos |
| SOT | Alta | Média–Alta | Escrita estruturada, pensamento organizado |
Dicas finais
- Comece usando CoT com frases como “vamos pensar passo a passo”.
- Teste Self-Consistency em tarefas críticas para maior segurança.
- Use ToT em problemas complexos que exigem avaliação de múltiplos caminhos.
- Adote SOT para organizar raciocínios complexos ou gerar conteúdos longos.
Ferramentas úteis:
- LangChain para orquestrar prompts com lógica.
- OpenPrompt para frameworks de prompt engineering.
Conclusão
Dominar técnicas como Chain-of-Thought e suas variantes é como aprender a pensar com a IA. Elas não substituem sua lógica, mas ampliam sua capacidade de orientar o modelo com inteligência.
Se você é desenvolvedor, aprender a guiar a IA é tão importante quanto aprender uma nova linguagem de programação. Afinal, no futuro, provavelmente saber pedir será parte essencial do seu stack.