Executando verificação de segurança...
9

Vamos falar sobre system prompts?

Semana passada postei aqui sobre um experimento em que coloquei o ChatGPT pra jogar poker, e muita gente se interessou em como consegui reduzir o tempo de resposta de 33 segundos pra 4 segundos — e usando 200 tokens em vez de 2000.

Boa parte disso veio de um ajuste simples, mas poderoso: refazer completamente o system prompt.

No lugar de um prompt cheio de explicações e instruções verbosas (“você é um assistente que faz XYZ, seu objetivo é...”), eu criei um formato direto, com instruções objetivas, exemplos concretos e uma estrutura clara em JSON. Nada de floreio.

Além disso, troquei o modelo que processava a imagem para um mais leve — que, apesar de ter menos parâmetros, era mais que suficiente pra tarefa (extrair cartas, pot size, ações dos jogadores etc). Isso reduziu bastante o consumo de tokens e acelerou tudo.

Foi tipo limpar a bagunça da mente da IA pra ela focar no que importa.

Depois disso, acabei caindo num rabbit hole de system prompts. E encontrei um repositório bem interessante:

👉 System Prompts and Models of AI Tools

Ele traz uma coletânea de system prompts reais usados em produtos como Cursor, v0.dev, Replit, Manus e vários outros. Alguns vieram de código aberto, outros de engenharia reversa ou vazamentos.

E tem de tudo ali — desde assistentes de código até geradores de UI, agentes com memória e prompts voltados pra segurança.

O mais interessante é perceber um padrão entre esses prompts que realmente funcionam:

São bem objetivos (sem rodeios do tipo “você é um assistente amigável...”)

Usam exemplos e estruturas consistentes (quase sempre com JSON ou YAML)

Limitam a autonomia do modelo — deixando claro quando ele pode tomar decisões ou chamar ferramentas

Isso ajuda a entender como essas ferramentas conseguem manter um comportamento estável mesmo com updates constantes da OpenAI. Enquanto muito projeto quebra a cada nova versão do GPT, essas ferramentas continuam funcionando bem, porque definem muito claramente o papel do modelo dentro do produto.

Se você tá nessa de construir algo com IA, recomendo demais olhar esse repo. Não é sobre copiar prompts, mas entender o pensamento por trás.

Carregando publicação patrocinada...
2

Bem interessante essa sua abordagem.

Esses dias eu criei um bot de discord que consumia a api da hugging face (mais precisamente o deepseek v3)

Antes eu usava Ollama, já usei vllm, localai e até SGLang....

Usando a api da HF, cai no problema de não consegui usar as tools, oque facilitava muito para automação...

A solução pra isso, foi criar a system prompt simulando a tools.

Eu literalmente passei um json idêntico ao parâmetro tools da Ollama e exigi que a Ai responda com este template

TOOL_CALL||{"name":"nome_da_função","args":{"param":"valor"}}||

Conclusão:
Agora eu tenho uma agente essa feature de tools, funcionando incrivelmente igual do Ollama.

Então eu posso dizer que sim, as system prompts são SUPER IMPORTANTE para regrar uma Agente.

A proposito, seu post foi interessante, eu cheguei a ver o post do poker e achei uma ideia super genial kkk está de parabéns, adoraria ver mais projetos como estes.

1

Pô, muito obrigado pelo feedback, foi dahora fazer o projeto do poker! Essas TOOLS são para usar um MCP server? Eu ainda não tinha visto uma abordagem assim, mas eu achei interessante, você podia fazer um post explicando com mais detalhes