Executando verificação de segurança...
1

Criei Uma Skill Para Devs Economizarem Tokens

Por conta de como os tokenizers funcionam, prompts em inglês tendem a usar menos tokens do que em português. Veja isso no próprio Tokenizer da OpenAI.

Escrever prompts bem estruturados em inglês dá trabalho, então criei essa skill para ajudar com isso e tenho obtido ótimos resultados.

Você escreve em português natural, ela busca brevemente contexto do projeto e gera um prompt em inglês com boas práticas de prompt engineering.

Exemplo:

🇧🇷 "me ajude a implementar tags nas tarefas, precisa funcionar offline, usar localStorage, cores customizáveis, máximo 12 cores."

🇺🇸 Output gerado:

Implement a tag system for tasks with:

Purpose: Categorize tasks with persistent tags across offline/online states

Requirements:
- Tag interface with id, name, color
- Color picker: 12 predefined swatches
- All data persists to localStorage
- Offline-first: changes sync when connection restored

Constraints:
- Max 12 colors per tag system
- localStorage only (no API calls)
- [URGENT] Needed ASAP

Expected Deliverable: Tag interface, storage adapter, UI component

Instalar:

bunx skills add gpaiva00/pt-en-prompt

Por favor, deixe uma estrela no Github se você curtir o projeto!

Carregando publicação patrocinada...
2

Meus 2 cents,

Hummm, deixa ver se eu entendi: voce criou uma SKILL que gasta tokens para traduzir pt-BR para en para economizar tokens...

A ideia em si nao eh ruim (no sentido de analisar um prompt e tentar otimiza-lo), mas ja que vai gastar tokens analisando, faca uma atividade complementar: otimize o prompt, p.ex. usando tags XML (como <persona>, <task>, etc) para melhorar o desempenho. Analisar os verbos seguindo a Taxonomia de Bloom tambem agregaria assertividade na resposta.

Um detalhe - alguns projetos usam este tipo de ideia da seguinte forma:

  • Um modelo menor (local, gratuito ou de baixo custo via openrouter/huggingface) faz a "otimizacao" (en, xml, verbos, etc) do prompt antes de enviar para o modelo flagship (claude, gemini, chatGPT). As vezes tambem atua como "modelo roteador", analisando qual o modelo final deve ser usado para responder.

  • Rodam o prompt contra um "cache semantico" local para ver se o conjunto pergunta/resposta ja nao foi respondido

Eh um pouco mais complexo que uma SKILL, mas da um resultado bem interessante.

Saude e Sucesso !

1

Obrigado pelo comentário! Certamente vou pesquisar mais.

A ideia é usar a skill no effortlow ou com um modelo mais barato mesmo.

Tenho tido bons resultados pois os modelos entendem muito bem o pedido e vão direto ao ponto.