Executando verificação de segurança...
1

Meus 2 cents,

Uso vscode + copilot (github) + kilo code (modelos free do openrouter)

Procuro ser o mais cirurgico possivel na interacao - para evitar alucinacoes ou respostas meia-boca.

As vezes comeco uma funcao e digo: "neste ponto do codigo, preciso que esta funcao faca xyz e retorne xpto, monte um esqueleto e sugira melhorias"

As vezes, peco: "analise a funcao xyz e monte um diagrama do que ela faz e indique possiveis problemas"

Ou mesmo: "analise o codigo do arquivo X, e sugira refatoracao usando principios SOLID. Monte um plano passo a passo para melhoria e implementacao". Conforme o que ele sugere (se faz sentido) - peco: "implemente o passo 7" ou algo do genero.

Nao sei se eh o modo mais produtivo - as vezes vejo o que o @Lucasmontano faz com o CLAUDE CLI e fico pasmo. Mas ao mesmo tempo gosto de manter o controle sobre o que esta sendo executado pelo LLM, um pouco de cada vez para ter certeza que nao deixou nenhum "rabo" solto pelo caminho.

Mas nao faco "crie um app que faz isso" - prefiro a atuacao em funcoes especificas, me parece que acaba sendo mais produtivo.

Saude e Sucesso !

Carregando publicação patrocinada...
2

Eu tbm faço dessa forma no dia a dia. Isso me ajuda a sempre ter o contexto do que esta sendo feito, e dificilmente a IA alucina. Foi o equilíbrio que encontrei para ser mais produtivo e ainda ter contexto de tudo o que e gerado, e de toda arquitetura dos sistemas.

1

Curti muito esse jeito mais cirúrgico de interagir, bem alinhado com o que eu também venho praticando. tarefas pequenas, sempre validar antes de deixar implementar, e nunca confiar 100% no que o modelo sugere. Você já chegou a organizar essas interações em algum tipo de memória externa ou prefere manter tudo só no histórico/chat mesmo?

3

Meus 2 cents extendidos,

A resposta eh complexa, mas vamos la:

  • Tenho trabalhado com LLM/RAG para sistemas cooporativos (knowdge management) onde precisa buscar informacao em milhares de documentos e produzir respostas coerentes. Fato: RAG nao eh uma questao de quantidade, mas de relevancia (a chamada "engenharia de contexto")- mesmo com janelas de contexto monstruosas, o LLM tende a produzir respostas menos precisas em alguns casos (eh meio contra-intuitivo).

  • LLM nao eh inteligente, por mais que ele pareca ser. Como ele manipula linguagem muito bem, no melhor estilo Rolando Lero ou politicos profissionais - acabamos achando que por tras da estrutura bem construida tem inteligencia, e spoiler: nao tem.

  • Dito isso, testei diversos sistemas de memoria auxiliar (em markdown e BD, mcp server, camadas de llM supervisora/executora) - sim, funcionam mas as vezes o LLM empaca no meio do caminho.

  • O que me dei melhor eh: trabalho com a janela de contexto limitada apenas ao codigo que preciso.

  • Mas uso o MCP Server context7 para trazer atualizacao especifica de codigo.

  • Mantenho um arquivo com os "contract" (estruturas de dados) e "interfaces" (estrutura de funcoes) mais importantes (se for o caso, as vezes o trabalho de manter nao compensa).

Usando desta forma, tem funcionado (para minha situacao).

Comentario aleatorio: No filme "A Mosca" (1986, disponivel no disneyplus) que tem uma cena no minuto 25:00-27:00 que representa o acho que falta para o LLM sair da infancia: entender o contexto do que esta sendo produzido (contexto aqui eh "sentido" / "conhecimento" e nao apenas "informação").

Saude e Sucesso !

1
1