Executando verificação de segurança...
6

Pitch: E se seu agente de IA nunca mais esquecesse o contexto do seu projeto?

Já reparou que toda vez que você abre uma nova sessão no Claude Code, Cursor ou Codex, você gasta os primeiros 15 minutos explicando de novo o que o agente já sabia ontem?

Decisão de arquitetura, convenção do time, o motivo daquele workaround estranho no auth.ts — tudo zerado. Na sessão seguinte, lá vai você de novo.

Criei a MOM — Memory Oriented Machine: uma camada de memória persistente pros agentes de IA, acessível via MCP.

O que ela faz:

  • Guarda decisões, padrões e fatos do projeto em arquivos de memória versionáveis (.mom/) — git-friendly, zero vendor lock-in
  • Funciona em múltiplos runtimes: Claude Code, Codex CLI e Windsurf (outros no radar)
  • Recording contínuo via hooks — você não precisa lembrar de "salvar"
  • Recall com citação de fonte nas resposta (o agente devolve o ID da memória de origem; se não tem, ele diz que não tem)
  • Escopos hierárquicos (user > org > repo) com herança
  • Princípio: a MOM lembra, ela não instrui. Ela devolve o que você já sabia, não o que ela acha que você deveria fazer. Isso é o que evita o "agente opinativo que alucina decisão de arquitetura".

Stack atual: Golang + MCP, storage local em arquivos JSON (melhorias planejadas pra essa frente)

Repo: https://github.com/momhq/mom

Estou solo no projeto 🙏 — Soltando múltiplos releases por semana. Feedback de quem convive com essa dor vale ouro. O que falta? O que tá over-engineered? Manda bala nos comentários.

Carregando publicação patrocinada...
1

Meus 2 cents,

Parabens pela iniciativa !

Eh um problema recorrente no trabalho com agentes a questao de memoria de longo prazo: ja existem varias tentativas de solucao, mas ainda eh um campo virgem para ser explorado.

Projeto devidamente starreado e forkeado.

Obrigado por compartilhar !

Post devidamente favoritado via extensão TABNEWS FAVORITOS

Saude e Sucesso !

1