Pitch: E se seu agente de IA nunca mais esquecesse o contexto do seu projeto?
Já reparou que toda vez que você abre uma nova sessão no Claude Code, Cursor ou Codex, você gasta os primeiros 15 minutos explicando de novo o que o agente já sabia ontem?
Decisão de arquitetura, convenção do time, o motivo daquele workaround estranho no auth.ts — tudo zerado. Na sessão seguinte, lá vai você de novo.
Criei a MOM — Memory Oriented Machine: uma camada de memória persistente pros agentes de IA, acessível via MCP.
O que ela faz:
- Guarda decisões, padrões e fatos do projeto em arquivos de memória versionáveis (.mom/) — git-friendly, zero vendor lock-in
- Funciona em múltiplos runtimes: Claude Code, Codex CLI e Windsurf (outros no radar)
- Recording contínuo via hooks — você não precisa lembrar de "salvar"
- Recall com citação de fonte nas resposta (o agente devolve o ID da memória de origem; se não tem, ele diz que não tem)
- Escopos hierárquicos (user > org > repo) com herança
- Princípio: a MOM lembra, ela não instrui. Ela devolve o que você já sabia, não o que ela acha que você deveria fazer. Isso é o que evita o "agente opinativo que alucina decisão de arquitetura".
Stack atual: Golang + MCP, storage local em arquivos JSON (melhorias planejadas pra essa frente)
Repo: https://github.com/momhq/mom
Estou solo no projeto 🙏 — Soltando múltiplos releases por semana. Feedback de quem convive com essa dor vale ouro. O que falta? O que tá over-engineered? Manda bala nos comentários.
Fonte: https://github.com/momhq/mom