Executando verificação de segurança...
0

Pitch: Seshat: O Guardião do Conhecimento Ancestral para IA!

🚀 Apresentando o Seshat: O Guardião do Conhecimento Ancestral para IA!

A ideia original não é minha: eu sempre tive problemas para fazer uma busca rápida em muitos projetos que trabalho ao mesmo tempo, e indexar tudo em

.md
ou

.json
era quase inviável pelos custos/limites de tokens.

Recentemente vi um post sobre o projeto Th0th, comecei a testar e achei a fundação muito boa. Como eu já usava o formato TOON de forma básica para reduzir tokens nas respostas das IAs, decidi arregaçar as mangas e fundir os dois em um único motor. O resultado é o Seshat, a evolução rebatizada do motor original de busca semântica para LLMs via MCP (Model Context Protocol).

Como eu gosto de trabalhar em alguns projetos com documentação e código em pt-br (o que é raro, mas acontece), eu sofria com falhas e perdas de contexto nas buscas em inglês. Por isso, acabei melhorando a engine implementando RRF Híbrido com Busca Bilíngue (PT→EN). Também adicionei um pequeno dashboard para facilitar a visualização da operação.

O Seshat resolve a queima excessiva de tokens e a falta de contexto persistente ao analisar repositórios inteiros. Ele é fruto de uma fusão arquitetural incrível de três frentes:

1️⃣ Engine de Vector Store 100% Offline (ex-Th0th): Armazena memórias e fragmenta o código usando SQLite e Modelos Locais (como Ollama/Mistral) sem depender de APIs na nuvem. 2️⃣ Serialização TOON v2.1: Trocamos o clássico JSON por TOON (Token-Oriented Object Notation), o que gerou até 98% de economia de tokens na comunicação das ferramentas do MCP. 3️⃣ RRF Híbrido com Fallback Bilíngue: Fallback inteligente que mescla busca vetorial e FTS5, traduzindo e mapeando jargões ingleses a partir de perguntas naturais em português.

⚡ Números aferidos em ambiente nativo: ✅ Indexação e criação de embeddings para 139 arquivos (639 chunks semânticos) em 14.2 segundos. ✅ Latência interprocessos nas pesquisas do MCP em exatos 14 milissegundos. ✅ Watchdog PowerShell multi-thread auto-responsivo que impede crashes do Node/Bun.

Está operando incrivelmente bem por aqui! O repositório já está aberto e conta com toda a documentação completa. Dê uma olhada no código e deixe uma ⭐️.

Se a comunidade puder dar feedback se funcionou aí também, ou criticar o que ficou ruim, fiquem à vontade. Se encontrarem melhorias, me avisem! Abraço!

👉 Repo: https://github.com/JhonathanWeber/seshat

#OpenSource #AI #MCP #VectorDatabase #RAG #BunJS #Ollama #Desenvolvimento #DEVCommunity

🇺🇸 Versão em Inglês
🚀 Introducing Seshat: The Ancient Knowledge Keeper for AI!

The original idea isn't entirely mine: I’ve always struggled with fast code searching across the many projects I work on, and indexing everything into

.md
or

.json
was almost unfeasible due to token limits and costs.

Recently, I saw a post about the Th0th project. I started testing it and thought its foundation was solid. Since I was already using the TOON format basically to reduce AI token usage, I rolled up my sleeves and decided to merge both into a single engine. The result is Seshat, the rebranded and definitive evolution of that original semantic search engine for LLMs via MCP (Model Context Protocol).

Because I work on some projects holding code/docs in Portuguese (pt-br), I experienced contextdrops and failures during English-based vector searches. To fix this, I improved the engine by implementing Hybrid RRF with Bilingual Search (PT→EN). I also added a neat little dashboard to easily monitor the background operations.

Seshat solves the excessive token burn and the lack of persistent context when analyzing entire repositories. It is the result of an incredible architectural fusion of three fronts:

1️⃣ 100% Offline Vector Store Engine (ex-Th0th): Stores memories and chunks code using SQLite and Local Models (like Ollama/Mistral) without relying on any cloud APIs. 2️⃣ TOON v2.1 Serialization: We swapped classic JSON for TOON (Token-Oriented Object Notation), resulting in up to 98% token savings across MCP tool communications. 3️⃣ Hybrid RRF with Bilingual Fallback: Smart fallback that merges vector search and FTS5, translating and mapping English coding jargon from natural language questions in Portuguese.

⚡ Real-world native benchmarks: ✅ Indexing and generating embeddings for 139 files (639 semantic chunks) in 14.2 seconds. ✅ MCP inter-process search latency running at exactly 14 milliseconds. ✅ Multi-threaded, auto-responsive PowerShell Watchdog preventing Node/Bun crashes.

It is working incredibly well over here! The repository is open and features complete documentation. Take a look at the code and drop a ⭐️.

If the community can test it and give feedback on whether it worked for you — or even criticize what turned out bad — please do. If you find further improvements, let me know! Cheers!

👉 Repo: https://github.com/JhonathanWeber/seshat

[email protected] / +5521995362933

#OpenSource #AI #MCP #VectorDatabase #RAG #BunJS #Ollama #SoftwareEngineering #DEVCommunity

Carregando publicação patrocinada...