Executando verificação de segurança...
9

LLM Wiki: Como Construir uma Base de Conhecimento Pessoal que Evolui Sozinha

Este post é baseado no artigo de Andrej Karpathy publicado em abril de 2026, onde ele propõe um padrão inovador para gerenciar conhecimento pessoal com o auxílio de LLMs.

O Problema com RAG Tradicional

A maioria das pessoas que usa LLMs com documentos segue o mesmo padrão: você envia arquivos, o modelo recupera fragmentos relevantes e gera uma resposta. É o que chamamos de RAG (Retrieval-Augmented Generation).

Funciona. Mas tem um problema fundamental que Karpathy identifica com precisão:

"Nada é construído. O LLM redescobre conhecimento do zero a cada pergunta."

Toda vez que você faz uma pergunta, o modelo parte da estaca zero. Não há acúmulo. Não há síntese persistente. Não há memória real — apenas recuperação.

A Proposta: Um Wiki Mantido por LLMs

A ideia central do LLM Wiki é simples, mas poderosa: em vez de usar o LLM apenas para recuperar documentos brutos, você o usa para construir e manter um wiki persistente.

Esse wiki é uma coleção estruturada e interligada de arquivos Markdown que fica entre você e suas fontes originais. Quando você adiciona um novo documento, o LLM não apenas o indexa — ele:

  1. Lê o documento inteiro
  2. Extrai as informações-chave
  3. Integra-as ao wiki existente
  4. Atualiza páginas de entidades relacionadas
  5. Revisa sínteses já existentes
  6. Sinaliza contradições entre fontes

A diferença crucial: o wiki é um artefato persistente e composto. As referências cruzadas já existem. As contradições já foram identificadas. O trabalho intelectual de conexão não precisa ser refeito a cada consulta.

As Três Camadas da Arquitetura

O padrão é elegantemente dividido em três camadas:

1. Fontes Brutas

Seus documentos originais — artigos, papers, notas, dados. São imutáveis. O LLM lê, mas nunca altera.

2. O Wiki

Um diretório de arquivos Markdown gerados e mantidos pelo LLM. Contém resumos, páginas de entidades, sínteses temáticas, e conexões entre conceitos.

3. O Schema (CLAUDE.md)

Um documento de configuração que instrui o LLM sobre a estrutura do seu wiki, as convenções de nomenclatura, e os fluxos de trabalho esperados. É aqui que você define as regras do jogo.

As Três Operações Principais

Ingest

Quando uma nova fonte entra, o LLM a processa completamente: cria uma página de resumo, atualiza o índice, e modifica 10 a 15 páginas correlatas do wiki. O trabalho que levaria horas para um humano acontece em minutos.

Query

Ao fazer uma pergunta, o LLM busca páginas relevantes do wiki (não os documentos brutos), sintetiza uma resposta com citações, e pode opcionalmente arquivar os achados como novas páginas — fazendo o conhecimento crescer por exploração, não apenas por ingestão.

Lint

Uma verificação periódica de saúde do wiki: contradições entre fontes, claims desatualizados, páginas órfãs sem referências, lacunas de cobertura. Como um compilador, mas para conhecimento.

Arquivos Especiais

O padrão define dois arquivos de controle:

  • index.md — catálogo orientado ao conteúdo, organizado por categoria. Sua visão geral de tudo que existe no wiki.
  • log.md — registro cronológico e append-only de todas as operações. Permite auditar o que foi processado e quando.

Onde Usar

Karpathy sugere vários contextos práticos:

  • Rastreamento pessoal — objetivos, saúde, psicologia, journaling estruturado
  • Pesquisa aprofundada — mergulhos em tópicos complexos com síntese progressiva
  • Leitura de livros — personagens, temas e conexões entre obras mantidos automaticamente
  • Wikis de equipe — alimentados por transcrições de reuniões e documentos internos
  • Análise competitiva — due diligence, benchmarking, monitoramento de mercado

Por Que Isso Importa

A ideia remete ao conceito de Memex de Vannevar Bush (1945) — uma máquina para estender a memória humana através de associações. A diferença é que, em 1945, manter essas associações seria trabalho humano intenso. Hoje, os LLMs resolvem exatamente essa parte.

Como Karpathy coloca:

"O LLM não se entedia, não esquece de atualizar referências cruzadas e toca 15 arquivos de uma vez."

O humano continua no papel que faz sentido: curar fontes e fazer as perguntas certas. O LLM executa o trabalho de síntese, arquivamento e manutenção de consistência.

Minha Leitura

O que me chama atenção nesse padrão é o compounding. Conhecimento que cresce por uso, não apenas por acumulação. Cada consulta bem respondida pode se tornar uma nova entrada no wiki. Cada nova fonte processada enriquece as conexões existentes.

É uma mudança de paradigma sobre o que significa "usar um LLM": de uma ferramenta de consulta pontual para um parceiro de curadoria intelectual contínua.

Se você trabalha com pesquisa, escrita, ou qualquer domínio onde o acúmulo de conhecimento importa, vale experimentar esse padrão.


Leia o artigo original de Andrej Karpathy no GitHub Gist.

https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

Carregando publicação patrocinada...
2

Mano, muito obrigado por trazer este artigo! Há tempos venho pensando em algo nessa linha e inclusive já busquei implementar algo que me ajudasse a organizar meu conhecimento como uma wiki, acredito que o poder na construção de uma wiki particular é justamente suas analogias e percepções que cada um desenvolve da realidade. Infelizmente, tiro poucos minutos pra trabalhar nisso e na verdade utilizo este projeto pessoal mais como build to learn.
Certamente esse artigo me será útil num futuro breve!

2