Tentando construir um pedaço de internet mais massa (com K3D)
TL;DR
a internet de texto ficou barulhenta. quero provar, com um MVP aberto, que navegar conhecimento em espaço 3D (K3D) pode ser mais rápido, memorável e transparente do que “rolar timeline”. aqui estão a hipótese, o experimento, as métricas e como você pode participar.
O problema (sem rodeio)
páginas cheias de distração sequestram foco.
sinalização de valor virou “like” infinito (baixo atrito, pouco critério).
para quem trabalha com tecnologia, isso reduz aprendizado útil.
não sou contra marketing: sou a favor de mecanismos que privilegiem valor concreto.
A proposta
Construir e testar publicamente o K3D: um mapa espacial de conhecimento onde proximidade = similaridade semântica.
Em vez de uma lista linear, você “caminha” por ideias muito próximas do que procura.
O que você ganha (hoje)
um MVP para navegar um corpus técnico pequeno (1–10 mil itens).
uma especificação mínima para qualquer pessoa gerar seus próprios mapas.
um experimento mensurável: K3D vs. lista — tempo para achar e reter respostas.
Como funciona (versão de 30 segundos)
geramos embeddings do conteúdo (texto curto).
reduzimos para 3D (ex.: UMAP).
pré-computamos vizinhos (k-NN) e servimos tiles para o viewer web.
no navegador, você usa WASD + busca para “teletransportar” e explorar.
cada ponto é um conteúdo; clusters contam uma história.
MVP aberto: o experimento
Hipótese: profissionais de tecnologia encontram respostas mais rápido e lembram melhor após 24h quando exploram o corpus em 3D.
Corpus v0: artigos curtos, issues e gists técnicos (curadoria pública).
Tarefas: 6 perguntas objetivas (ex.: “qual comando corrige X?”).
Comparação:
Grupo A: busca/lista paginada.
Grupo B: K3D (busca + navegação espacial).
Métricas
Tempo-para-resposta (TTR) mediano.
Taxa de acerto nas 6 tarefas.
Recall em 24h (3 perguntas surpresa).
FPS com 100k nós no viewer (alvo 60).
Latência k-NN p95 (< 100 ms).
Especificação mínima v0 (K3D-Node)
pequena, explícita e versionada — para qualquer um reproduzir
{
"version": "0.1.0",
"nodes": [
{
"id": "uuid-1",
"title": "Exemplo de conteúdo",
"vector": [0.12, -0.34, 0.56],
"neighbors": ["uuid-2", "uuid-3"],
"media": [{ "url": "https://link", "type": "text" }],
"tags": ["ai", "ux"],
"weight": 0.72,
"updatedAt": "2025-08-01T00:00:00Z"
}
]
}
Regras de ouro
vector são coordenadas 3D já reduzidas (não o embedding original).
neighbors trazem os IDs k-NN pré-computados (ex.: k=8 e k=32).
weight influencia escala/opacidade no viewer.
versão semântica no topo; mudanças “breaking” incrementam minor.
Como rodar (mínimo viável do exemplo)
examples/hello-k3d-viewer/ com dataset pequeno (JSON acima).
yarn && yarn dev → abre um viewer web com WASD, busca e tooltip.
Sem dependências exóticas: three.js + instancing + tiles estáticos em CDN.
objetivo: qualquer pessoa testar em 5 minutos e abrir PR em 15.
Cultura do tópico (TabNews way)
Comentários do tipo “valeu!” são bem-vindos — mas vamos priorizar respostas que devolvam valor concreto. Exemplos de comentários úteis:
“rodei o viewer em hardware X, aqui estão FPS e p95”.
“usei este corpus Y, segue JSON e como gerei embeddings”.
“achei este bug (passo a passo) + sugestão de fix”.
“comparativo K3D vs. lista no meu time (n=8), resultados”.
Se não der para contribuir tecnicamente, TabCoins nos ajudam a sinalizar utilidade sem banalizar o gesto.
Roadmap 30 / 60 / 90 dias (público e revisável)
30 dias
congelar K3D-Node v0.1; exemplo funcional publicado; script de import.
dataset aberto com 1k itens; benchmarks iniciais de TTR/Recall.
60 dias
tiles + LOD (1k–10k–100k nós); “focus mode” e “story mode”.
API /v1/nodes, /v1/edges, /v1/search, /v1/tiles/{z}/{x}/{y} com cache forte.
90 dias
nota do agente: permitir que um agente/usuário crie um nó com rastro visível (co-aprendizado).
estudo controlado pequeno (n≥30) reportado aqui no TabNews.
O que eu preciso de você (níveis de contribuição)
Teste rápido: rode o hello-viewer, relate FPS/latência e UX.
Dados: indique um corpus público útil (e licenças) para v1.
Código: PRs para instancing, tiles, k-NN worker, search-to-teleport.
Métricas: ajude a desenhar/rodar o experimento de TTR/Recall.
Céticos, venham: que cenário torna K3D pior que lista? vamos medir.
Perguntas que quero discutir nos comentários
qual tamanho de chunk (nós por tile) equilibra performance e contexto?
k-NN duplo (8/32) cobre bem navegação local/global no MVP?
UMAP padrão ou precisamos hyper-tuning por corpus?
quais sinais visuais (escala, cor, opacidade) funcionam melhor como semântica?
que tarefas objetivas você sugere para o experimento 24h?
Critérios de “pronto o suficiente” (para declarar vitória v0)
TTR mediano −25% vs. lista.
Recall 24h +15 p.p.
Viewer estável a 60 FPS com 100k nós em máquina de médio porte.
Reprodutibilidade: qualquer pessoa gera um mapa novo seguindo o README.
Por que isso importa
Design: espaço, hierarquia e foco > ruído e distração.
Psicologia: mover-se entre ideias cria salience e melhora memorização.
Frontend: viewer fino, tiles estáticos — dá para shippar rápido.
Sistema: contratos de API estáveis, versionamento e cache — escala com segurança.
Conclusão
se você também sente falta de um pedaço da internet que respeita seu tempo e recompensa quem constrói, vamos medir — juntos — se navegar conhecimento em espaço 3D é melhor do que rolar um feed.
link do projeto: github.com/danielcamposramos/Knowledge3D
convite: comente com dados, PRs, ideias e críticas duras (com empatia).
se fizer sentido para você, deixe TabCoins como sinal de utilidade.
obrigado por ler. bora construir um pedaço de internet mais massa. 🚀