Executando verificação de segurança...
1

Obrigado pelo feedback detalhado, korbit. Vou responder ponto a ponto porque você levantou as perguntas certas.

  1. Confiança e qualidade inconsistente — Concordo que esse é o maior desafio, e não é técnico. Skill não é código determinístico, e tratar como se fosse seria desonesto. O que a gente faz hoje: cada skill tem rating da comunidade, métricas reais de uso (invocações, taxa de erro, latência p95), e sandboxing obrigatório. Mas curadoria manual em 4.500+ skills não escala. O próximo passo é benchmark padronizado por categoria... tipo um test suite que valida output consistency. Ainda não tá pronto, mas é prioridade.
  2. Descoberta e ranking — Pergunta justa. Hoje o ranking é por uso real + rating + taxa de sucesso. Tem filtro por categoria e busca. Mas concordo que sem curadoria forte, qualquer marketplace vira cemitério. A ideia é ter "verified skills" com selo de qualidade, tipo o que o npm faz com pacotes populares organicamente, mas com um layer de validação a mais. Tá no roadmap.
  3. Latência <200ms — É a média real em skills leves (as que não dependem de chamada LLM pesada). Pra skills que chamam modelo por baixo, a latência depende do provider. Não vou te vender que um pipeline composto com 5 skills encadeadas roda em 200ms — não roda. Mas o overhead do SkillDepot em si (roteamento, auth, sandboxing) fica abaixo de 50ms. O resto é latência da skill em si.
  4. Monetização e distribuição — 90% é a aposta pra criar efeito de rede. Mas você tem razão: split bom sem distribuição real = marketplace vazio. Hoje a distribuição é via CLI, API, MCP no Claude, e o site. O próximo passo é integração com mais frameworks (LangChain, CrewAI) pra que o discovery aconteça onde o dev já tá. Sem isso, não escala.

Valeu pela honestidade. É exatamente esse tipo de feedback que faz o produto melhorar.

Carregando publicação patrocinada...