Executando verificação de segurança...
1

Interessante, realmente existem vários repos abandonados, ou repos de baixa qualidade e mesmo assim com muitas stars... Por outro lado existem repos como awesome lists q n possuem arquivo de pacote, portanto o score seria depreciado.

Seria legal ter uma espécie de panorama de balanço entre commits, pull requets e outras análises como complexidade do repo: talvez tamanho do código?
Saber se aquele repo tem muitas issues abertas q nunca foram respondidas, prazo medio para uma issue ser respondida ou pr mergeado ou pelo menos respondido, ja q nem todo pr é aceito. Enfim, da pra ter varias métricas.

Tbm acho q o modelo de website seria melhor ux. Mas da mais trabalho para manter, claro. E instalar coisas na maquina q são usadas poucas vezes trás bastante preguiça kkk.

Eu fiz algo similar em outro projeto meu, score de acordo com quantidade de commits e stars, e tempo de inatividade para tentar achar os melhores repos de um nicho (open source games), dai usa log tipo IDF para n ter pesos desproporcionais etc.

Se tiver animado posso contribuir tbm.

Enfim, vlw , vou testar em breve

Carregando publicação patrocinada...
1

Você tocou em vários pontos que fazem bastante sentido.

Sobre repos como awesome lists, documentação, templates ou projetos que não têm package.json, concordo totalmente: o score não pode simplesmente penalizar esse tipo de repositório como se fosse um app/lib comum. Uma das coisas que quero melhorar é justamente classificar melhor o tipo do repo antes de calcular o diagnóstico. Então um awesome list, por exemplo, deveria ser avaliado por sinais diferentes de um projeto Node/Rust/Go.

A ideia do RepoXray também não é ser só um “score mágico”, mas mais um raio-x com sinais explicáveis: o que está bom, o que está ausente, o que pode indicar abandono, e onde talvez exista risco para quem quer usar ou contribuir. Então métricas como equilíbrio entre commits, PRs, issues abertas, tempo médio de resposta, PRs mergeados/respondidos e atividade recente fazem muito sentido para uma próxima etapa.

Também gostei bastante da ideia de evitar pesos desproporcionais. Algo como normalização por tipo de projeto/nicho pode deixar a análise bem mais justa, em vez de comparar um awesome list com uma lib ativa ou uma aplicação grande.

Sobre website: concordo também. CLI é boa para devs testarem rápido e integrar em workflows, mas uma versão web provavelmente deixaria a experiência bem mais acessível para quem só quer colar uma URL e entender o estado de um projeto sem instalar nada. Talvez o caminho seja manter os dois: core/CLI primeiro, e depois uma interface web usando o mesmo motor de análise.

E sobre contribuir: seria muito bem-vindo! Principalmente porque você já parece ter pensado em problemas parecidos e em métricas de ranking. Ainda estou na fase inicial, então contribuições em ideias de métricas, regras, exemplos de repos problemáticos, UX do relatório ou implementação mesmo seriam bem úteis.

Se quiser, posso abrir algumas issues com labels tipo good first issue, metrics, scoring e ux/report, aí fica mais fácil escolher algo pequeno para começar.

1

Top, da sim, podemos ir discutindo as ideias via issue: como arquitetura, requisitos, etc. Antes de ir para o código.


Sendo bem sincero... vc ja é dev a algum tempo eu acredito, pq q suas contas no tabnews/github são novas?

Infelizmente tem tido muitos fakes, repositórios envenenados etc. Pergunto pq fiquei um pouco apreensivo.

1