Scraping + API + UI: resolvendo o caos de vagas na prática
Procurar vaga hoje é basicamente:
- várias abas abertas
- plataformas diferentes
- vagas duplicadas
- filtro ruim
- e você fazendo tudo na mão
E a gente trata isso como normal.
Há uns meses eu tava trocando de emprego e simplesmente não tinha tempo pra isso. Trabalhando + tentando procurar vaga = caos.
Então fiz o mais simples possível:
um script em JavaScript rodando no browser que buscava vagas e jogava tudo em um
.xlsx
Nada bonito. Mas já era melhor do que sair clicando em tudo.
O problema é que mesmo assim ainda tava errado.
Porque Excel não é interface.
Aí o projeto começou a evoluir.
Hoje isso aqui virou um fluxo mais organizado:
scraper → leitura de XLSX → API → dashboard
O que estamos usando de fato
Backend
- Node.js + Express
- Axios + Cheerio (scraping)
- Leitura de XLSX
- API simples pra expor os dados
Frontend
- React + Vite
- TypeScript
- Tailwind
O que já resolve hoje
- Busca por título, empresa e local
- Filtro por palavra-chave
- Troca de arquivos de origem
- Paginação (sem travar tudo)
- Tema claro/escuro
Nada revolucionário.
Mas funcional de verdade.
Qualidade (sem fake)
- Teste unitário + integração
- ~80% de cobertura
- Sem commit direto em branch principal
- Fluxo básico: card → branch → PR → review
E sim, tem versão desktop
Empacotei com Electron pra rodar sem precisar instalar nada.
Abre o app, clica em “buscar vagas” e pronto.
O ponto é simples
Planilha deveria ser entrada de dados, não interface.
Hoje muita coisa para no XLSX e alguém fala:
“tá aí, se vira”
Eu só parei de aceitar isso e organizei melhor.
Não é um produto gigante.
Não resolve tudo.
Mas já resolve bem melhor que antes.
Se você já perdeu tempo demais procurando vaga,
provavelmente vai entender o problema.