Executando verificação de segurança...
1

Scraping + API + UI: resolvendo o caos de vagas na prática

Procurar vaga hoje é basicamente:

  • várias abas abertas
  • plataformas diferentes
  • vagas duplicadas
  • filtro ruim
  • e você fazendo tudo na mão

E a gente trata isso como normal.

Há uns meses eu tava trocando de emprego e simplesmente não tinha tempo pra isso. Trabalhando + tentando procurar vaga = caos.

Então fiz o mais simples possível:

um script em JavaScript rodando no browser que buscava vagas e jogava tudo em um .xlsx

Nada bonito. Mas já era melhor do que sair clicando em tudo.

O problema é que mesmo assim ainda tava errado.

Porque Excel não é interface.

Aí o projeto começou a evoluir.

Hoje isso aqui virou um fluxo mais organizado:

scraper → leitura de XLSX → API → dashboard

O que estamos usando de fato

Backend

  • Node.js + Express
  • Axios + Cheerio (scraping)
  • Leitura de XLSX
  • API simples pra expor os dados

Frontend

  • React + Vite
  • TypeScript
  • Tailwind

O que já resolve hoje

  • Busca por título, empresa e local
  • Filtro por palavra-chave
  • Troca de arquivos de origem
  • Paginação (sem travar tudo)
  • Tema claro/escuro

Nada revolucionário.
Mas funcional de verdade.

Qualidade (sem fake)

  • Teste unitário + integração
  • ~80% de cobertura
  • Sem commit direto em branch principal
  • Fluxo básico: card → branch → PR → review

E sim, tem versão desktop

Empacotei com Electron pra rodar sem precisar instalar nada.

Abre o app, clica em “buscar vagas” e pronto.

O ponto é simples

Planilha deveria ser entrada de dados, não interface.

Hoje muita coisa para no XLSX e alguém fala:

“tá aí, se vira”

Eu só parei de aceitar isso e organizei melhor.

Não é um produto gigante.
Não resolve tudo.

Mas já resolve bem melhor que antes.

Se você já perdeu tempo demais procurando vaga,
provavelmente vai entender o problema.

Carregando publicação patrocinada...