Scraping de iFood funcionou… até parar de funcionar
Alguns meses atrás eu estava tentando resolver um problema bem específico:
precisava de dados de plataformas tipo iFood e Booking pra um projeto — coisas simples tipo lista de restaurantes, cardápio, reviews, preços por data.
Nada absurdo.
Primeira reação: “ok, vamos fazer scraping”
- sobe um crawler
- rotaciona os proxies
- ajusta os headers
- parseia o HTML
funcionou… por alguns dias
Aí começou o ciclo clássico:
- layout muda > parser quebra
- proteção nova (tô te olho em vc iFood) > ban
- endpoint some > refatorar tudo
e de repente tinha mais tempo sendo gasto mantendo scraping do que usando os dados.
O o problema nunca foi “como extrair dado”... era só “preciso desse dado estruturado pra usar no produto”
Acabei montando uma camada no meio. Algo tipo:
- você manda uma URL ou parâmetros
- recebe JSON pronto
- sem pensar em crawler, proxy, parser, nada disso
Com o tempo isso virou a GeckoAPI.
Hoje basicamente uso ela pra puxar dados de:
- iFood (restaurantes, cardápio, avaliações)
- Booking / Airbnb (preço, reviews, disponibilidade)
- Mercado Livre / Amazon (anúncios, pricing)
O mais interessante foi ver onde isso começou a fazer sentido:
- gente usando iFood pra mapear mercado e prospectar restaurantes
- empresas de hotelaria usando Booking pra pricing
- times de produto enriquecendo base com dados externos
- e casos internos onde simplesmente não fazia sentido manter scraping
Não é nada revolucionário. É só tirar da frente a parte chata de fazer bypass de antibot e coletar dados.
Quem quiser testar com mais créditos, me avisa nos comentários que libero créditos a mais