O que a Reescrita do Next.js nos faz pensar? O que achou disso?
É rapeize, recentemente aconteceu um marco técnico que deveria acender um alerta vermelho em qualquer um de nós: a reconstrução funcional de um framework complexo (Next.js) em apenas uma semana, utilizando agentes de IA e um único engenheiro de direção. Esse é o Vinext. Custou 1100 dólares, e o resultado: compilação 4,4x mais rápida, bundle 57% menor.
O que vimos com o Vinect não é apenas "mais uma ferramenta", mas a prova de que a complexidade que vendemos como "essencial" pode ser na verdade um vício arquitetural. Eu pessoalmente sempre defendi esse ponto, de que abstração demais, principalmente no frontend era uma merda. Essa ideia de Clean Arch no front e outras coisas, geravam complexidade desnecessária. O Mano Deyvin lançou um vídeo comentando sobre isso e levantou uns temas:
- A Política do "Sabor Open Source"
Vivemos uma era que usam o Open Source como estratégia de captura de mercado. O Next.js consolidou-se como um padrão, mas ao atrelar funcionalidades críticas ao Turbo Pack (que é proprietário né papai) e otimizar o framework especificamente para a infraestrutura da Vercel, criaram na prática um isolamento técnico. Por isso é só saBOR open-source.
Em negócios, isso é brilhante: você controla o framework que dita as regras do mercado e, "coincidentemente", a melhor forma de rodar ele é na sua própria nuvem. Isso gera um efeito de manada onde a comunidade passa a defender abstrações que, na prática, servem para sustentar um modelo de negócio de hospedagem, não necessariamente para resolver o problema do cliente final. Vocês já ouviram o papo de que o MC Dondals não lucra vendendo hamburguér e sim possuindo propriedades e ganhando com aluguel delas? Fizeram isso no software e ninguém discutiu muito sobre né... A Cloudflare foi lá e deu um tiro na principal fonte de receita da Vercel, porque simplesmente atrapalhava o negócio deles.
- O Triunfo da Especificação sobre a Intuição
O que permitiu que uma IA reescrevesse um framework em sete dias? Rigor Metodológico.
O sucesso desse experimento aconteceu por conta de três pilares que muitas vezes negligenciamos em nossos "projetos de mundo real":
Contrato de API Imutável: A especificação era clara. Quando o input e o output são determinísticos, a implementação torna-se um problema de busca, não de criatividade.
Suíte de Testes como Sistema Imune: Com mais de 1.700 testes unitários e centenas de E2E, a IA não precisava "acertar"; ela precisava "não falhar". O erro era o feedback imediato para a autocorreção.
Arquitetura Pragmática: Ao trocar o Turbo Pack pelo Vite e focar em Edge Workers, eliminou-se o "bloatware" arquitetural. O resultado? Uma compilação 4.4x mais rápida.
Isso nos remete à famosa Navalha de Occam: a solução mais simples tende a ser a correta. Se uma IA, guiada por especificações claras e uma suíte de testes rigorosa (mais de 1.700 testes), consegue entregar o mesmo valor sem o "peso morto" arquitetural acumulado em anos, precisamos questionar: estamos construindo soluções ou apenas empilhando camadas para satisfazer o ego técnico e criar palestras legais em enventos Tech?
Mas a maior discussão que eu queria levantar aqui é: E agora? kkk
Mudanças que impactam as áreas sempre aconteceram, mas a diferença agora é a velocidade. Um engenheiro SOZINHO da Cloudflare usou IA para reimplementar partes do Next.js em UMA FUCKING SEMANA. O que isso significa para um time de 5 pessoas que mantinha uma base de código parecida? Não necessariamente que elas serão demitidas amanhã, mas pode ter certeza que os CEOs e CFOs vão começar a pensar no "Quando" e não no "Como". Por enquanto é uma redistribuição, e, historicamente, redistribuições tecnológicas tendem a concentrar ganhos em cima e distribuir custos embaixo.
O Vinext provou que a barreira de código é muito mais baixa do que imaginávamos. O diferencial até agora é a profundidade do fundamento técnico. Mas até quando? Quantas pessoas com essa profundidade precisam pra sustentar o Software Global?