FrankBug - O Mito da Produtividade com IA: Por que os projetos do Akita são um pesadelo para o seu Homelab
Se você acompanha a bolha de tecnologia brasileira, provavelmente já viu os posts recentes do Fábio Akita. Enquanto discussões globais sobre os custos ocultos da codificação com IA ganham força, o Akita tem falado muito sobre como a tecnologia o transformou em um "super programador", o Agile Vibe Coder entregando projetos complexos como o Franksherlock e o Frankclaw em tempo recorde. Empolgado com essa narrativa, resolvi integrar essas ferramentas ao meu homelab. O resultado? Uma colisão frontal com a realidade.
O Homelab e a Ilusão da Praticidade
Meu projeto de homelab é focado em autonomia e performance. A promessa de ter um indexador inteligente de imagens ou assistentes de IA robustos parecia o encaixe perfeito. Afinal, se alguém que a comunidade tanto admira diz que funciona e que foi feito em 2 dias, por que eu teria problemas?
Acontece que existe um abismo entre "funciona na minha máquina" e "é um software usável".
Franksherlock e Frankclaw: O Código de 5 Mil Linhas e a Documentação Fantasma
Ao tentar rodar projetos como o Frankclaw e o Franksherlock, a primeira coisa que salta aos olhos é a estrutura. Estamos falando de arquivos gerados por IA com mais de 5.000 linhas de código. Tentar debugar isso é como tentar ler um contrato de adesão no escuro.
Encontramos diversos problemas que impediam um simples docker-compose up de funcionar ou até mesmo de conseguir acessar a aplicação:
- Incompatibilidade de Ambiente: A sensação é de que os projetos foram feitos em um ambiente Unix isolado e nunca viram a cor de um terminal Windows. Erros básicos de execução sugerem uma total falta de testes fora do ecossistema do autor, com scripts de inicialização que quebram por detalhes triviais de sistema de arquivos.
- Orquestração Incompleta: Dependências entre serviços que não foram devidamente mapeadas no Compose, forçando o usuário a implementar soluções manuais para garantir que os containers subam na ordem correta.
- Erros de UI e Acessibilidade: Interface com componentes totalmente fora do lugar, itens invisíveis e botões impossíveis de acessar. É o clássico "funciona na resolução da minha tela", onde a IA gerou o CSS mas ninguém se deu ao trabalho de testar a usabilidade básica.
O Hiperfoco e o Cansaço do Release
O padrão é claro: o Akita entra em um estado de hiperfoco auxiliado por IA, cospe milhares de linhas de código e, assim que a primeira versão "pinga" na máquina dele, o release é feito.
O problema é que esse código gerado por IA vem com uma carga enorme de dívida técnica invisível. Muitos testes são incluídos, mas quando você os analisa, eles garantem pouca coisa que realmente importa para a estabilidade final. São testes de "caminho feliz" gerados por IA para um código também gerado por IA.
O resultado? Erros de UI grotescos e issues abertas no GitHub que ficam lá pegando poeira enquanto o autor já pulou para o próximo "experimento de 2 dias".
Conclusão: Não Existe Bala de Prata (Nem Guru)
Como o próprio Akita costuma dizer: não existe guru de tecnologia. E isso inclui ele mesmo.
A "Bolha de IA" (como bem discutido em posts recentes no TabNews) criou uma geração de projetos que parecem incríveis no papel, mas são amontoados de código mal refinado.
Disclaimer: Tomem muito cuidado ao ler posts e rodar códigos gerados massivamente por IA. Na maioria das vezes, o que você recebe é um protótipo glorificado que exigirá horas de refinamento manual para funcionar de verdade. A IA é uma ferramenta poderosa, mas sem o devido polimento humano, ela só serve para gerar lixo tecnológico em escala industrial.