Meus 2 cents,
Usar modelos flagships tem este problema: voce fica a merce dos ventos do mercado.
Opcoes para sair disso:
Um projeto que permite utilizar diversos providers de modelos LLM, gratuitos ou pagos, no agente de sua preferencia (ClaudeCode, Codex, Antigravity, OpenCode, ClawCode).
O grande HUB para acesso a diversos modelos, gratuitos e pagos.
O grande mercado de modelos, muitos deles openweights (ou seja, da para baixar e rodar - se tiver hardware)
Baixou o modelo do HuggingFace ? Pode rodar local via LMStudio
Quer brincar com o modelo openweights, mas nao tem hardware ? Use o google colab e tenha uma maquina com 16Gb de VRAM a disposicao, de graca.
Quer elevar o nivel ? Junta com alguns amigos e/ou empresas com o mesmo foco para alugar uma CloudGPU e por o modelo que desejem. Da para fazer sob demanda.
- O que eu faco hoje
Tenho Gemini (conta google), copilot (via github) e codex (via openAI) - e juntei diversos modelos gratuitos do openrouter.
Coloquei tudo no omniroute local e acesso no modo "combo": se a quota de um modelo acaba, passa pro proximo (o omniroute controla isso de forma automatica).
Ideal ? Claro que nao - mas eh o que tem para hoje.
Enfim, existem alguns caminhos, depende do perfil de cada um.
Post devidamente favoritado via extensão TABNEWS FAVORITOS
Saude e Sucesso !