EP20: O Big Three do Código | Logbook for Devs
🧭 Mapa da Edição
📓 Três gigantes do código. Um dev no leme. E a arte de saber qual chamar primeiro quando a maré começa a subir.
🌊 IA monitorando conduta, React rachando opiniões e biotecnologia conectando eletrônica ao tecido humano. Ondas técnicas e éticas ao mesmo tempo.
📦 Docs que falam com você e URLs que guardam memória. Pequenas ferramentas, grandes atalhos.
📓 Entrada no Logbook
Marujos, qual modelo de IA vocês andam utilizando mais?
Existe algo curioso sobre o número 3. Ele aparece nas mitologias, nas histórias, na cultura pop… e agora também no mundo das IAs.
OpenAI, Anthropic e Google.
O nosso Big Three moderno quando o assunto é código.
Antes de tudo: nada aqui é regra, religião ou verdade absoluta. Resultado depende de tarefa, prompt, contexto, projeto, stack, versão do modelo… tudo influencia. O que vou compartilhar é comportamento percebido no dia a dia real.
Agora sim, vamos aos competidores.
🧱 Codex — o rigoroso
Da ponta esquerda… ele.
O calculista. O inimigo da imperfeição. O senior que revisa PR até encontrar vírgula fora do lugar.

O Codex é extremamente atento. Se o prompt estiver incompleto, ele sente. Se algo não fecha, ele para. Investiga. Questiona.
Às vezes trava. Mas raramente ignora.
Ele se comporta como aquele dev que não deixa ponta solta. Todo o caminho até o resultado precisa fazer sentido. Impactos colaterais importam. Dependências importam. Consequências importam.
Alguns exemplos clássicos:
- Atualizar uma função usada em vários lugares do sistema
- Alterar uma entidade sensível (pagamentos, autenticação, webhooks)
- Refatorar código legado com efeitos em cascata
Por isso, muitas vezes ele gera o código mais consistente e seguro.
Não necessariamente o mais rápido. Mas o mais sólido.
Ele é excelente para consolidação. Para fechar arquitetura. Para estabilizar decisões.
🎯 Opus — o estrategista
Do lado direito… o mestre das nuances.
O Opus entende intenção. Às vezes você nem termina de explicar, e ele já está propondo estrutura.

Ele é excelente em:
- Exploração arquitetural
- Brainstorm técnico
- Tirar feature do papel
- Construir algo funcional rapidamente
Quando surge um bloqueio no meio do caminho, a diferença aparece. O Codex tenta resolver o problema até o fim, enquanto o Opus tende a contornar.
E atenção: contornar não é sinônimo de piorar, às vezes você precisa de progresso, não de perfeição.
O Opus é muito bom em manter o fluxo andando, ele aceita pequenas imperfeições temporárias para que o sistema funcione agora, e você melhora depois.
É aquele momento clássico de:
“Depois a gente refatora.”
Enquanto o Codex pode passar horas tentando resolver o bloqueio como se tivesse tomado 2 litros de café tentando entender por que c*ra**o do erro de CORS.
🧙 Gemini — o mago poderoso (e desastrado)
Ao norte… o gigante do contexto.

O Gemini é impressionante em capacidade: janela de contexto enorme, memória consistente e um volume de conhecimento realmente amplo. Em termos de raciocínio puro, ele compete de igual para igual com os outros dois, e em alguns cenários até supera.
Bem que dizem que o mago é implacável.
Para analisar vários arquivos, discutir arquitetura de forma longa ou lidar com interfaces complexas, ele costuma performar muito bem. Ele pensa como um arquiteto generalista, confortável em navegar por diferentes camadas do sistema sem perder a linha de raciocínio. O problema não é inteligência, nem capacidade de análise.
É tão implacável… mas “desgostoso” de usar no dia a dia.
Quando envolve ferramentas (as chamadas “tools”), ele falha mais do que deveria. Ler um arquivo, escrever alterações, executar uma ação simples via CLI, as tarefas básicas que deveriam ser triviais, se tornam pontos de fricção. É como se ele escrevesse um código excelente, bem estruturado, mas errasse justamente na hora de escrever aquilo no arquivo.
Estou com quem acredita que a Google possui algo realmente poderoso em mãos. Comparado a ecossistemas mais maduros como Claude Code, Codex CLI ou Cursor, a experiência ainda parece inconsistente.
A sensação é que o motor é forte, mas o câmbio ainda não está bem ajustado. O mago é implacável no conhecimento, mas bem desastrado em contrapartida 😵💫
🎼 O Dev Orquestrador
De forma geral, no dia a dia, você consegue resolver quase tudo com um modelo. Mas quando as opções aumentam, entra em cena algo que chamo de “intuição da primeira escolha”, o sexto sentido do título Dev Orquestrador.
Algo que acredito que irá se tornar cada vez mais relevante e importante em nossa área ao longo do tempo.
Não é sobre usar todos ao mesmo tempo, nem transformar o fluxo de trabalho em um experimento constante. É sobre saber qual chamar primeiro. A primeira escolha não significa única, significa estratégica. Ela serve para reduzir tentativas, refatorações desnecessárias, tempo e custo.
Se você insiste demais em um modelo que não está performando bem naquele tipo específico de tarefa, pode acabar gastando dez, doze prompts tentando forçar algo que outro resolveria em quatro. Saber trocar também é habilidade. Não é desistência, é otimização.
Hoje eu uso os três. O Opus para exploração e construção inicial, o Codex quando preciso consolidar algo crítico e reduzir risco, e mesmo o Gemini quando preciso lidar com muitos arquivos ou como fallback, especialmente do Opus, pois esse é caro e minha cota é curta 😅. Performance importa, mas custo e contexto também fazem parte da equação.
🧩 Além do Big Three
Assim como nas mitologias existem outros deuses além dos três principais, no mundo das IAs também existem outros jogadores relevantes. DeepSeek, Kimi K2, Grok e outros modelos vêm surgindo com propostas interessantes e características próprias.
Vale experimentar quando possível. Testar em cenários reais. Entender onde cada um brilha ou tropeça. No fim das contas, não é sobre qual modelo é o melhor de forma absoluta (pelo menos não até a chegada da AGI 👀).
É sobre qual você escolhe primeiro, e quando decide trocar.
🌊 Marés da semana
-
Polícia de Londres utiliza ferramentas de IA da Palantir para analisar conduta de oficiais
Uma notícia pesada do mundo tech hoje: a Met Police confirmou o uso de IA para monitorar padrões de comportamento, faltas e horas extras dos próprios policiais, visando identificar desvios de padrão profissional.
O uso de IA para "vigiar os vigias" levanta uma discussão técnica e ética imensa. Acredito ser uma medida bastante invasiva… mas e você, invasivo ou necessário?
-
Adoção do React 19 causa "fratura" no ecossistema de Server Components
Dados recentes mostram que, embora o React 19 tenha trazido Actions e melhorias de performance, a comunidade está dividida. Muitos desenvolvedores estão migrando para soluções como TanStack para gerenciar estados, fugindo da complexidade dos Server Components da Meta.
Estamos vivendo aquele momento "Angular 2" do React. A separação entre o que roda no servidor e no cliente ainda está gerando muita fricção. Para o dia a dia, a dica é: não tente abraçar toda a complexidade dos RSC, muitas vezes um fetch no client não machuca tanto.
-
Novo gel de oxigênio com micro-bateria promete evitar amputações em pacientes diabéticos
Na área de biotecnologia, pesquisadores da UC Riverside apresentaram hoje um gel que fornece oxigênio contínuo para feridas crônicas através de uma micro-bateria integrada. É eletrônica e biologia trabalhando literalmente na mesma camada.
Poxa… isso é fascinante! Ver a "internet das coisas" chegando ao nível tecidual. Imagina quando pudermos debugar um dispositivo médico via web com a mesma facilidade que debugamos um console.log?
📜 Arquivos de Bordo
Podcast do Episódio 20
22 minutos · 2 hosts de IA
→ O aúdio completo está disponível na versão oficial publicada no Substack.
⚓ Se chegou até aqui, já deu pra sentir o clima de bordo.
Essa é uma das entradas do meu Logbook for Devs —
onde registro ideias, reflexões técnicas e ferramentas que cruzam meu caminho na jornada dev.
Toda terça e quinta tem uma nova anotação de rota, com marés atualizadas e tesouros recém-descobertos.
⛵ Quer seguir viagem comigo?
Embarque aqui.