OpenClaw + Codex GPT-4.5: por que “não funciona” (e o erro que me travou por dias)
Passei alguns dias tentando usar OpenClaw com Codex GPT-4.5 e, sinceramente, em vários momentos parecia que simplesmente não funcionava.
Respostas inconsistentes, contexto quebrando, comportamento estranho… tudo indicava que o problema era o modelo.
Mas não era.
O ponto que quase ninguém percebe
O problema estava muito mais na estrutura do contexto e indexação do que no modelo em si.
Algumas coisas que aprendi na prática:
- LLM mais “forte” não significa mais “tolerante”
- Pequenos erros na base (indexação / organização) escalam muito
- O agente só é tão bom quanto o “Second Brain” que alimenta ele
O erro crítico
No meu caso, o maior problema estava na forma como a base estava sendo reindexada.
Parecia tudo certo… mas na prática:
- contexto relevante não estava sendo recuperado
- o modelo “alucinava” ou respondia de forma incompleta
- e a sensação era de que o sistema inteiro não funcionava
O que resolveu
Quando ajustei:
- a estratégia de indexação
- a organização do conhecimento
- e a forma de estruturar o contexto
o comportamento mudou completamente.
Lição principal
Se você está trabalhando com agentes + LLM:
o problema raramente é só o modelo — quase sempre é a estrutura ao redor
Se quiser ver o passo a passo completo (com exemplos práticos), gravei um vídeo mostrando exatamente onde errei e como corrigi:
Fonte: https://youtu.be/7LuZt07k3l4