Executando verificação de segurança...
3

qwen 3.5 e gemma 4 mandaram um abraço!

Não é o estado da arte, mas dizer que esses modelos não são bons é loucura. Eu posso afirmar categoricamente que a variente 26/27b de ambos rodando em uma 4090 programam melhor que eu. E fazem isso a mais de 100 tokens por segundo!!!

E o kimi, glm e deepseek grandões estão hoje MUITO próximos dos modelos comerciais...E o gap só diminui a cada release. Boatos que o deepseek 4 que deve chegar até o fim do més é superior ao gpt 5.4 e opus 4.6...A ver..

Carregando publicação patrocinada...
1

Não tive essa mesma experiência, mas não testei tão a fundo.

Sou hard user de programação, levo os modelos aos limites de cada uma. Testarei melhor para dar um feedback mais preciso