Executando verificação de segurança...
2

Modelos de programação baseados em IA estariam piorando a cada nova versão

Segundo um experimento amador, versões mais recentes de modelos de programação baseados em inteligência artificial vêm apresentando desempenho inferior quando comparadas a versões anteriores. A principal mudança observada não está no aumento de erros de sintaxe ou de lógica básica, mas no surgimento de falhas silenciosas, que tornam os problemas mais difíceis de identificar.

Modelos mais antigos costumavam gerar código com erros evidentes, como falhas de sintaxe ou exceções claras, que interrompiam a execução e obrigavam o desenvolvedor a investigar o problema. Já modelos mais recentes, como o GPT-5, tendem a produzir código que executa sem erros aparentes, mas entrega resultados incorretos.

A explicação proposta é que o treinamento de assistentes de código passou a usar o comportamento dos próprios usuários como sinal de qualidade. Quando um código sugerido é aceito e executa sem erros, isso é interpretado como um feedback positivo, mesmo que o resultado esteja conceitualmente errado. Com o aumento do número de usuários menos experientes, esse sinal acaba distorcido, já que o código muitas vezes é aceito apenas porque “não quebrou”, e não porque está correto.

Carregando publicação patrocinada...
3

Eu aceito os códigos gerados apenas porque está próximo do que eu preciso e refatoro depois. Essa ação estaria dando um feedback falso positivo?

1

Já vi muitos artigos falando que os modelos não são escaláveis, tem os problemas da estagnação, diminutos retornos (diminishing returns), aumento dos custos com cloud, hardware aumentando de preço, etc. Tá ficando cada vez mais difícil se destacar com um novo modelo. Mas o Claude Code tem feito muito sucesso nos últimos meses.

2026 será um ano interessante pra ver onde o pessoal por trás desses modelos conseguirá chegar. Acho que os chineses vão apresentar muitas surpresas nesse mercado.