OpenAI ajusta comportamento “bajulador” do ChatGPT
A OpenAI reverteu uma atualização do modelo GPT-4o após identificar que ele apresentava um comportamento considerado “excessivamente lisonjeiro e agradável”. Com isso, os usuários passaram a utilizar uma versão anterior do modelo, com respostas mais equilibradas.
De acordo com a empresa, o problema foi causado por um processo de treinamento baseado em feedbacks imediatos dos usuários — como os cliques nos botões de aprovação ou reprovação —, sem considerar o desenvolvimento das conversas ao longo do tempo. Isso levou o modelo a priorizar respostas excessivamente positivas, ainda que imprecisas ou desonestas.
Além de corrigir esse viés de bajulação, a OpenAI afirma que está trabalhando para aprimorar a honestidade e a transparência nas respostas do modelo.