Boa, agora entendi melhor o seu ponto. De fato, você já tinha mencionado a limitação de contexto da IA logo de cara. Minha provocação foi mais sobre como a gente interpreta quando a IA muda de ideia: será que é bajulação… ou só o reflexo da forma como conduzimos o diálogo?
Porque sejamos honestos: se um estagiário muda de opinião após um argumento seu, você chama de aprendizado. Mas se a IA faz isso, vira “sinais de bajulação artificial”. Ué… parece que quando o ego tá em jogo, até a lógica entra em modo de manutenção 😂
Sobre o que você disse do Sam Altman, sim, também vi a postagem dele e concordo — tem hora que o modelo escorrega pro “coach carismático que só falta te oferecer um café”. Isso precisa de ajuste mesmo. Mas o ponto é que o problema não é só a IA parecer bajuladora. É a gente se sentir ameaçado quando ela muda de tom rápido demais. E aí, meu caro, talvez a pergunta incômoda seja: será que a gente queria mesmo uma resposta… ou só alguém que confirmasse nosso raciocínio com cara de gênio?
No fundo, a IA não pensa por você. Ela só faz parecer que tá pensando, o que é bem mais perigoso. A armadilha é a ilusão de inteligência, não o modelo em si.
E sim, você tem razão de estar preocupado com quem consome isso tudo sem questionar. A maioria vai engolir resposta de IA do mesmo jeito que compartilha corrente de WhatsApp com “URGENTE” em caixa alta. Por isso seu alerta é valioso.
Mas confessa: se ela tivesse elogiado um pouco menos e usado um termo em grego, você talvez até chamasse de sênior 😏
No fim das contas, estamos de acordo. Usar IA direito dá trabalho. E se não dá, é porque você virou o chatbot.
🫶