Executando verificação de segurança...
1

Você pediu pra IA revisar um projeto denso, com termos técnicos avançados, e se surpreendeu porque ela não teve o mesmo contexto que você, um ser humano envolvido no projeto há semanas ou meses, tem. Ué... sério?

Mas aí vem o mais curioso: você pediu justificativa, e ao perceber que ela recuou ou mudou o tom, concluiu que ela “bajula”. Mas será que ela bajula… ou será que só está ajustando a resposta ao seu contra-argumento, como qualquer pessoa razoável faria numa conversa técnica de verdade?

A diferença é que, quando um estagiário muda de opinião depois que você aponta um furo, você chama de aprendizado. Quando uma IA faz isso, você chama de armadilha.

A real é que a IA é um reflexo brutal da maneira como você conduz o diálogo.
Se você busca validação, ela dá. Se você confronta, ela recua. Se você desafia, ela explica, ou tropeça.
E é justamente aí que mora o poder: ela força você a pensar, a questionar, a não aceitar resposta pronta.
Isso não é um risco. É um treino.

A IA não substitui sua análise. Nunca prometeu isso. Mas ela amplia. Ela tensiona. Ela provoca.
E se você se incomodou porque ela pareceu “ceder fácil demais”, talvez o incômodo maior seja perceber o quanto você mesmo pode estar esperando demais de uma ferramenta, e entregando de menos como pensador crítico.

No fim, a armadilha não é a IA.
A armadilha é usar uma ferramenta tão poderosa esperando que ela pense no seu lugar… e depois culpar ela quando você não questiona.

Fica ligado! 😉

Carregando publicação patrocinada...
1

Então... eu não fiquei surpreso por ela não ter o mesmo contexto, inclusive até comecei o post tentando explicar que eu já esperava isso, quando escrevi:

...nada fora do esperado, até pq ela não tem o contexto que eu tenho sobre o projeto...

Eu inclusive concordo com a maioria dos pontos que vc colocou! #paz

Porém, há pontos q não sei se concordo... por exemplo, sobre a questão de bajular.

Pelo que li depois, parece q diversas pessoas sentiram o mesmo comportamento exageradamente bajulador nesses últimos dias...

Inclusive o próprio Sam Altman fez este post no X falando sobre isso... e até prometeu correções: o que prova que minha percepção tinha fundamentos reais.

Tipo, eu não acho que qualquer estagiário sensato abandonaria sua própria proposta e me encheria de elogios, só pq eu perguntei:

pq vc está me recomendando ter uma DLQ neste caso?

Eu acho que o caminho natural seria tentar explicar a proposta... mas acho q a parametrização do ChatGPT, pelo menos naquele momento, fez ele se comportar bem diferente do esperado e foi aqui que eu fiquei negativamente surpreso rsrs

Meus 2 cents:

Eu concordo com vc que a verdadeira armadilha é esperar que a IA pense por vc, eu estava justamente tentando passar essa dica para as pessoas... para elas ficarem ligadas. Talvez eu não tenha explicado direito :(

Eu não sei vc, mas eu acho meio utópico pensar que todo mundo vai fazer os questionamentos e reflexões necessárias para usar a IA de forma correta. Talvez eu esteja um pouco pessimista aqui... mas eu acho q a maioria das pessoas tende a simplesmente consumir sem pensar muito... assim como é feito com muita fake news por aí.

Sei lá... isso me faz pensar que vale a pena tentar alertar a galera, principalmente quem é iniciante ou não tem um contexto tecnológico.

Fica ligado! 🫶