Lembrando que o ChatGPT não sabe nada, é só uma ferramenta de produção de textos, a maioria para entretenimento das pessoas, e outros objetivos não aparentes que não vou citar aqui.
O ChatGPT respondeu tanto quanto o Google responde. Ou seja, ele fala de algo que outra pessoa respondeu, sem mostrar o contexto que foi dito.
Se perguntar de novo, ele dá outra resposta, não é algo canônico.
É um enorme problema achar que questões possivelmente médicas e mesmo sociais podem ser bem respondidas pelo ChatGPT.
Temos inúmeros casos dele fantasiar completamente no que escreveu. Em muitos casos ele fantasia só um pouco, e aí começa ter mais problemas, porque as pessoas passam dar valor que não tem. Não vou entrar aqui em exemplos da alucinação que ele tem, e por isso ele é inconfiável em tudo o que faz.
Você pode pegar a informação dada para começar novas pesquisas. Mas dará um trabalho enorme, para fazer bem feito, provavelmente dará mais trabalho. As pessoas só estão tendo menos trabalho porque estão aceitando como verdadeira algo que tem um potencial enorme de ser falso.
Só para pegar um exemplo que ele não fala é que muita procrastinação tem origem muito mais profunda vinda de falhas neurológicas e nenhuma técnica que "vendem" por aí resolverão.
A resposta não é de toda ruim porque ela faz ressalva e indica a procura de um profissional na área. Mas é sempre um rodapé. Eu estou destacando mais essa questão.
Não é problema usar o ChatGPT, é problema achar que ele é uma solução, ter crenças irreais em relação a ele.
Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).