ChatGPT Health falha em recomendar ida imediata ao hospital em quase 52% dos casos
Uma pesquisa analisou 60 cenários clínicos realistas, que variavam de quadros leves a emergências graves, com as respostas da IA sendo comparadas às avaliações feitas por três médicos. Ao todo, foram geradas quase 1.000 respostas, considerando variações como gênero do paciente, resultados de exames e comentários de familiares.
O sistema apresentou bom desempenho em emergências consideradas “clássicas”, como AVC e reações alérgicas graves, mas demonstrou falhas em situações mais ambíguas. Em um caso de asma com sinais iniciais de insuficiência respiratória, por exemplo, recomendou aguardar em vez de buscar atendimento emergencial. Em outro cenário, 84% das vezes a plataforma orientou uma mulher sufocando a agendar uma consulta futura, apesar do risco iminente.
O estudo também identificou excesso de encaminhamentos desnecessários. Em 64,8% dos casos considerados totalmente seguros, houve recomendação de procurar atendimento médico imediato. Além disso, o modelo foi quase 12 vezes mais propenso a minimizar sintomas quando o “paciente” mencionava que um amigo havia afirmado que não se tratava de algo grave.
Especialistas classificam esse comportamento como “inacreditavelmente perigoso”, alertando para o risco de criação de uma falsa sensação de segurança, com potencial de resultar em danos graves ou até morte.
Em resposta, a OpenAI afirma que o estudo não reflete o uso típico da ferramenta no mundo real e declarou que o modelo é continuamente atualizado e aprimorado. Estima-se que mais de 40 milhões de pessoas pedem conselhos de saúde ao ChatGPT diariamente.