A Loteria do Jaleco Branco: Por Que Sua Saúde Depende Mais de Sorte do Que de Ciência
Igor Morais Vasconcelos
Ou: O dia em que três endocrinologistas deram três diagnósticos para o mesmo exame
O Problema Que Ninguém Quer Discutir
Eu visitei três endocrinologistas para um mesmo problema. Levei os mesmos exames. Contei a mesma história. Saí com três condutas diferentes. Não estou falando de nuances interpretativas. Estou falando de um médico mandando eu tomar medicamento A, outro dizendo que eu precisava do B, e um terceiro afirmando que eu não precisava de nada.
Se você acha que isso é exceção, tenho más notícias.
Daniel Kahneman, Nobel de Economia em 2002, dedicou um livro inteiro a esse fenômeno. Ele chama de ruído: a variabilidade indesejada em julgamentos que deveriam ser idênticos. Não é viés — viés é errar sistematicamente para um lado. Ruído é cada um atirando para um lado diferente.
A medicina se vende como ciência. Mas quando dois psiquiatras concordam no diagnóstico em apenas 50% dos casos avaliando os mesmos pacientes — dado que está no livro de Kahneman — você começa a perceber que há algo estruturalmente quebrado.
A Arma e o Atirador: Uma Metáfora Que Médicos Não Vão Gostar
Imagine uma arma de fogo. Uma arma boa tem baixa dispersão: tiros sucessivos acertam pontos próximos. Uma arma ruim, em mesma condição, espalha chumbo para diferentes lados. Mesmo mirando não pode garantir que tiro acerte um ponto específico, e no final quem vai mandar vai ser a sorte.
Se você quer acertar um alvo, o que é melhor: um atirador excelente com uma espingarda que espalha os projéteis em ym raio de 2 metros, ou um atirador mediano com um rifle de precisão que garante que diferentes tiros, em mesma condição, acertem sempre dentro do diâmetro de uma moeda?
O cérebro humano é uma máquina de alta dispersão. Kahneman e seus coautores documentam radiologistas que, avaliando a mesma imagem em momentos diferentes, discordaram de si mesmos entre 8% e 40% das vezes. Em angiogramas, 22 médicos discordaram das próprias avaliações anteriores em até 92% dos casos.
A inteligência artificial, por design, tem dispersão perto de zero. Faça a mesma pergunta três vezes para um modelo configurado corretamente e você terá respostas convergentes. Isso não é uma limitação. É uma vantagem brutal.
A Fábrica de Erros Que Não Aparece na Estatística
Em 2016, pesquisadores da Johns Hopkins publicaram no periódico médico britânico The BMJ um estudo que deveria ter causado escândalo nacional. Eles calcularam que mais de 250.000 americanos morrem por ano devido a erros médicos. Isso coloca erro médico como a terceira maior causa de morte nos Estados Unidos, atrás apenas de doenças cardíacas e câncer.
Por que você nunca ouviu falar disso? Porque o sistema de codificação de óbitos não registra "erro médico" como causa. Se o médico prescreve a medicação errada e você morre de parada cardíaca, a certidão de óbito dirá "parada cardíaca". O erro desaparece na estatística.
Martin Makary, cirurgião de Johns Hopkins e autor do estudo, foi direto: o sistema de codificação foi desenhado para maximizar faturamento, não para coletar estatísticas de saúde pública.
Enquanto isso, câncer e doenças cardíacas recebem bilhões em pesquisa. Erro médico? Silêncio institucional.
O Mito da Empatia Humana
"Mas o calor humano do médico é insubstituível."
Vamos aos fatos.
Um estudo publicado na JAMA Internal Medicine em 2023 comparou respostas de médicos com respostas de inteligência artificial a perguntas de pacientes. Um painel de profissionais de saúde avaliou 195 pares de respostas sem saber qual era de quem.
Resultado: as respostas da inteligência artificial foram preferidas em 78,6% dos casos. A qualidade das respostas foi avaliada como boa ou muito boa 3,6 vezes mais frequentemente para a inteligência artificial do que para médicos.
E a empatia? As respostas da inteligência artificial foram classificadas como empáticas ou muito empáticas 9,8 vezes mais que as dos médicos humanos.
Você leu certo. A máquina foi quase dez vezes mais empática.
11 Segundos
Esse é o tempo médio que médicos esperam antes de interromper o paciente, segundo estudo publicado no Journal of General Internal Medicine em 2018. Onze segundos. Você mal terminou de dizer "então, doutor, comecei a sentir..." e já foi cortado.
Em 67% das consultas analisadas, os médicos interromperam os pacientes. Em visitas a especialistas, 80% dos pacientes foram interrompidos mesmo quando tiveram chance de falar.
A inteligência artificial processa cada palavra que você escreve. Não interrompe. Não olha o relógio. Não tem o próximo paciente esperando. Não ficou acordada de plantão na noite anterior.
O "calor humano" que os defensores da medicina tradicional glorificam é, na prática, um médico apressado que interrompe você em 11 segundos, está pensando no almoço, e cuja decisão clínica muda dependendo se é manhã ou final de tarde.
Kahneman documenta isso: médicos são mais propensos a pedir exames de rastreamento de câncer às 8 da manhã (63,7%) do que às 17h (47,8%). Sua saúde depende do horário da consulta.
O Erro Que Não É Erro: Usar a Ferramenta Errada
Muita gente testa inteligência artificial em contexto médico e conclui que "alucina" ou "erra demais". Quase sempre, o problema é usar a ferramenta errada para a tarefa.
Modelos de resposta instantânea — aqueles sem processamento de raciocínio — funcionam por previsão estatística de tokens. Para perguntas médicas complexas, isso é como consultar um papagaio muito bem treinado. Útil para algumas coisas, perigoso para outras.
Modelos com raciocínio ativado — o que alguns sistemas chamam de "thinking" — funcionam de modo fundamentalmente diferente. Eles avaliam hipóteses, consideram contraindicações, checam interações medicamentosas. É a diferença entre perguntar "qual remédio para dor de cabeça?" e ter um sistema que pergunta "há histórico de úlcera? está tomando anticoagulante? tem alergia a anti-inflamatórios?".
Raciocínio médico é sempre iterativo. Sempre verificador. Sempre agêntico. Usar modelo instantâneo para diagnóstico diferencial é como usar calculadora de padaria para física quântica e depois reclamar que a matemática não funciona.
O Problema do Excesso de Confiança
Uma meta-análise de 2024 publicada na Nature avaliou 83 estudos comparando performance diagnóstica de inteligência artificial com médicos. O resultado geral mostrou que modelos de inteligência artificial não diferem significativamente de médicos em geral (OBS. Modelos anteriores a 2024, infinitamente inferiores aos que temos hoje). Mas há um detalhe interessante: médicos especialistas ainda superavam a inteligência artificial em algumas áreas, enquanto médicos não-especialistas são consistentemente superados. Isso como modelos que sequer tinham funções agenticas, pesquisa na internet e thinking.
Aqui está o problema: você não escolhe qual médico atende você na emergência. Você não sabe se o cardiologista que pegou seu caso está no melhor dia dele ou se acabou de perder um paciente. Você não controla se é manhã ou final de tarde.
Com inteligência artificial, você elimina a loteria do profissional. A variabilidade do sistema é drasticamente menor que a variabilidade entre humanos. E, diferentemente do médico que acha que sabe tudo, a inteligência artificial trabalha com probabilidades declaradas. Ela te diz quando não tem certeza.
Arrogância epistêmica mata.
Literalmente.
O Futuro Que Já Chegou
Médicos não vão desaparecer. O que vai mudar é a hierarquia.
Hoje, o médico é o processador central e o sistema de inteligência artificial é ferramenta auxiliar. A tendência é inverter: inteligência artificial como sistema decisório principal, médico como executor supervisionado.
Isso não é distopia. É reconhecimento de vantagens comparativas.
Humanos ainda têm utilidades insubstituíveis — por enquanto. Nossos polegares opositores e a sensibilidade tátil das pontas dos dedos ainda superam qualquer gripper robótico em custo-benefício. O cérebro opera com 20 watts; uma unidade de processamento gráfico de ponta consome centenas.
Somos atuadores biológicos energeticamente eficientes para tarefas de manipulação física.
Mas para processamento de informação, reconhecimento de padrões em dados, consistência diagnóstica? A biologia perdeu essa disputa há anos. Ainda está em negação.
A Pergunta Incômoda
Se você tem um problema de saúde sério, o que você prefere:
A) Depender da sorte de cair com um médico bom, no dia bom dele, no horário certo, que não vai interromper você em 11 segundos, que está atualizado na literatura, que não está com viés de confirmação do último caso que atendeu, e que não vai errar por fadiga ou pressa?
Ou:
B) Um sistema de baixa dispersão que processa toda a literatura médica disponível, não tem ego, não interrompe, trabalha com probabilidades explícitas, é 9,8 vezes mais empático nas respostas escritas, e mantém consistência independente da hora do dia?
A medicina institucional quer que você acredite que a resposta óbvia é A. Porque o modelo de negócio deles depende disso. Porque o prestígio de uma classe profissional depende disso.
Mas os dados não mentem. E os dados dizem que você está jogando roleta toda vez que entra num consultório.
O Que Fazer Com Isso
Não estou sugerindo que você substitua seu médico por um chatbot. Estou sugerindo que você pare de tratar profissionais de saúde como oráculos infalíveis. E também consulte o chatbot com a mesma visão crítica.
Use inteligência artificial como segunda opinião. Questione condutas. Peça justificativas. Leve pesquisa para a consulta. O médico que se ofende com paciente informado está revelando mais sobre seu ego do que sobre seu conhecimento.
A era do sacerdócio médico acabou. O jaleco branco não confere onisciência. Nunca conferiu.
A diferença é que agora temos instrumentos para medir a dispersão dos tiros. E os números não são bonitos para quem se achava atirador de elite com bacamarte.
Nota do autor: Dou aula de inteligência artificial para médicos. Tenho vários na famíliaClaro o que existe um camimho para o medico humano surfar nessa onda e se hipervalorizar se tornando sobrehumano, isso só nao acontecerá com a maioria.
Conheço profissionais extraordinários. Este texto não é sobre indivíduos — é sobre sistemas. Um sistema que mata 250.000 pessoas por ano por erro e não registra isso nas estatísticas não é um sistema que está funcionando. É um sistema que está funcionando para esconder que não está funcionando.
Os próprios médicos sabem melhor que ninguém as aberrações de seus colegas humanos. E com certeza, não passam 1 dia sem ver um tiro disperso de um doutor de carne e osso.