A questão aqui, do meu ponto de vista, tem mais a ver com transferência de responsabilidade, uma IA pode cometer erros, um médico humano também. A máquina, possui uma lógica implacável, analisa cada detalhe do comportamento, se anexar a isso resultados de exames, medições, estresse, até nuances da voz do paciente a sua chance de acerto pode ser até muito superior a de um humano.
O problema, um humano sempre será um responsável, a empresa por traz da máquina não. Em caso de um erro médico, existe toda uma responsabilidade até criminal. A empresa, vendo isso como uma única forma de obtenção de lucro, vai simplesmente calcular o custo, a maquina errou, vai custar uma indenização de X a cada Y pacientes, no fim, o plano sobe pra Z e pronto. A vida foi reduzia a um valor, passamos a precificar a vida das pessoas.
Nenhuma ciência é exata, nem a matemática que tem as aproximações... o que temos é que algumas são mais exatas do que outra e algumas sofrem menos com a intervenção humana.
2
1
Nesse caso haveria reiterações de erros e as indenizações deveriam subir escalonando. Ao menos é o princípio no judiciario que o crime não pode compensar e ser revertido em calculo, para isso as indenizações e multas devem ser escalonadas e reiterando perda de licença atuação da anvisa e outraas agencias. Pode não funcionar mas são as ferramentas do Estado democrático. Ao menos as IAs não teriam intenção errar. Podem ser auditadas e concertadas, atualizadas, o ser humano não. corporativismo forte erros medicos escondidos. não se pode auditar o que realmente aconteceu. Eu acho que as IAs devem tomas as decisões medicas logo