Aceitaram quase tudo como moral que é quase impossível discutir moral e idealizar essa máquina.
O carro faltou freio só a 2 direções: atropelar um humano ou um cachorro.
Os quê tentarem programar a máquina moral para atropelar o cachorro serão perseguidos por um monte de ONG, ativistas, etc. Será ameaçado e até a família dele correrá risco de morte.
<sarcasmo>E se bobear, vão fazer mais barulho e reclamar muito mais por causa dos carros que atropelam cachorros do que os que atropelam pessoas.</sarcasmo>
Acho que o teste desse site aí tem um viés terrível: estamos no conforto de nossas casas olhando a situação de fora, e claro que a maioria vai acabar escolhendo salvar vidas.
Mas se eu estivesse dentro do carro, será que eu ia preferir que ele atropelasse algumas pessoas, ou batesse no muro, correndo o risco de me matar?
Não é nada simples resolver isso. A solução simplista seria simplesmente salvar a maior quantidade de vidas. Mas aí quem vai querer comprar um carro que numa situação dessas escolhe matar o motorista?
A problemática é similar (se não idêntica) ao que já acontece hoje. A solução simplista q vc mencionou seguiria princípios utilitaristas:
De acordo com o utilitarismo as consequências das ações morais devem ser compreendidas como essenciais na tomada de decisão de como o indivíduo deve agir. Inspirado nas éticas hedonistas (que associam a moral ao prazer), o utilitarismo defende que o agir ético deve visar garantir a felicidade do maior número de pessoas possíveis (princípio de utilidade), mesmo que para isso tenha que sacrificar a minoria.
Ref
Inclusive tem um jogo muito massa (de assistir até), chamado Trolley Problem Inc, que discute esses problemas baseado em várias ramificações do dilema do bonde.
Acontece que por mais que as IAs avancem até o ponto de só existirem carros autônomos, o ser humano replica os vieses, problemas e até preconceitos nas tecnologias que produz. Um exemplo disso é o representado no documentário coded bias, no qual o reconhecimento facial não funcionava em pessoas pretas.
É uma pergunta sem resposta, mas muito interessante de se pensar.
Acho que sempre tivemos responsabilidades, só que muitas vezes não era tão aparente.
Certa vez vi uma palestra do Martin Fowler na qual ele cita um exemplo hipotético de um gerente que pede ao programador para criar um código malicioso que - de propósito - cobrasse dos clientes um valor indevido. Por mais que exista a "pressão" por parte dos superiores, juntamente com a ameaça de demissão, no fim das contas continua sendo uma escolha nossa seguir ou não tais ordens. Não seja apenas um code monkey, disse ao final.
Enfim, sempre tivemos responsabilidade: no fim nosso sistema vai ser usado por alguém e cada escolha que fazemos pode ter impactos - seja positivos ou negativos - na vida dessas pessoas. Por exemplo, um sistema mal projetado (que foi feito assim por N motivos, algumas vezes por culpa do programador desleixado) que cai toda hora faz com que um usuário não possa ser atendido - e aí ele tem que voltar outro dia, mas aí a pessoa já pode ter perdido algum prazo e se ferrado, ou não tem condições de voltar pois mora muito longe, etc.
Muitas vezes a gente não percebe todo o impacto que temos, porque em muitas empresas a estrutura faz com que fiquemos distantes do usuário final. No caso da IA, esse problema só fica potencializado. A responsabilidade aumenta, e os impactos também.