Executando verificação de segurança...
1

Projeto de lei nos EUA propõe limitar responsabilidade de empresas de IA em casos críticos

O projeto de lei SB 3444, apresentado no estado de Illinois, nos Estados Unidos, prevê a limitação da responsabilidade de desenvolvedores de inteligência artificial em situações classificadas como “danos críticos”, como mortes em massa ou prejuízos de pelo menos 1 bilhão de dólares causados por sistemas de IA.

A OpenAI declarou apoio ao projeto, argumentando que a proposta ajuda a reduzir riscos graves sem impedir a inovação e evita a criação de regras diferentes em cada estado.

O texto estabelece que as companhias não poderão ser responsabilizadas caso não tenham agido de forma intencional ou negligente, desde que publiquem relatórios relacionados à segurança, transparência e proteção de seus sistemas.

A medida se aplicaria a modelos treinados com custos superiores a 100 milhões de dólares, abrangendo empresas como Google, Meta, Anthropic e xAI. O projeto também prevê proteção às companhias em cenários como o uso da IA para desenvolvimento de armas químicas, biológicas ou nucleares, ou quando sistemas executarem ações que seriam consideradas crimes se realizadas por humanos.

Apesar disso, uma pesquisa realizada com moradores de Illinois indica que 90% da população é contrária à medida.

Carregando publicação patrocinada...