Profissionais de IA lançam projeto que busca “envenenar” web crawlers com dados incorretos
Um pequeno grupo de profissionais do setor de inteligência artificial está convocando pessoas contrárias ao atual rumo da tecnologia a participar de um esforço coletivo de envenenamento de dados, com o objetivo de enfraquecer esses sistemas.
A iniciativa, chamada Poison Fountain, propõe que administradores de sites adicionem links específicos em suas páginas para fornecer dados de treinamento “envenenados” a web crawlers de IA, que visitam sites e coletam informações posteriormente usadas no treinamento de modelos.
Quando os dados coletados são corretos, os modelos tendem a gerar respostas de melhor qualidade. Quando esses dados são incorretos, o efeito é o oposto.
No caso do Poison Fountain, os dados envenenados disponibilizados nos links consistem em código propositalmente errado, com falhas lógicas sutis e outros tipos de bugs.
Segundo uma fonte próxima ao projeto, que trabalha em uma grande empresa dos EUA envolvida no atual boom da IA, o objetivo da iniciativa é conscientizar o público sobre o “calcanhar de Aquiles” desses sistemas, destacando a facilidade com que modelos podem ser envenenados.
Outras pessoas ligadas ao projeto, estimadas em cerca de cinco, também teriam vínculos com grandes empresas de IA dos Estados Unidos.