Só tem um problema, é difícil validar as alucinações, pois IAs generativas utilizam de pura estatística para responder a seus usuários, ou seja, ela gera as respostas mais prováveis de aceitação com base no que o usuário insere no prompt.
Além é claro de utilizar a internet como base para treinamento, e o que está na internet ne sempre é um verdade absoluta, mas sim muitas das vezes um visão conceitual de algo, o MP solicitar isso a openAI é a mesma coisa que tacar a verdade na cara do Brasileiro dizendo que ele é um analfabeto funcional. A veracidade das informações depende unica e exclusivamente dos usuários que consomem o produto, utilizar das plataformas como verdade absoluta é burrice exclusiva do usuário / cliente, o agente de IA é uma ferramenta, assim como os livros, se eu chegar em alguém que não é alfabetizado e dizer que 2 + 2 é 5 , e a pessoa não buscar outros pontos de vista ou outra fonte é erro dela e não meu, eu preguei a minha verdade. Se alguém adotou ela para si já não é problema meu.
Eles querem impor a uma ferramenta algo que é de responsabilidade deles, os fundamentos de como buscar o por que das coisas deve ser passado na escola, eu já disse e repito, o problema no Brasil é a educação populacional, o estado ensina a decorar as coisas e não a entende-las e questiona-las.
Esse projeto só abre brechas para controle da informação, pois quem garante que o agente está alucinando, isso é medido com base em que ?, na minha opinião, o dever de verificar a veracidade das informações geradas por agentes ou qualquer outro meio que seja é de total responsabilidade do usuário, e não da ferramenta.