Maior estudo do tipo aponta que assistentes de IA distorcem notícias em 45% dos casos
O levantamento envolveu 22 organizações de mídia pública de 18 países, abrangendo 14 idiomas. Jornalistas profissionais das emissoras participantes avaliaram mais de 3 mil respostas geradas pelos modelos ChatGPT, Copilot, Gemini e Perplexity, com base em critérios como precisão, confiabilidade das fontes, distinção entre opinião e fato, e qualidade da contextualização.
Os resultados mostram que, independentemente do idioma, 45% das respostas analisadas apresentaram pelo menos um problema significativo; 31% continham falhas graves de atribuição, como ausência, distorção ou incorreção das fontes; e 20% exibiam erros de precisão, incluindo informações fabricadas ou desatualizadas. O Gemini teve o pior desempenho entre os sistemas, com falhas relevantes em 76% das respostas — mais que o dobro dos demais modelos.