Executando verificação de segurança...
3

Olhar Digital e outros portais publicando notícias geradas por IA sem checagem

O que vocês acham quando um site de tecnologia publica uma notícia sem verificar as informações e ainda usa IA para gerar o texto?

Leiam isso antes de responder: https://olhardigital.com.br/2026/03/08/curiosidades/material-supercondutor-criado-na-coreia-do-sul-conduz-eletricidade-sem-gerar-calor/

Quase compartilhei a notícia. Quase fui falar com os professores da faculdade. Fiquei realmente empolgado, achando que era algo que poderia mudar a vida de todos e revolucionar o mundo da tecnologia.

Recentemente observei um exemplo que levanta essa dúvida. A matéria apresenta um texto genérico, sem detalhes concretos, sem fontes claras e sem evidências de que houve uma verificação atual dos fatos. A impressão é que pode ter sido produzida ou adaptada por inteligência artificial a partir de alguma notícia antiga, possivelmente já desmentida, mas reescrita como se fosse algo novo.

Esse tipo de prática é preocupante. Quando portais conhecidos, como o Olhar Digital, ou outros sites de tecnologia, publicam conteúdos sem uma checagem adequada, existe o risco de espalhar desinformação em grande escala. A IA pode ajudar muito na produção de conteúdo, mas não substitui o trabalho essencial do jornalismo: investigar, confirmar e contextualizar os fatos.

Se uma notícia não apresenta fontes, dados verificáveis ou contexto atualizado, ela pode ser apenas uma reciclagem automática de conteúdo antigo. E quando isso acontece, o leitor acaba consumindo algo que parece informação, mas que na prática pode não passar de um texto bem escrito sem base real.

A tecnologia evoluiu muito, mas a responsabilidade com a informação deveria evoluir junto. Usar IA para ajudar a escrever é uma coisa. Usar IA para publicar notícias sem verificação é outra bem diferente.

Fica a pergunta: estamos caminhando para uma era em que notícias são publicadas primeiro e verificadas depois? Ou pior, nunca verificadas? 🤔

Carregando publicação patrocinada...
1

mano, recentemente vazou um advogado que no processo tinha um trecho do gpt, não se chegaram a ver, mas era nitidamente o gpt perguntando se ele precisava de mais alguma coisa ou algo assim, e o cara nao se deu ao trabalho de ler o output e editar ele pra por no processo, pra ver se estava de acordo ou tava legal pra por, acho q no jornalismo deve ta nessa pegada, em toda profissao tem aquele cara q leva a parada nas coxas, q faz um serviço relaxado, como ja comentado aqui, a Ia em si ajuda, mas caberia ao encarregado de conferir, chegar, ajustar, agora os caras querem diminuir o trampo pra morcegar mais, e dai sai essas pérolas ai !!

agora requentar materia dando um tapa nela pra parecer q é coisa nova, isso é zoado e muita gente emocionada nao tem a curiosidade e muito menos se preocupa em ir checar as informações, isso q eh o tenso, pq a desinformaçao vai mais longe por assim dizer!

1

E o fato desses casos só serem resolvidos depois do estrago, é que nem todo mundo que leu o "artigo errado" lerá o "artigo corrigido". E pode acontecer mesmo em portais mais renomados, exemplo:

O ideal seria isso não acontecer, mas como sabemos, sempre há uma pequena chance de algum deslize. Isso já era um problema antes de IA, assim como a divulgação intencional de notícias falsas, mas agora tende a ser mais intenso.