Google inicia discussão pública para atualizar o “robots.txt” na era das IAs
O Protocolo de Exclusão de Robôs – criado há quase 30 anos – informa aos web crawlers quais diretórios de um site não devem ser visitados. A intenção é criar um novo controle para impedir que o conteúdo de um site seja utilizado para treinar IAs.