Executando verificação de segurança...
2

Anthropic utilizará conversas de usuários com Claude para treinar modelos

Após o dia 28 de setembro, a Anthropic passará a utilizar conversas de usuários com o Claude, incluindo suas sessões de programação, para treinar seus modelos de IA. Pessoas que participarem do programa terão seus dados retidos nos servidores da empresa por cinco anos, em contraste com o período padrão de até 30 dias.

As novas políticas se aplicam a usuários do Claude Free, Pro e Max, incluindo quem utiliza o Claude Code. Clientes corporativos que usam Claude Gov, Claude for Work, Claude for Education ou acesso via API não serão afetados. Segundo a Anthropic, a mudança é apresentada como uma questão de escolha, e visa ajudar a melhorar a segurança do modelo e suas habilidades em programação e raciocínio.

Os usuários que usam o Claude verão uma janela pop-up avisando sobre as mudanças, incluindo uma caixa de seleção onde é possível ativar ou desabilitar o treinamento de outros modelos a partir de conversas com o modelo. A configuração também pode ser encontrada nas configurações de privacidade.

Carregando publicação patrocinada...