Executando verificação de segurança...
6

🚨 Devs, atenção: cuidado com o que você conversa em chats de IA!

Recentemente, veio à tona que a OpenAI monitorou conversas no ChatGPT que descreviam cenários de violência armada e chegou a considerar alertar a polícia. No fim, não reportou — mas o caso expõe algo que muitas vezes esquecemos: nossas interações com modelos de IA não são privadas.

Esses sistemas registram, analisam e podem compartilhar informações quando identificam conteúdo considerado nocivo ou suspeito. Isso levanta questões sérias sobre espionagem corporativa.

Para nós, devs, fica o alerta: não trate chats de IA como espaços confidenciais. Evite compartilhar dados sensíveis, informações pessoais ou detalhes de projetos que não deveriam sair da sua máquina.

Carregando publicação patrocinada...
1
1

Já faz bastante tempo desde que eles admitiram isso. Segundo eles, quando a conversa tem um tom "criminoso", uma IA alerta para um human revisar se pode ser um potencial crime e então informar a policia.

1

Que bom que isso acontece, né?
É assim para coisas físicas também... Como terapia psicológica e entre outras coisas. Acho que não existe e nem deveria existir privacidade absoluta quando falamos desse poder de acesso a informação.