Executando verificação de segurança...
3

Primeiro: o ChatGPT não sabe de nada. Ele cria textos baseando-se em estatísticas avançadas dentro de uma base de dados que ele tem. Essa base foi obtida em parte na internet e ela tem cada vez mais informação errada, inclusive já produzida por ele, e já há estudo sobre isso, ou seja, ele não é confiável e as pessoas não deveriam tratá-lo, na maioria das situações que vai gerar informação, como algo mais que um brinquedo. Ele não entende oque está dizendo. E não sabe como as pessoas vão entender aquilo.

Um erro que ele cometeu porque quase tudo o que tem na internet está errado é desconsiderar que existem diversas formas do lado do cliente e servidor, e por isso há diversos níveis de segurança em cada um. Ele até mostra que só está olhando para o JavaScript e está desconsiderando que o código do servidor pode ser aberto, e ainda que só há vulnerabilidade entre desconhecidos.

Também é um erro porque o nível de segurança está mais ligado a outros fatores e pode acontecer exatamente o contrário, não podemos reduzir a simplesmente onde está o código.

É verdade que um fator específico faz o código no lado do servidor mais seguro, mas todos os outros podem eliminar essa vantagem.

Ele não está totalmente errado, e isso pode ser o pior. Quando há um erro é melhor que seja um fácil de perceber. Infelizmente as pessoas que têm menos condições de confiar no CHatGPT são as que mais estão confiando.

Analisar segurança olhando poucos aspectos e achar que algo está seguro, ou seja, fazer segurança ingenuamente, é o maior motivo para a segurança ser ruim. Se tem alguém que não pode ajudar com segurança é o ChatGPT. Uma pena ele não deixar isso claro. Pior ainda é deixar claro para outras coisas que causam bem menos dano, porque dá a ideia que aquilo é muito ruim e isto é confiável.

Fez bem em vir aqui verificar isso. Muita gente não o faz e está danificando seu cérebro. Sei que muitos não vão querer ver mas estou fazendo a minha parte: https://www.youtube.com/watch?v=Fw8fJxWhQX8. O que veremos a seguir é uma aceleração da deterioração humana. Esse é o verdadeiro temor sobre a IA.

Faz sentido para você?

Espero ter ajudado.


Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).

Carregando publicação patrocinada...
Conteúdo excluído
2

Eu acho que o alerta sobre o ChatGPT é importantíssimo, pois muita gente está achando que ele "sabe tudo", que não erra, etc. E como o post foi todo gerado no ChatGPT, então tem tudo a ver sim. O comentário não está falando mal só por falar, está fazendo uma crítica dura, porém válida, pois é importante desmistificar as IA's e apontar suas limitações.

Sobre o assunto, sugiro que leia aqui (e veja o vídeo, e siga todos os links indicados) para entender melhor como funcionam essas IA's geradoras de texto.

Eu vejo valor no comentário porque ataca dois problemas de uma vez: aponta as falhas no texto em si (partes que estão incompletas ou erradas mesmo), e alerta para as limitações da ferramenta que o gerou. Ambos são importantes para que as pessoas não achem que segurança é algo tão simples assim, e parem de achar que o ChatGPT é bom o bastante para suprir qualquer lacuna de conhecimento. Ele é um bom complemento, desde que usado com ressalvas, só não pode achar que apenas ele é o suficiente (sempre consulte outras fontes).

1

Explicando: O copy/paste da resposta do GPT era apenas para fazer um contra-ponto para uma pergunta que já imaginava que seria polêmica, e não para tomar o GPT ou qualquer outra LLM como verdade, muito embora a resposta está embasada com alguns links. O objetivo era ter opiniões técnicas relacionadas a segurança.