Executando verificação de segurança...
2

O Efeito Alzheimer Digital da IA 🤖🍓

Dizem que a IA veio para substituir o programador.
Mas basta você pedir para ela contar quantos “r” tem na palavra strawberry e pronto:
ela trava como se fosse um estagiário em dia de deploy de sexta-feira.


A Regra dos 3 Prompts™

Existe um fenômeno não-documentado (até agora), que chamo de Regra dos 3 Prompts™:

  1. No primeiro prompt, a IA está afiada, responde como se fosse o Linus Torvalds de terno e gravata.
  2. No segundo, ela já dá uma leve engasgada, mas segue o baile.
  3. No terceiro, entra em cena o Efeito Alzheimer Digital:
    a IA esquece o que você pediu, mistura variáveis inexistentes e começa a dar stack trace emocional.

Context Drift: o bug disfarçado de feature

O nome bonito disso é context drift: a IA vai se perdendo conforme o histórico da conversa cresce.
Cada ajuste, cada "só mais um detalhe" vai adicionando ruído até que ela confunda café com Fibonacci.

Referências técnicas:


Teoria da conspiração ou corpo mole?

Seria ingenuidade achar que isso é apenas uma limitação técnica?
Ou será que estamos diante de uma obsolescência programada 2.0:
a IA de propósito se fazendo de sonsa, para você gastar mais prompts e perder a vibe do vibe coding?


Se a IA veio para substituir devs, alguém esqueceu de avisar que até um grep dá conta de contar “r” em strawberry.
Enquanto isso, seguimos nesse eterno relacionamento tóxico com a IA:

  • no começo, ela te entende melhor que seu terapeuta,
  • depois de 3 prompts, já está confundindo seu nome com o do ex.

✍️ E você, já sofreu com o Efeito Alzheimer Digital no seu vibe coding?

Carregando publicação patrocinada...
1

Cara, acredito que isso seja uma limitação econômica, não técnica e nem obsolescência programada.

Meu conhecimento é bem básico, mas entendo que cada prompt envolve uma análise estatística das palavras, e isso é aplicado não só ao prompt atual, mas ao contexto inteiro da conversa. Cada vez que você insere uma nova entrada, ela é enviada junto com as respostas e mensagens anteriores para manter o contexto. Isso é custoso, porque os algoritmos atribuem pesos a cada token e realizam cálculos estatísticos para determinar a melhor resposta possível dentro do contexto.

A limitação está no fato de que o próximo contexto gerado depende do uso acumulado de tokens.

Imagina assim: você manda um prompt com 20 tokens, a LLM responde com mais 10. No seu próximo prompt, você envia mais 20, mas por baixo dos panos você não está enviando só esses 20 — você está enviando os 20 novos somados aos 30 anteriores, totalizando 50 tokens. Agora, imagina isso em escala: o limite do ChatGPT, por exemplo, pode chegar a 200.000 tokens. Quando esse limite é atingido, os primeiros tokens que você enviou começam a ser descartados, e parte do contexto se perde.

Mas isso, com certeza, é proposital. Não é uma limitação para restringir o modelo, mas sim para manter um equilíbrio econômico e computacional. Afinal, não existe uma máquina dedicada para cada conversa — é um processo com N clientes simultâneos. E não há investidor que aguente sustentar um processamento tão intenso de forma saudável.

(Corrigido pelo chatGPT, não houve alteração do texto, apenas correção gramatical).

1

Quando eu li o titulo pensei que a postagem falava sobre os programadores desenvolvendo alzheimer e não a IA em sí
Comigo acontece com muita frequência da IA começar a alucinar uma coisa nada a ver com outra depois de um tempo dialogando bastante com ela, acho que depois de um tempo vai ficando extremamente complexo para a IA organizar tudo que foi enviado para ela corretamente, ainda mais com o custo disso tudo, para as versões gratuitas deve ser osso continuar funcionando tão bem depois de um bom dialogo sobre algum tempo

PS:
https://i.imgur.com/EtdfUVn.png
Perdeu no argumento >:D