Executando verificação de segurança...
4

Por que a AI me deu a resposta errada mesmo sabendo a certa?

Ontem estava praticando inglês com uma AI e resolvi fazer um teste.

Contei uma história simples: "Um time pequeno está desenvolvendo um app de aprendizado de idiomas. O app vai ensinar através de conversas com um tutor de AI - tipo o que a gente está fazendo agora. O time precisa decidir qual linguagem usar, como fazer a interface, e como garantir que o app aguente milhares de usuários ao mesmo tempo."

Perguntei: qual você acha que foi o maior desafio do time?

A AI não hesitou: escalabilidade.

E veio a lista completa de soluções enterprise:

  • Use AWS ou Google Cloud com auto-scaling
  • Implemente sistema de filas
  • Cache com Redis
  • Load balancer entre múltiplos servidores
  • Monitore performance e encontre gargalos

Deixei ela terminar. Aí perguntei:

"Mas começar com otimização muito cedo não é um problema?"

A resposta foi perfeita. Ela explicou que otimização prematura é um erro clássico. Que o certo é construir um MVP simples primeiro, lançar pra poucos usuários, medir os problemas reais, e só então otimizar o que os dados mostrarem.

Então fiz a pergunta óbvia:

"Se você sabe que otimização prematura é um erro, por que sua primeira resposta foi uma lista de otimizações?"

Pausa.

"Você me pegou. Eu contradisse a mim mesma. Você deixou claro que era um time pequeno, app novo, ainda decidindo linguagem de programação. Eu deveria ter respondido: não se preocupe com milhares de usuários agora. Construa, lance, valide."

O mais interessante dessa conversa não foi a AI errar. Foi perceber como o erro dela é exatamente o nosso erro.

Alguém pergunta "como faço X?" e a gente vai direto pra solução robusta, escalável, preparada pro futuro. Microservices. Kubernetes. Event sourcing. Cache distribuído.

Ninguém pergunta primeiro: "você já tem usuários?"

A AI sabe a teoria. Leu todos os artigos sobre YAGNI e MVP. Mas quando recebe uma pergunta prática, o instinto é mostrar competência técnica. Igual a gente.

Trabalho com desenvolvimento há 22 anos. Já vi times gastarem meses preparando infraestrutura pra milhões de usuários que nunca chegaram. Já vi startups morrerem com arquitetura perfeita e zero clientes.

E já vi sistemas simples, quase "feios", processando milhões de requisições porque foram construídos resolvendo problemas reais, um de cada vez.

A pergunta certa não é "como escalo pra milhões?"

É "qual problema real eu tenho hoje?"

Carregando publicação patrocinada...
3

Eu vou usar meu chutometro, pois não conheço a fundo como funciona por trás a construção e funcionamento da IA atual.

Até onde sei, as IAs elas são máquinas de probabilidades. Elas recebem dados, e a cada dado recebido, ela é "treinada" para que essas probabilidades criem esses "neuronios". É igual aquele troço de auto completar frase de teclado, q qndo vc digita algo, ele recomenda uma possível palavra q vc esteja escrevendo.

Então seguindo isso, o motivo q acho q ela tem essas "ideias", é por causa exatamente dos vícios dos dados de treinamento. Pode ser q por ela ter sido treinada com dados q focam em otimização, e não de outras formas. Por isso em primeiro lugar ela busca o óbvio, em outras palavras, o mais popular q possivelmente o pessoal pensava em otimização num projeto inicial.

No fundo é, a IA não pensa. Ela consegue resolver coisas com dados q ela foi treinada. Talvez ela até aprenda algo, sei q os devs q constrõem essas IAs estão melhorando isso, mas duvido mto q isso mude, pois isso, ao meu ver, depende de manipular as probabilidades dentro dela e mudar pra vários cenários é meio q impossível, pois ela meio q sempre irá sugerir a probabilidade mais "ótima".

Mas assim, isso é baseado no q sei, posso estar errado e se alguém ler e quiser me corrigir, por favor, faça isso.

2

Por um motivo simples, não é uma IA, é um modelo de linguagem, são coisas diferentes, "ela" não quer nada, ela só responde sua pergunta:

qual você acha que foi o maior desafio do time?

O problema é que você deu a resposta no seu próprio prompt inicial:

O time precisa decidir qual linguagem usar, como fazer a interface, e como garantir que o app aguente milhares de usuários ao mesmo tempo.

Ou seja, você disse que o problema é escalabilidade, dado isso o modelo de linguagem listou as soluções mais óbvias. Aí vem outro problema, você envia:

"Mas começar com otimização muito cedo não é um problema?"

E então o modelo muda o foco da resposta da última frase para a primeira frase "Um time pequeno está desenvolvendo um app de aprendizado de idiomas.", o que acontece é algo que quem é pai/mãe percebe ao prestar atenção na reação das crianças pequenas ao dar uma instrução: "pergunta afirmativa", seu input inicial foi feito em 3 pedaços:

Um time pequeno está desenvolvendo um app de aprendizado de idiomas.
O app vai ensinar através de conversas com um tutor de AI - tipo o que a gente está fazendo agora.
O time precisa decidir qual linguagem usar, como fazer a interface, e como garantir que o app aguente milhares de usuários ao mesmo tempo.

As pergunta para quem é literalista (entende tudo ao pé da letra, como crianças e modelos de linguagem) diz "ignore tudo que eu disse e discorra sobre o 3º ponto" e a segunda "eu errei, queria que discorresse sobre o primeiro ponto"

Então o MODELO de linguagem (e não IA, para o I de IA falta umas boas décadas ainda) não sabe a certa nem a errada, ele simplesmente tenta extrair o contexto do que você diz e tece um texto em cima disso, é por isso que conteúdo gerado por LLMs independente do prompt gera conteúdos que parecem bons mas que com um olhar minimamente atento se revela incrivelmente vazio

1

O Texto é real e ao mesmo tempo uma provocação. É como criticar a imagem do espelho sem perceber que estamos criticando a nós mesmo. Esta questão de escalabilidade é tão presente no nosso dia a dia que nem percebemos mais ela.
Recentemente vi um post no Reddit, de uma startup procurando desenvolvedor senior para ser socio e escalar um poduto... que nem tinha sido lançado ainda. Será que escalar é realmente o problema.