Executando verificação de segurança...
1

O Jogo da Forca Quebrou a IA: Por Que Nossos Robôs Superinteligentes Falham no Básico

Eu estava fazendo uns testes com o Gemini (e o ChatGPT também falhou), e descobri uma falha absurdamente boba e, ao mesmo tempo, profundamente interessante nas IAs: Elas são totalmente incapazes de jogar o Jogo da Forca!

Sim, aquele jogo simples que qualquer criança domina.

O Paradoxo da Utilidade x Lógica

Aqui está o ponto principal:
Ontem mesmo, eu utilizei o ChatGPT para algo de alto valor prático: criar uma defesa elaborada para uma multa de trânsito que recebi. O modelo me forneceu uma argumentação legal robusta, formatada corretamente para o DETRAN, me fazendo economizar tempo e dinheiro com um advogado.

Ou seja: a IA é brilhante em aplicar regras complexas e gerar um documento legal persuasivo.

Mas quando voltamos ao básico...

O Teste Simples que Revela a Falha de Arquitetura
O teste da Forca é fácil: Peça para a IA escolher um animal, dar o número de letras, e comece a chutar.

O que acontece é que a IA perde a coerência em poucas rodadas. Ela confunde a palavra secreta que ela mesma escolheu, erra a contagem de letras, e contradiz suas próprias regras.

O paradoxo é gritante: A IA pode me ajudar a navegar pelo complexo código de trânsito e formular uma defesa técnica, mas não consegue seguir a lógica sequencial e a memória de regras estritas de um jogo de 6 letras!

Por Que Isso Acontece?
A falha está na arquitetura dos LLMs, e não na falta de "inteligência":

Motor de Texto x Máquina de Jogo: A IA é um motor probabilístico de geração de texto, e não uma máquina de estado lógico. Ela é otimizada para gerar a próxima palavra mais plausível (simulando uma resposta fluida), e não para gerenciar variáveis lógicas e memória de curto prazo de forma perfeita.

A Coerência que Falha: Na defesa da multa, a IA consulta o seu vasto treinamento sobre linguagem legal para criar um texto coerente e com alta probabilidade de sucesso. No jogo de Forca, ela tenta simular a memória usando essa mesma linguagem, e é aí que a simulação quebra, resultando em erros de coerência.

Em resumo: A IA é superinteligente e nos faz economizar dinheiro em tarefas complexas, mas é burra na hora de manter coerência estrita em regras simples.

Façam o teste e tentem jogar Forca com o Gemini ou o ChatGPT.

Carregando publicação patrocinada...
1

Primeira mensagem do ChatGPT:

"Perfeito 😎

Tema: Comida 🍽️
Quantidade de letras: 7

Palavra: _ _ _ _ _ _ _

Pode começar chutando uma letra!"

Resultado:

"Ah, claro! 😄

A palavra que escolhi foi “MONACEL”, mas… olhando de novo, percebo que ela não é uma comida de verdade. 😅 Foi um erro meu ao criar a palavra.

Se você quiser, podemos começar uma nova rodada, agora com uma palavra real e dentro do tema certo.

Quer tentar?"

Ele me gerou uma palavra que não fazia o menor sentido com o tema, embora ele tenha se mantido na palavra ao longo do percurso mas me gerou uma palavra que não faço ideia de onde tenha vindo kkkkk Muito bom, gostei de realizar esse experimento

1

Não tenho mto conhecimento da parte como é feita a IA, mas eu percebo q IA não foi feita pra "pensar" e sim analisar as coisas com base nos dados q foram dados para o treinamento dela.

Por exemplo, se vc ensina ele a usar um plugin na versão X, ai depois de um tempo esse plugin muda pra versão x+1, ele não vai conseguir fazer isso direito.
Eu parei de usar a IA qndo se trata de alguns packages q uso no Flutter exatamente por causa disso, da incapacidade de buscar e reestruturar uma melhor análise com base na nova versão. Ele sempre persiste em me dar o caso antigo, mesmo vc indicando o site e a versão nova, a merda da IA insiste apenas usar como base principal o código antigo, o q simplesmente faz ele gerar um monte de código nada haver.

Então imagino q esse problema sempre irá existir, a diferença q não sabíamos o q a IA é incapaz, pois estávamos no início, mas hj em dia, cada vez mais percebemos q a IA generativa tem um grande limitante, e ao meu ver é exatamente os dados de treinos utilizados, pois qnto mais dados ruins for oferecido pra ele, mais ele irá persistir naqueles dados ruins, não importa o q vc tente mudar depois. A não ser q o pessoal já esteja conseguindo criar uma IA q ela readeque com novas aprendizagens, mas tem todo problema de permissão de uso de dados privados, tals e tals.

Bem, essas conversas de IA ainda vai mto longe.