Desculpa te des apontar mas não existe sequer IA em termos estritos quanto mais AGI, um LLM bater 80% das olimpíadas de matemática não é sinônimo que estamos perto da AGI, mas que estamos longe, esquece AGI, vamos para algo muito anterior, AI:
A ideia de algo inteligente é, eu te dou todas as definições, todas as regras, todos os cenários individuais, você me devolve todos o resultado de um cenário composto, é assim que olimpíadas de exatas funcionam
Um LLM acertar 80% indica que ela foi capaz de aprender que existem cenários compostos que se comportam como cenários individuais, mas onde exigiria inteligência alem do aprendizado (ou seja, exige além de memorizar, criatividade) ela falha, num teste de exatas, qualquer percentual inferior a 100% está mais perto de 0% que de 100%, em 1980 algoritmos estavam detectando em emaranhados de dados coisas que nós julgavamos impossíveis de serem detectados, mas isso não tornava mais inteligente que um humano, ela só fazia algo que um ser humano não podia fazer em tempo habil (e nunca vai poder), um exemplo mais concreto: um LLM pode gerar um livro em 10s, um ser humano não vai conseguir isso nunca, mas um ser humano consegue escrever um livro, a questão é diferença de tempo
Então a grande pergunta é ao LLMs são mais inteligentes ou mais rápidos para produzir uma resposta que humanos?
Se assumir que são mais inteligentes, velocidade é o mesmo que inteligência? Então um super cluster rodando um modelo de 1.5 bit vai ser mais inteligente que um desktop rodando um modelo de 16 bit?