Executando verificação de segurança...
5

Muitos concordariam que atingimos um ponto de retornos decrescentes para a escalabilidade; a fé na escalabilidade como caminho para a IAG se dissipou.

Os dados contam outra história!!!! Não me parece que está desacelerando.. Muito pelo contrário...

AGI ainda distante: não chegaremos à Inteligência Artificial Geral (AGI) em 2026 (ou 2027). A esta altura, duvido que muitos discordariam publicamente.

Vou discordar: A AGI já chegou e você nem percebeu.

“AGI” é palavrão de VC, mas a máquina já me passou na faixa
Seguinte: chame do que quiser, o rótulo é lixo.

Fato é que a IA já é mais inteligente que eu em qualquer assunto que eu meter a cara.
Ponto. Não é hype, é constatação de quem estuda sério todo dia há mais de 30 anos.

A única discussão que sobra é semântica: não existe definição pra AGI, e isso é feature, não bug. Enquanto o pessoal discutindo se é 50 tarefas ou 500, o modelo já bate 80 % da Olimpíada de Matemática que nunca viu na vida.

Você, eu e 99 % da humanidade não chegamos nos 20 %.

Daqui a dez anos vão olhar pra 2025 e falar:
“Foi ali que a curva ficou vertical, só que a gente tava discutindo o nome do vértice.”
Frase do Kurzweil que sempre repete: “As pessoas superestimam o curto prazo e subestimam o longo prazo.”
Traduzindo: todo mundo espera o foguete, mas o foguete já decolou, só não saiu no Jornal Nacional ainda.

Sam Altman & Cia vão continuar falando “AGI tá longe” porque precisam de mais uma rodada de cap table; a realidade é que a tecnologia pra máquina operar computador indistinguível de humano já existe.

Outra frase que deveria ser clichê. “O futuro já foi inventado, só não foi entregue ainda.”

Discorda? Beleza. Antes de negativar esse post, tenta resolver a prova da Olimpíada de Matemática.

Acreditar que a AGI já chegou não significa acreditar que o hype vai durar pra sempre. O destino da OpenAI, no fim das contas, vai ser o mesmo do Netscape: um nome que aparece em capítulos de livro sobre história da tecnologia, não quem opera o futuro. O Google só veio depois que a bolha já tinha estourado. Os data centers que hoje são o novo petróleo vão virar lixo industrial tão rápido quanto a fibra ótica dos anos 90 virou tubo vazio depois que o capital se evaporou. A bolha vai estourar e vai doer.

Então sim, vai ter sangue na praça. Vai ter unicornio virando estatística, vai ter VP de venture capital falando que “sempre soube que era tudo especulação”. Mas quando o pó baixar, a máquina que faz qualquer coisa melhor que você atrás de um computador vai estar rodando, só que agora num chip de 2 dólares, que vai estar em todos os lugares.

E daqui há 10 anos vai ser mais fácil encontrar um copo Stanley sem chip de IA que um humano que ainda ache que “AGI é coisa de filme”: do mesmo jeito que hoje até a torradeira já vem com Wi-Fi.

A promessa do dot.com se cumpriu. A mesma coisa vai acontecer com a AGI: ela não vai chegar com fanfarra, vai chegar como o mofo, como a Internet.

Carregando publicação patrocinada...
3

Desculpa te des apontar mas não existe sequer IA em termos estritos quanto mais AGI, um LLM bater 80% das olimpíadas de matemática não é sinônimo que estamos perto da AGI, mas que estamos longe, esquece AGI, vamos para algo muito anterior, AI:

A ideia de algo inteligente é, eu te dou todas as definições, todas as regras, todos os cenários individuais, você me devolve todos o resultado de um cenário composto, é assim que olimpíadas de exatas funcionam

Um LLM acertar 80% indica que ela foi capaz de aprender que existem cenários compostos que se comportam como cenários individuais, mas onde exigiria inteligência alem do aprendizado (ou seja, exige além de memorizar, criatividade) ela falha, num teste de exatas, qualquer percentual inferior a 100% está mais perto de 0% que de 100%, em 1980 algoritmos estavam detectando em emaranhados de dados coisas que nós julgavamos impossíveis de serem detectados, mas isso não tornava mais inteligente que um humano, ela só fazia algo que um ser humano não podia fazer em tempo habil (e nunca vai poder), um exemplo mais concreto: um LLM pode gerar um livro em 10s, um ser humano não vai conseguir isso nunca, mas um ser humano consegue escrever um livro, a questão é diferença de tempo

Então a grande pergunta é ao LLMs são mais inteligentes ou mais rápidos para produzir uma resposta que humanos?

Se assumir que são mais inteligentes, velocidade é o mesmo que inteligência? Então um super cluster rodando um modelo de 1.5 bit vai ser mais inteligente que um desktop rodando um modelo de 16 bit?

0

Cara, entendo teu ponto, e é muito justo. E sim, acredito que uma ameba é mais inteligente que os modelos estado-da-arte se a gente for rigoroso com o que “inteligência” de fato significa. E sim, concrodo que estamos longe de qualquer “inteligência artificial”. Só que não estou nem aí pra definição, estou olhando o lado prático: realizer tarefas que exigem capacidade cognitiva. Porque no fim das contas “AI” nasceu em 1955 como clickbait pra angariar verba para uma pesquisa verão, um slogan no grant proposal. Nunca foi o objetivo final.

McCarthy, 2004: “We needed a name that would seem exciting but not too narrow…”

“AGI” é só o rebranding que a indústria deu pro velho slogan quando ele esgotou sua capacidade de conseguir investimentos. Simples assim.

Eu não carrego essas etiquetas nem o guarda-chuva.

Estou dizendo apenas o seguinte, qualquer tarefa que eu executar através de uma tela e teclado, o modelo faz melhor (e mais rápido também). Estou falando de mim. Talvez você seja mais inteligente e o modelo não te supere…mas eu te garanto: ele me supera em qualquer coisa que eu tentar fazer no computador. Se isso não é “inteligência”, tudo bem, chama de autocomplete, chama de giló, chama do que quiser.