Executando verificação de segurança...
7

Seis (ou sete) previsões para IA em 2026 Vindo de um realista de IA

O texto do Gary Marcus mostra uma visão menos extrema, entre a revolução e a inutilidade. Analisando a realidade das pequenas e médias empresas no Brasil, acredito que a IA ainda não trará uma revolução, mas acenderá uma chama para outras tecnologias já consolidadas, como RPA e BI.

Texto traduzido livre.

A Inteligência Artificial Geral (IAG) não se materializou (contrariando as previsões de Elon Musk e outros); o GPT-5 foi decepcionante e não resolveu o problema das alucinações. Os Modelos de Aprendizagem Baseados em Lógica (LLMs) ainda não são confiáveis; a viabilidade econômica parece duvidosa. Poucas empresas de IA, além da Nvidia, estão lucrando, e nenhuma possui uma vantagem competitiva significativa. A OpenAI perdeu grande parte de sua liderança. Muitos concordariam que atingimos um ponto de retornos decrescentes para a escalabilidade; a fé na escalabilidade como caminho para a IAG se dissipou. A IA neurosimbólica (um híbrido de redes neurais e abordagens clássicas) está começando a ganhar força. Nenhum sistema resolveu mais de 4 (ou talvez nenhuma) das tarefas de Marcus-Brundage. Apesar de toda a expectativa, os agentes não se mostraram confiáveis. No geral, segundo minha contagem, dezesseis das minhas dezessete previsões de "alta confiança" sobre 2025 se provaram corretas. (Você pode ver a lista completa aqui).

Previsões para 2026
Aqui estão seis ou sete previsões para 2026; a primeira é um remanescente do ano passado que não surpreenderá mais muita gente.

  • AGI ainda distante: não chegaremos à Inteligência Artificial Geral (AGI) em 2026 (ou 2027). A esta altura, duvido que muitos discordariam publicamente, mas há apenas alguns meses o mundo era bem diferente. É impressionante como a "vibe" mudou em pouco tempo, especialmente com figuras como Sutskever e Sutton manifestando suas próprias preocupações.

  • Robôs domésticos estagnados: robôs humanoides domésticos, como o Optimus e o Figure, serão muito focados em demonstrações e pouco em produtos reais. As análises de Joanna Stern e Marques Brownlee de um protótipo inicial foram contundentes; haverá toneladas de demonstrações em laboratório, mas fazer esses robôs funcionarem nas casas das pessoas será muito, muito difícil, como Rodney Brooks tem dito repetidamente.

  • Corrida da GenAI: Nenhum país assumirá uma liderança decisiva na "corrida" da IA Generativa.

  • Novas abordagens: O trabalho em novas frentes, como modelos de mundo e IA simbólica-neural, irá escalar significativamente.

  • O pico da bolha: 2025 será conhecido como o ano do pico da bolha e também o momento em que Wall Street começou a perder a confiança na IA generativa. As avaliações de mercado podem até subir antes de cair, mas o frenesi da Oracle no início de setembro e o que aconteceu desde então serão vistos, em retrospectiva, como o início do fim.

  • Reação negativa e política: A resistência contra a IA Generativa e a desregulamentação radical irá escalar. Nas eleições de meio de mandato (midterms), a IA será um tema eleitoral pela primeira vez. Trump pode acabar se distanciando da IA devido a essa reação popular.

A Sétima Previsão: Uma Metaprevisão
Esta é uma previsão sobre previsões. Não espero que minhas previsões sejam tão precisas este ano quanto foram no ano passado por um motivo feliz: em todo o campo, a situação intelectual passou de estagnada (focada apenas em LLMs o tempo todo) e irrealista ("a AGI está próxima") para algo mais fluido, realista e de mente aberta. Se algo pode levar a um progresso genuíno, certamente é essa mudança.

Link para a matéria original - https://garymarcus.substack.com/p/six-or-seven-predictions-for-ai-2026?r=2rchy2&utm_medium=ios&shareImageVariant=overlay&triedRedirect=true

Carregando publicação patrocinada...
6

Vou arriscar algumas previsões para 2026:

  • Impeachment de Donald Trump; JD Vance assume em seu lugar e o mercado no USA apoiam; Maduro faz dancinha de vitória e paga-mico no Tiktok.
  • OpenAI quebra e é comprada pela Apple; Outras 2 ou 3 empresas de IA também quebram e são compradas pela Tencent (leia-se China).
  • O mercado de TI respira aliviado com a redução do hype de IA e começa a contratar novamente, aumentando o número de vagas para desenvolvedor.
  • Vini Jr. descobre que Virginia Fonseca só tava interessada nos likes.
2
1
1

Acho que provavelmente quem vai comprar a OpenAI vai ser a Microsoft. A Apple compra muita startup de base, essas que não aparecem na mídia, e sim que pesquisam e produzem conhecimento em tecnologias incipientes e que vão dar retorno a longo prazo

2

A Microsoft já possui (copiou) toda a propriedade intelectual da OpenAI. Se a OpenAI quebrar, não possuirá valor nenhum pra Microsoft. Mas a Apple estaria bastante interessada na equipe da OpenAI e nos modelos que não são open-source.

5

Muitos concordariam que atingimos um ponto de retornos decrescentes para a escalabilidade; a fé na escalabilidade como caminho para a IAG se dissipou.

Os dados contam outra história!!!! Não me parece que está desacelerando.. Muito pelo contrário...

AGI ainda distante: não chegaremos à Inteligência Artificial Geral (AGI) em 2026 (ou 2027). A esta altura, duvido que muitos discordariam publicamente.

Vou discordar: A AGI já chegou e você nem percebeu.

“AGI” é palavrão de VC, mas a máquina já me passou na faixa
Seguinte: chame do que quiser, o rótulo é lixo.

Fato é que a IA já é mais inteligente que eu em qualquer assunto que eu meter a cara.
Ponto. Não é hype, é constatação de quem estuda sério todo dia há mais de 30 anos.

A única discussão que sobra é semântica: não existe definição pra AGI, e isso é feature, não bug. Enquanto o pessoal discutindo se é 50 tarefas ou 500, o modelo já bate 80 % da Olimpíada de Matemática que nunca viu na vida.

Você, eu e 99 % da humanidade não chegamos nos 20 %.

Daqui a dez anos vão olhar pra 2025 e falar:
“Foi ali que a curva ficou vertical, só que a gente tava discutindo o nome do vértice.”
Frase do Kurzweil que sempre repete: “As pessoas superestimam o curto prazo e subestimam o longo prazo.”
Traduzindo: todo mundo espera o foguete, mas o foguete já decolou, só não saiu no Jornal Nacional ainda.

Sam Altman & Cia vão continuar falando “AGI tá longe” porque precisam de mais uma rodada de cap table; a realidade é que a tecnologia pra máquina operar computador indistinguível de humano já existe.

Outra frase que deveria ser clichê. “O futuro já foi inventado, só não foi entregue ainda.”

Discorda? Beleza. Antes de negativar esse post, tenta resolver a prova da Olimpíada de Matemática.

Acreditar que a AGI já chegou não significa acreditar que o hype vai durar pra sempre. O destino da OpenAI, no fim das contas, vai ser o mesmo do Netscape: um nome que aparece em capítulos de livro sobre história da tecnologia, não quem opera o futuro. O Google só veio depois que a bolha já tinha estourado. Os data centers que hoje são o novo petróleo vão virar lixo industrial tão rápido quanto a fibra ótica dos anos 90 virou tubo vazio depois que o capital se evaporou. A bolha vai estourar e vai doer.

Então sim, vai ter sangue na praça. Vai ter unicornio virando estatística, vai ter VP de venture capital falando que “sempre soube que era tudo especulação”. Mas quando o pó baixar, a máquina que faz qualquer coisa melhor que você atrás de um computador vai estar rodando, só que agora num chip de 2 dólares, que vai estar em todos os lugares.

E daqui há 10 anos vai ser mais fácil encontrar um copo Stanley sem chip de IA que um humano que ainda ache que “AGI é coisa de filme”: do mesmo jeito que hoje até a torradeira já vem com Wi-Fi.

A promessa do dot.com se cumpriu. A mesma coisa vai acontecer com a AGI: ela não vai chegar com fanfarra, vai chegar como o mofo, como a Internet.

3

Desculpa te des apontar mas não existe sequer IA em termos estritos quanto mais AGI, um LLM bater 80% das olimpíadas de matemática não é sinônimo que estamos perto da AGI, mas que estamos longe, esquece AGI, vamos para algo muito anterior, AI:

A ideia de algo inteligente é, eu te dou todas as definições, todas as regras, todos os cenários individuais, você me devolve todos o resultado de um cenário composto, é assim que olimpíadas de exatas funcionam

Um LLM acertar 80% indica que ela foi capaz de aprender que existem cenários compostos que se comportam como cenários individuais, mas onde exigiria inteligência alem do aprendizado (ou seja, exige além de memorizar, criatividade) ela falha, num teste de exatas, qualquer percentual inferior a 100% está mais perto de 0% que de 100%, em 1980 algoritmos estavam detectando em emaranhados de dados coisas que nós julgavamos impossíveis de serem detectados, mas isso não tornava mais inteligente que um humano, ela só fazia algo que um ser humano não podia fazer em tempo habil (e nunca vai poder), um exemplo mais concreto: um LLM pode gerar um livro em 10s, um ser humano não vai conseguir isso nunca, mas um ser humano consegue escrever um livro, a questão é diferença de tempo

Então a grande pergunta é ao LLMs são mais inteligentes ou mais rápidos para produzir uma resposta que humanos?

Se assumir que são mais inteligentes, velocidade é o mesmo que inteligência? Então um super cluster rodando um modelo de 1.5 bit vai ser mais inteligente que um desktop rodando um modelo de 16 bit?

0

Cara, entendo teu ponto, e é muito justo. E sim, acredito que uma ameba é mais inteligente que os modelos estado-da-arte se a gente for rigoroso com o que “inteligência” de fato significa. E sim, concrodo que estamos longe de qualquer “inteligência artificial”. Só que não estou nem aí pra definição, estou olhando o lado prático: realizer tarefas que exigem capacidade cognitiva. Porque no fim das contas “AI” nasceu em 1955 como clickbait pra angariar verba para uma pesquisa verão, um slogan no grant proposal. Nunca foi o objetivo final.

McCarthy, 2004: “We needed a name that would seem exciting but not too narrow…”

“AGI” é só o rebranding que a indústria deu pro velho slogan quando ele esgotou sua capacidade de conseguir investimentos. Simples assim.

Eu não carrego essas etiquetas nem o guarda-chuva.

Estou dizendo apenas o seguinte, qualquer tarefa que eu executar através de uma tela e teclado, o modelo faz melhor (e mais rápido também). Estou falando de mim. Talvez você seja mais inteligente e o modelo não te supere…mas eu te garanto: ele me supera em qualquer coisa que eu tentar fazer no computador. Se isso não é “inteligência”, tudo bem, chama de autocomplete, chama de giló, chama do que quiser.