As variáveis que temos em mãos atualmente para aprimorar as IAs são:
- Dados
- Arquitetura (Paradigma)
- Qualidade dos prompts (RAGs e Agentes inclusos)
Chips e energia são barreiras para uso massivo, não para a qualidade das respostas. Ou seja, usar chips melhores (consumindo mais energia, na maioria das vezes) não deixa a IA melhor por si só.
Quando temos acesso a chips melhores, podemos treinar uma nova IA que use mais parâmetros, mudando a arquitetura, mesmo que só um pouco.
Sobre os dados de treinamento
Uma característica interessante sobre isso é que o aumento na qualidade das respostas após o treinamento sobre um tipo específico de dados não cresce de forma linear. Se eu dou 100 tutoriais de git para a IA, ela melhora bastante. A mesma coisa para os próximos 1000. Mas se eu der 50 mil tutoriais de git, duvido que ela fique sequer duas vezes melhor.
O máximo que podemos fazer é: dar dados diversos.
A IA vai melhorar em todos os assuntos até atingir um conhecimento mais ou menos uniforme em cada assunto até bater um limite. Um limite onde por mais que eu dê mais exemplos levemente diferentes, isso não leva a um salto, e talvez nem mesmo a uma melhora medível.
E eu acredito que esse limite é o próprio limite do conhecimento humano.
O que me leva para o próximo ponto.
A IA imita, não inova
Nenhum dado, nenhum chip, nenhuma energia fará a IA fazer algo novo, que nenhum ser humano tenha feito. E enquanto ela não for capaz de inovar, não posso considerar ela uma evolução do ser humano.
Arquitetura
Tudo que eu disse só vale para a arquitetura atual de redes neurais. Se for possível reproduzir o real processo de raciocínio de um sistema nervoso (não necessariamente o do ser humano) então ela será, teoricamente, capaz de evoluir até nosso nível e além.
Energia
Acredito que na hora em que não for mais viável aumentar o número de parâmetros a eficiência das LLMs aumentará e menos energia será necessária. E parâmetros não podem ser aumentados ao infinito, dependendo somente da nossa tecnologia. Assim como aumentar o tempo do treinamento causa over fitting, aumentar o número de parâmetros pode causar efeitos colaterais indesejados.
Conclusão
No fim, só consigo imaginar a IA igualando ao ser humano em aparência. Quando ela bater o 100% de capacidade de imitar um ser humano (se é que ela já não alcançou) teremos sim uma pausa na evolução da tecnologia e uma melhora no nosso uso para ela.