Pelo que eu entendi, você está dizendo que linguagem é uma forma de, a partir de dados brutos, adquirir conhecimento aplicando interpretação.
Não sei dizer se isso é certo ou errado, mas usando isso como hipótese, implica-se logicamente que conhecimento é desnecessário.
Existem diversos sistemas que analisam dados brutos e fazem otimizações de processos sem usar uma linguagem. Nem preciso ir tão longe, a rede neural que o Universo Programado usa para jogar o jogo do dinossauro do chrome responde aos dados brutos (informações em tempo real do dinossauro e seu ambiente) e toma ações (pré-selecionadas, eu admito).
O que são os Large Language Models (LLMs) senão sistemas incrivelmente poderosos para entender e gerar... linguagem? Eles internalizaram as regras e símbolos do nosso sistema a partir de trilhões de exemplos.
Eles entendem regras gramaticais no sentido de usar elas, mas por repetir padrões, não entendimento.
É aqui que devemos nos libertar da mentalidade "LLM = chatbot". O verdadeiro poder está em usar o LLM como um componente cognitivo, dentro de um sistema "inteligente" muito maior.
Não sei o que você quis dizer por componente cognitivo. Uma LLM tem um fator aleatório, mas isso não significa que ela pode criar soluções.
Isso não é um autocompletar. Este é um ciclo autônomo de descoberta científica. O LLM está atuando como a ponte crucial entre dados brutos e não estruturados e o reino simbólico e estruturado da linguagem, onde vivem as hipóteses e as conclusões.
Novamente, se conhecimento se encontra somente no campo da linguagem, é desnecessário para a tomada de decisões corretas. É necessário somente para entendimento por parte de humanos (O que eu discordo, só estou seguindo a trilha do que entendi das hipóteses que você levantou).
Se, "sem conhecimento" é possível tomar decisões certas, "com conhecimento" é possível tomar decisões erradas.
A próxima geração de conhecimento não será apenas descoberta por humanos em laboratórios. Será cocriada com sistemas que podem executar milhões de experimentos, transformando a enxurrada de dados brutos do mundo na linguagem estruturada do entendimento.
LLMs não podem executar experimentos (você e eu sabemos disso). Se você se refere a analisar dados brutos de experimentos feitos em massa (ou em simulações computadorizadas), sim, eles podem aplicar interpretações padrão nesses dados.
Não sei o nível de análise de uma LLM sobre dados experimentais, pois me falta base acadêmica para saber o quanto intuição humana afeta positivamente pesquisas. (é inegável que apesar de todo o método científico, humanos tem vieses e esperam encontrar algo nos experimentos, nem teria motivo para fazê-los caso contrário)
Eu continuo cético, mas talvez se você puder elaborar mais ficaria feliz em discutir sobre.