Executando verificação de segurança...
4

Pelo que eu entendi, você está dizendo que linguagem é uma forma de, a partir de dados brutos, adquirir conhecimento aplicando interpretação.

Não sei dizer se isso é certo ou errado, mas usando isso como hipótese, implica-se logicamente que conhecimento é desnecessário.
Existem diversos sistemas que analisam dados brutos e fazem otimizações de processos sem usar uma linguagem. Nem preciso ir tão longe, a rede neural que o Universo Programado usa para jogar o jogo do dinossauro do chrome responde aos dados brutos (informações em tempo real do dinossauro e seu ambiente) e toma ações (pré-selecionadas, eu admito).

O que são os Large Language Models (LLMs) senão sistemas incrivelmente poderosos para entender e gerar... linguagem? Eles internalizaram as regras e símbolos do nosso sistema a partir de trilhões de exemplos.

Eles entendem regras gramaticais no sentido de usar elas, mas por repetir padrões, não entendimento.

É aqui que devemos nos libertar da mentalidade "LLM = chatbot". O verdadeiro poder está em usar o LLM como um componente cognitivo, dentro de um sistema "inteligente" muito maior.

Não sei o que você quis dizer por componente cognitivo. Uma LLM tem um fator aleatório, mas isso não significa que ela pode criar soluções.

Isso não é um autocompletar. Este é um ciclo autônomo de descoberta científica. O LLM está atuando como a ponte crucial entre dados brutos e não estruturados e o reino simbólico e estruturado da linguagem, onde vivem as hipóteses e as conclusões.

Novamente, se conhecimento se encontra somente no campo da linguagem, é desnecessário para a tomada de decisões corretas. É necessário somente para entendimento por parte de humanos (O que eu discordo, só estou seguindo a trilha do que entendi das hipóteses que você levantou).
Se, "sem conhecimento" é possível tomar decisões certas, "com conhecimento" é possível tomar decisões erradas.

A próxima geração de conhecimento não será apenas descoberta por humanos em laboratórios. Será cocriada com sistemas que podem executar milhões de experimentos, transformando a enxurrada de dados brutos do mundo na linguagem estruturada do entendimento.

LLMs não podem executar experimentos (você e eu sabemos disso). Se você se refere a analisar dados brutos de experimentos feitos em massa (ou em simulações computadorizadas), sim, eles podem aplicar interpretações padrão nesses dados.
Não sei o nível de análise de uma LLM sobre dados experimentais, pois me falta base acadêmica para saber o quanto intuição humana afeta positivamente pesquisas. (é inegável que apesar de todo o método científico, humanos tem vieses e esperam encontrar algo nos experimentos, nem teria motivo para fazê-los caso contrário)

Eu continuo cético, mas talvez se você puder elaborar mais ficaria feliz em discutir sobre.

Carregando publicação patrocinada...
1

Comece lendo Chomsky!

Pelo que eu entendi, você está dizendo que linguagem é uma forma de, a partir de dados brutos, adquirir conhecimento aplicando interpretação.

Não sou eu que estou dizendo isso, mas um dos maiores pensadores da humanidade!!! Não apenas isso a linguagem é o que define a própria realidade.

LLMs não podem executar experimentos (você e eu sabemos disso). Se você se refere a analisar dados brutos de experimentos feitos em massa (ou em simulações computadorizadas), sim, eles podem aplicar interpretações padrão nesses dados.

LLMs sozinhos não.. LLMs como parte de um sistema maior sim. Isso já está acontecendo. Tem muito paper sobre o assunto. Nosso cerebro também é uma máquina estatistica (também tem experimento sobre isso) que comete erros (todo mundo sabe disso)!!!