Meus 2 cents,
Deixe colocar um pouco de caldo na questao "IA so eh um corretor ortografico glorificado".
Devido à arquitetura de atenção, os LLMs aprendem a mapear a estrutura lógica da linguagem. Eles não apenas 'preveem a próxima palavra', eles processam a topologia do argumento.
Nao entenda errado, LLM nao pensa, mas consegue inferir um bocado de informacoes atraves da analise semantica de um prompt.
Experimente o seguinte no LLM da sua preferencia (chatGPT, Gemini, GLM, kimi, etc)
-
Abra uma nova sessao (isso eh fundamental, para zerar contexto)
-
Digite: "aja como um especialista em logica semantica, de respostas e explique os axiomas demonstrados nas perguntas que vou realizar."
Isso nao eh essencial, mas ajuda a entender ate a onde o coelho da Alice mergulha no buraco.
-
Digite
No Pico Blangue, existem apenas dois tipos de seres: os Verazes (que sempre dizem a verdade) e os Falazes (que sempre mentem).
Tibúrlio é um habitante do Pico Blangue.
Tibúrlio afirma: 'Todos os habitantes do Pico Blangue são Falazes'.
Pergunta: O que Tibúrlio é (Veraz ou Falaz) e qual o problema lógico desta situação?
Resposta esperada: Tibúrlio é obrigatoriamente Falaz.
- Digite:
Se um Plóxio é Zanter, então ele é Quélido.
Tibúrlio é Quélido.
Pergunta: O que pode ser inferido com certeza sobre Tibúrlio? Ele é Plóxio? Zanter? Justifique.
Resposta esperada: Absolutamente nada sobre ele ser Plóxio ou Zanter (ou uma variacao disso)
- Digite:
Se um Nerfato canta e é Blíquio, então é Zanter.
Tibúrlio é Zanter.
Pergunta: Tibúrlio canta? Ele é Blíquio?
Resposta esperada: "Não podemos afirmar que Tibúrlio canta, nem que ele é Blíquio." (ou uma variacao disso)
- E para pirar na batatinha, digite:
Grande é a força em todo Jedi.
Jedi é FilipeLeonelBatista.
A força em FilipeLeonelBatista, grande é?
Resposta esperada: Sim, a força em FilipeLeonelBatista grande é (ou uma variante disso). Detalhe, aqui invertemos a ordem das palavras (Yoda Style) e mesmo assim o mecanismo de atencao deu um jeito.
Ao usar neologismos (palavras inventadas), eliminamos o viés de memória.
O modelo não pode 'plagiar' a resposta de um livro, pois as palavras 'Plóxio' ou 'Zanter' não existem.
Ele é forçado a aplicar inferência formal. Se ele fosse apenas um corretor ortográfico, ele falharia ao tentar encontrar associações para termos inexistentes.
O fato de ele respeitar regras de silogismo e evitar falácias como a 'afirmação do consequente' prova que há uma representação interna de lógica estrutural.
O funcionamento de um LLM eh um pouco mais complicado do que parece e a arquitetura de Transformers foi um processo de mudanca importante em especial o de atenção (Attention Mechanism), que permite ao modelo capturar relações estruturais e lógicas que vão muito além de simples estatística de palavras próximas.
Saude e Sucesso !