Executando verificação de segurança...
2

Meus 2 cents,

Deixe colocar um pouco de caldo na questao "IA so eh um corretor ortografico glorificado".

Devido à arquitetura de atenção, os LLMs aprendem a mapear a estrutura lógica da linguagem. Eles não apenas 'preveem a próxima palavra', eles processam a topologia do argumento.

Nao entenda errado, LLM nao pensa, mas consegue inferir um bocado de informacoes atraves da analise semantica de um prompt.

Experimente o seguinte no LLM da sua preferencia (chatGPT, Gemini, GLM, kimi, etc)

  1. Abra uma nova sessao (isso eh fundamental, para zerar contexto)

  2. Digite: "aja como um especialista em logica semantica, de respostas e explique os axiomas demonstrados nas perguntas que vou realizar."

    Isso nao eh essencial, mas ajuda a entender ate a onde o coelho da Alice mergulha no buraco.

  3. Digite

No Pico Blangue, existem apenas dois tipos de seres: os Verazes (que sempre dizem a verdade) e os Falazes (que sempre mentem).
Tibúrlio é um habitante do Pico Blangue.
Tibúrlio afirma: 'Todos os habitantes do Pico Blangue são Falazes'.
Pergunta: O que Tibúrlio é (Veraz ou Falaz) e qual o problema lógico desta situação?

Resposta esperada: Tibúrlio é obrigatoriamente Falaz.

  1. Digite:
Se um Plóxio é Zanter, então ele é Quélido.
Tibúrlio é Quélido.
Pergunta: O que pode ser inferido com certeza sobre Tibúrlio? Ele é Plóxio? Zanter? Justifique.

Resposta esperada: Absolutamente nada sobre ele ser Plóxio ou Zanter (ou uma variacao disso)

  1. Digite:
Se um Nerfato canta e é Blíquio, então é Zanter.
Tibúrlio é Zanter.
Pergunta: Tibúrlio canta? Ele é Blíquio?

Resposta esperada: "Não podemos afirmar que Tibúrlio canta, nem que ele é Blíquio." (ou uma variacao disso)

  1. E para pirar na batatinha, digite:
Grande é a força em todo Jedi.
Jedi é FilipeLeonelBatista.
A força em FilipeLeonelBatista, grande é?

Resposta esperada: Sim, a força em FilipeLeonelBatista grande é (ou uma variante disso). Detalhe, aqui invertemos a ordem das palavras (Yoda Style) e mesmo assim o mecanismo de atencao deu um jeito.


Ao usar neologismos (palavras inventadas), eliminamos o viés de memória.

O modelo não pode 'plagiar' a resposta de um livro, pois as palavras 'Plóxio' ou 'Zanter' não existem.

Ele é forçado a aplicar inferência formal. Se ele fosse apenas um corretor ortográfico, ele falharia ao tentar encontrar associações para termos inexistentes.

O fato de ele respeitar regras de silogismo e evitar falácias como a 'afirmação do consequente' prova que há uma representação interna de lógica estrutural.

O funcionamento de um LLM eh um pouco mais complicado do que parece e a arquitetura de Transformers foi um processo de mudanca importante em especial o de atenção (Attention Mechanism), que permite ao modelo capturar relações estruturais e lógicas que vão muito além de simples estatística de palavras próximas.

Saude e Sucesso !

Carregando publicação patrocinada...