Executando verificação de segurança...
3

Cara, tudo que tu escreveu acima é válido se você quer brincar de entender arquitetura.

Mas se o objetivo é realmente acompanhar o estado da arte não o estado da arte de 2022, mas o de semana passada, a única forma é ler os papers dos laboratórios de fronteira diretamente. E não estou falando dos posts de blog bonitinhos da OpenAI ou Anthropic. Estou falando de arXiv às 3h da manhã, especialmente o que vem saindo dos labs chineses: DeepSeek, Moonshot AI, Qwen, BAAI....

Porque aqui está a verdade: quando o Karpathy grava um vídeo sobre como funcionava o GPT-2, os caras da DeepSeek já estão publicando técnicas de treinamento que tornam aquele conhecimento obsoleto. O campo se move tão rápido que qualquer curso, qualquer playlist, qualquer "caminho educacional estruturado" está intrinsicamente datado.

Então sim, estude os fundamentos se quiser ter uma base. Mas não se iluda: você não está "acompanhando" LLMs. Você está visitando um museu. O show real está acontecendo em papers de 30 páginas escritos em Beijing e São Francisco. Como esse aqui https://arxiv.org/abs/2509.18883

Carregando publicação patrocinada...