Realmente muito útil!
Por exemplo hoje em dia so se fala em LLM mas ainda existe a IA tradicional e antes mesmo do GPT virar Hipe já existia seu precursor o Bert e toda a arquitetura de Enconder Decoder e Mecanismos de atenção, inclusive lá paper "Attention is All you need".
Em resposta a Artigos para cientistas da computação que brigam na rua
1