Meus 2 cents,
Para quem quer brincar com modelos em situacoes bem especificas (p.ex. entendimento de linguagem natural, fine-tunning, agentes) eh um prato cheio - sao modelos cujos arquivos de pesos ocupam de 10Gb a 60Gb - bem menos quando comparados a um DeepSeek 3.2 de 700Gb.
Outro que pode ser interessante eh o Fara-7B da MS (3Gb a 16Gb):
https://www.microsoft.com/en-us/research/blog/fara-7b-an-efficient-agentic-model-for-computer-use/
Saude e Sucesso !