Sim.
Treinar uma LLM do zero, exigiria um esforço ainda maior e muita coisa detalhada pra treinar, além de muito hardware e uma pequena fortuna em $$.
O que fazemos na verdade é um "fine-tunning", que é pegar um modelo já treinado e continuar a partir dele, gerando um novo.
Quem puder, deixe uma estrela/star no projeto do GitHub, só pra ele ir crescendo.
Vlw.