Executando verificação de segurança...
1

Vc pode experimentar usar alguma LLava com Grok para ver como fica o custo, o LLaVa é para visuaç, ou até outros modelos com Grok, só testando para saber o preço

Vc pode experimentar o Gemini Flash tbm, ele tem um bom custo beneficio.

Rodar uma LLM no seu hardware por agora é inviável para qualquer coisa que não for um teste mesmo, eu rodei Ollama num hardware bem modesto, mas é BEM pesado até os modelos mais leves

Dependendo do que você quer fazer , talvez um OpenCV ou PyTorch , se for algo mais estruturado eles funcionam bem, vc poderia até usar eles para extrair dados e passar para um LLM , checar os dados e se nao for o suficiente dai mandar para a LLM para diminuir o custo

Carregando publicação patrocinada...