[PITCH] - Estou criando um ecossistema de Self-hosting para LLMs
Não sei quantas pessoas aqui estão familiarizadas com Ollama e hugginface. As que não estão, recomendo muito o estudo, é uma forma simples e rapida de integrar SLMs e LLMs gratuitamente executando elas localmente.
Bom no meu caso eu estou integrando algumas interfaces a API do OLLAMA, sendo a primeira delas uma extensão do chrome, que permite você utilizar o contexto do browser dentro da LLM.
Exemplo:
Gere para mim um Json com todos os comentários desse video no youtube
Crie uma resposta para esse post... Etc...
A ideia do projeto não é só ser um extensão no momento estou também desenvolvendo uma GUI (que também integra com stable diffusion)
E irei também fazer uma CLI (para programar usando LLMs coders)
O projeto está bem no inicio, então todos são mais do que bem-vindos se quiserem me ajudar a construir ou criar issues que ajudem a melhoria do código, segue repositórios: