Pitch: Conselho de Modelos: orquestrando múltiplos LLMs locais com um Juiz decisor
Oi pessoal, Este é meu primeiro post aqui no TabNews!
Há algumas semanas, comecei a explorar uma ideia: por que escolher um modelo de linguagem se posso usar vários ao mesmo tempo?
O resultado é o Conselho de Modelos, um projeto open-source que estou desenvolvendo e quero compartilhar com a comunidade para colher feedbacks.
Você faz uma pergunta e vários modelos respondem em paralelo. Depois, um modelo "Juiz" lê todas as respostas e gera um relatório com consensos, divergências e uma conclusão unificada.
Me inspirei no Model Council da Perplexity, mas quis algo totalmente local com Ollama. Evitei dependências pesadas para rodar tanto em ARM64 (Snapdragon X) quanto em Intel.
Pré-requisitos: Ollama rodando com pelo menos dois modelos baixados.
No Windows, basta executar o run_council.bat. Ele cria o ambiente virtual, instala as dependências e sobe o servidor em http://127.0.0.1:8501.
https://github.com/andreocc/Conselho-de-Modelos
Fico curioso pra saber se já exploraram abordagens parecidas, se a ideia do "Juiz" faz sentido, e qualquer feedback sobre a arquitetura ou próximos passos. Valeu!