Qual modelo você usou de Ollama local?
Eu tentei com vários, não tenho GPU, só com com CPU e nenhum dos locais respondiam.
1
1
Qwen:0.5b
Usei esse só pra ver se funciona, não é uma recomendação.
Existem modelos que não aceitam tools, como o deepseek, que tentei antes.