titulo bem clickbait.
faz parecer que é uma IA local, mas nada mais é que um client pra interagir com alguma api OpenAI-like.
é interessante a ideia de ter um binário único e otimizado, mas isso é a parte mais simples de tudo, só trocaram a linguagem do client, igual quando eu troco de navegador, mas nao muda o fato de depender da internet pra funcionar e acessar os mesmos serviços da mesma forma.
é interessante, mas não tanto quanto o titulo/texto faz parecer.
12
1
É possível executar com Ollama localmente. Eu mesmo estou configurando agora. E funcionou.
Ollama provider selected based on model name prefix
Ollama apiBase: http://localhost:11434/v1
2026/02/16 12:57:40 [2026-02-16T12:57:40Z] [INFO] agent: Agent initialized {skills_available=6, tools_count=13, skills_total=6}
2026/02/16 12:57:40 [2026-02-16T12:57:40Z] [INFO] agent: Processing message from cli:cron: What is 2+2? Reply with only the number. {chat_id=direct, sender_id=cron, session_key=cli:default, channel=cli}
2026/02/16 12:58:46 [2026-02-16T12:58:46Z] [INFO] agent: LLM response without tool calls (direct answer) {iteration=1, content_chars=1}
2026/02/16 12:58:46 [2026-02-16T12:58:46Z] [INFO] agent: Response: 4 {session_key=cli:default, iterations=1, final_length=1}
🦞 4
1
Qual modelo você usou de Ollama local?
Eu tentei com vários, não tenho GPU, só com com CPU e nenhum dos locais respondiam.
1
Qwen:0.5b
Usei esse só pra ver se funciona, não é uma recomendação.
Existem modelos que não aceitam tools, como o deepseek, que tentei antes.
0
e ta consumindo so 10mb?
1
Pior que sim. Estou executando em docker dentro de um wsl2.
CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS
cab5aca52fa5 picoclaw-gateway 0.57% 11.08MiB / 7.415GiB 0.15% 17.8kB / 7.84kB 19.8MB / 680kB 11
1
mas aí é so o Gateway. como eu falei no primeiro comentário, fez parecer que era tudo: Gateway + LLM
0
Achei que era um LLM também 😢 ia por pra funcionar no Zed e ter Predições com uma ia que roda rápido