Executando verificação de segurança...
12

titulo bem clickbait.
faz parecer que é uma IA local, mas nada mais é que um client pra interagir com alguma api OpenAI-like.
é interessante a ideia de ter um binário único e otimizado, mas isso é a parte mais simples de tudo, só trocaram a linguagem do client, igual quando eu troco de navegador, mas nao muda o fato de depender da internet pra funcionar e acessar os mesmos serviços da mesma forma.
é interessante, mas não tanto quanto o titulo/texto faz parecer.

Carregando publicação patrocinada...
1

É possível executar com Ollama localmente. Eu mesmo estou configurando agora. E funcionou.

Ollama provider selected based on model name prefix
Ollama apiBase: http://localhost:11434/v1
2026/02/16 12:57:40 [2026-02-16T12:57:40Z] [INFO] agent: Agent initialized {skills_available=6, tools_count=13, skills_total=6}
2026/02/16 12:57:40 [2026-02-16T12:57:40Z] [INFO] agent: Processing message from cli:cron: What is 2+2? Reply with only the number. {chat_id=direct, sender_id=cron, session_key=cli:default, channel=cli}
2026/02/16 12:58:46 [2026-02-16T12:58:46Z] [INFO] agent: LLM response without tool calls (direct answer) {iteration=1, content_chars=1}
2026/02/16 12:58:46 [2026-02-16T12:58:46Z] [INFO] agent: Response: 4 {session_key=cli:default, iterations=1, final_length=1}

🦞 4
1
1
0
1

Pior que sim. Estou executando em docker dentro de um wsl2.

CONTAINER ID   NAME                                       CPU %     MEM USAGE / LIMIT     MEM %     NET I/O           BLOCK I/O        PIDS 
cab5aca52fa5   picoclaw-gateway                           0.57%     11.08MiB / 7.415GiB   0.15%     17.8kB / 7.84kB   19.8MB / 680kB   11 
1
0