Executando verificação de segurança...
2

DevLog #01 — Introdução ao projeto Aloy

📅 Data: 23 de Abril de 2025

✍️ Autor: Luís Gabriel Marchió Batista


Fala pessoal, tudo certo?

Gostaria de compartilhar com vocês um projeto pessoal que tenho desenvolvido nos últimos meses… e que tem me deixado bem empolgado.

Cerca de dois meses atrás, comecei a pensar em como poderia organizar melhor minha vida, automatizar minhas anotações, rotinas diárias, lembretes, enfim...

Mas aí bateu a pergunta:

"Por que me limitar a automatizar só o básico?"

O que estava me travando não era a tecnologia em si, mas sim as limitações das assistentes virtuais atuais e das ferramentas atuais… tipo a Alexa, o Google Assistant, ferramentas que não se comunicam entre si, etc…

Elas são feitas pra atender todo mundo, de forma genérica. E aí o resultado é sempre o mesmo: uma solução mediana, que serve pra todo mundo… mas NUNCA uma funcionalidade extremamente forte e completa para o meu caso ou para o seu caso.

Comecei a me questionar:

  • Por que eu preciso de 30 ferramentas diferentes de IA pra fazer tarefas simples no meu dia a dia?
  • Por que essas ferramentas não conversam entre si?
  • Por que tudo que eu uso hoje é centralizado por empresas terceiras, que impõem limites e travam funcionalidades?

Foi aí que eu pensei:

Por que não criar minha própria assistente virtual? Algo feito sob medida, do meu jeito. Local, modular, privada, customizada para as minhas necessidades.

Assim nasceu a ideia da Aloy (obs: sim, o nome é inspirado na franquia da sony: Horizon ksksks)


O que é a Aloy, afinal?

A Aloy é uma assistente pessoal inteligente, construída para rodar localmente, ela roda no seu desktop sem depender da clouds services. A proposta dela é ser:

  • Privada, onde seus dados são gerenciados apenas por você
  • Modular, você escolhe quais blocos quer rodar naquele momento e tem a liberdade total de adicionar novos módulos conforme surgir a necessidade, seja por conta de um trabalho novo ou de um projeto novo… você sempre pode remover ou adicionar módulos
  • Extensível, você pode criar seus próprios comandos e personalizar com as suas palavras e jeitos… afinal a LLM roda na sua maquina local, você pode treina-la da forma que preferir. O banco de dados é seu, você desenvolve o cérebro do seu modelo de IA
  • Visual, com uma interface bonita e futurista. As cores predominantes são roxo, azul e preto — pra dar aquele ar de tecnologia, futuro… e porque roxo é a melhor cor que tem.
  • E principalmente, útil de verdade, sem enrolação

Ela entende comandos em linguagem natural, e já começa a transformar essas frases em ações dentro do seu próprio sistema operacional ou apenas em uma conversa amigável adaptando sempre o contexto para melhor atender você nas suas necessidades.


Um projeto pessoal, não um produto

Importante dizer: a Aloy não é um projeto comercial.

Ela não foi feita pra ser vendida como "a solução perfeita pra todo mundo”

Ela nasceu pra mim, pras minhas necessidades, pro meu estilo de vida.

O que eu queria era:

  • Algo 100% meu
  • Que eu pudesse editar, adaptar, reescrever se quisesse
  • Que não dependesse de nenhum provedor cloud (AWS, Google, Azure...)
  • Que rodasse local, com meus dados, sob meu controle

E a visão de futuro é clara:

Transformar a Aloy em um projeto open source, pra que qualquer pessoa possa fazer o mesmo — editar, adicionar funcionalidades, e criar uma versão da Aloy que seja perfeita pra sua realidade.

Porque cada um tem suas próprias limitações e seus próprios desafios no dia a dia. E nenhuma solução genérica vai resolver isso melhor do que algo feito sob medida por você mesmo.
Esse DevLog é escrito de Dev (e um toque de IA para agilizar a vida ksks) para Dev

A Aloy é simplesmente:

Liberdade, autonomia e controle.


O que já tá funcionando até agora?

Apesar de estar nos estágios iniciais, já tenho alguns serviços da Aloy rodando

  • Uma interface desktop em Electron + React + Tailwind + Shadcn/ui
  • Um monitor de recursos do hardware em Go, que acompanha CPU, RAM, Armazenamento e etc..
  • Um serviço de processamento de linguagem natural, usando uma LLM local (GEMMA) via LM Studio, escrito em Python com FastAPI
  • A primeira funcionalidade real: o Aloy-Scheduler, pra criar alarmes e agendamentos simples… Esse serviços está escrito em Node e se conecta diretamente com o Google Calendar (nesse caso dependendo sim de uma alternativa externa para comunicação com entre vários dispositivos. Provavelmente como uma solução temporária)

No quesito arquitetura utilizo microservices, para comunicação HTTP e RabbitMQ e por fim, para iniciar todo o projeto ALOY, eu encapsulo containers docker dentro de um docker-compose (onde eu tbm ligo serviços externos como o RabbitMQ e o Localstack para rodar localmente).


Por que isso importa?

Porque eu não quero mais depender de ferramentas limitadas. Quero poder dizer:

“Aloy, me acorde às 7h da amanhã”

E ela fazer isso, do meu jeito, com minhas ferramentas, do jeito que eu configurei.

Sem pagar mensalidade.

Sem abrir mão da minha privacidade.


O que vem a seguir?

Os próximos passos do projeto basicamente é implementar a parte de conversação por áudio:

  • Expandir o NLP pra entender mais tipos de frases
  • Criar serviços para converter áudios em texto
  • Criar serviços para converter texto em áudios

💬 Curtiu a proposta?

Bem, é isso, se você curtiu essa proposta me segue ai para ver os próximos DevLogs do projeto Aloy, em breve eu vou abrir o projeto para algo full open source, atualmente o único repositório publico é o frontend em Electron e React.

Estou sempre aberto a criticas construtivas, ideias ou apenas trocar conhecimento mesmo…

https://github.com/LuisMarchio03/aloy-desktop-electron-v0

Obrigado por ler até aqui,
Ass. LuisMarchio03

Carregando publicação patrocinada...
1

Cara, eu tenho muito interesse neste caminho que você esta seguindo. Porque eu tenho uns rabiscos de fazer algo similar pra mim, exatamente como tu pensa: apenas pra mim, sem interesse comercial.

Continua postando.
Sucesso pra ti.