Parabéns pela criatividade na construção de uma solução funcional para um problema com um escopo de infraestrutura tão limitador.
A adoção do Apache Parquet em storage de rede é uma decisão muito boa para leitura. Por ser orientado a colunas, apenas os dados estritamente necessários para a query serão trafegados/baixados pela rede. Ou seja, mesmo consultando um arquivo Parquet de 1GB, não necessariamente você fará a leitura de 1GB de dados na rede.
O principal ponto de atenção nessa abordagem é em relação à escrita. Se você tiver múltiplos dispositivos na rede criando vários arquivos Parquet pequenos de forma recorrente (o famoso small files problem), você provavelmente enfrentará gargalos e perda de performance. Caso isso venha a acontecer, o caminho será aprofundar o entendimento sobre o overhead do protocolo SMB nesse cenário e monitorar o limite de IOPS do disco.
Banco de dados com storage de rede não é loucura. Um exemplo interessante é https://building.nubank.com/pt-br/como-o-nubank-construiu-sua-plataforma-de-logs-interna/.