hahaha, realmente esperava uma queda nas consultas.
e de fato inicialmente teve.
tanto que o meu primeiro teste com um DB menor (57gb) as consultas gerais ficaram em media 2x mais lentas do que em comparação com o timescale DB.
mas porque?
estudando mais a fundo, descobri que o clickhouse começa a brilhar em uma grande massa de dados, e o primeiro DB que eu testei era relativamente pequeno, então o PostgreSQL ainda estava dando conta com todos os indices e cache que ele gera (apesar de ocupar 97% mais disco).
porem, a realidade mudou nesse DB de 8tb, justamente porque nele ja temos 44bi de dados, nisso o PostgreSQL já estava dando sinais de sobrecarga e o clickhouse tirando de letra.
isso sem contar a redução de disco nos dois casos.
mas algo que ajudou bastante a velocidade nas consultas: views materializadas + tabelas de agregação.
isso tornou as consultas que ja eram rápidas, quase instantâneas.
e, pra nao dizer que ficou uma comparação injusta, eu tentei semanas atrás criar esse mesmo arranjo no PostgreSQL, mas ficou inviável, a materialização das views estava consumindo quase a CPU toda, coisa que no clickhouse é mínimo.
sobre como é possível que as consultas ficaram rápidas: o clickhouse é focado nisso, tanto que, ao criar a tabela, vc ja define um "order by" de acordo com a natureza das consultas, e isso acelera absurdamente elas.
como o sistema que trabalho sempre procura na mesma ordem de dados, foi um salto incrível de velocidade.