escritas concorrentes são problema ate num DB parrudo como PostgreSQL.
na empresa onde trabalho o maior DB recebe 600-700 milhões de inserts por dia.
só um sistema de fila com alta taxa de ingestão de dados pra dar conta pra depois ir inserindo no DB com uma cadencia melhor.
depois que implementei o Apache kafka como fila, resolveu os problemas.
ai temos 6 instancias consumindo do kafka pra mandar pro DB.
em horario de pico cada instancia consome 9-10k por segundo.
isso pq nosso db PostgreSQL é parrudo, 90gb de ram e 20vcpu.