muito interessante seu comentário.
realmente é uma solução robusta.
vou estudar sobre essa ideia pra implementações futuras em outros DBs.
sobre o insert em bulk que vc mencionou, tive que fazer algo similar no PostgreSQL antes.
também deixava acumular em memória um lote de 5-10k linhas na aplicação (puxando em lotes tambem do kafka)
e depois mandava pro insert no PostgreSQL de uma vez.
cada uma das instâncias fazia isso de forma independente.
mas no meu cenário não existe update, é so inserir mesmo, então imagino que isso tenha evitado de eu ter esse problema que você descreveu no seu caso.
mas bom saber que tem uma solução pra esse tipo de situação também.
vou deixar aqui indexado no meu notion esse seu comentário pra aprendizado futuro.