Atualmente eu já estou fazendo esse processo de acelerar o áudio (2x), meu real problema é na hora de passar essa transcriçao que foi gerada para a IA, por ela ser uma transcriçao com diarization, ela acaba ficando muito grande.
Meus 2 cents extendidos,
Uma ideia pode ser usar um LLM menor (mais barato/free) para fazer a compactacao de informacao e o LLM maior para fazer o resumo e/ou analise.
Outra ideia eh usar abreviacoes para palavras ou trechos muito repetidos:
https://gist.github.com/jimsrc/46670bd97f1bad0845e0a208e33996c8
https://gist.github.com/VictorTaelin/d293328f75291b23e203e9d9db9bd136
Nos itens acima, utilizam compressao atraves de abreviacoes e passam um "dicionario" de abreviacoes para a LLM saber o que eh cada uma.
Nao sei se funciona no seu caso - mas enfim.
Ahhh eu entendi completamente errado então.
Essa thread do Reddit parece ter algumas dicas úteis.
Eu realmente acho que vale a pena experimentar hospedar alguma LLM e comparar os custos e o resultado. Mas, se continuar usando alguma API, além de procurar por modelos mais baratos, pode ver se o serviço que você está usando oferece um desconto, como é o caso do batch processing no Claude e batch API na OpenAI.