Pesquisadores da Apple ensinam modelos de IA a estimar frequência cardíaca
Pesquisadores da Apple demonstraram que modelos de IA do tipo foundation, mesmo sem treinamento específico, conseguem estimar a frequência cardíaca a partir de fonocardiogramas — gravações dos batimentos captadas por estetoscópios.
No estudo, foram testados seis modelos voltados para processamento de áudio e fala. A maioria obteve desempenho equivalente ou superior a métodos tradicionais baseados em features de áudio extraídas manualmente, como os utilizados em modelos clássicos de machine learning.
O destaque foi o modelo proprietário da Apple, uma versão interna do CLAP treinada com 3 milhões de amostras de áudio, que superou as abordagens de referência e apresentou o melhor desempenho geral entre os avaliados. Os testes foram realizados com um conjunto de dados público contendo mais de 20 horas de sons cardíacos reais, gravados em hospitais e anotados por especialistas.
Para o treinamento, os áudios foram segmentados em trechos de 5 segundos, com avanço de um segundo entre cada janela, resultando em aproximadamente 23 mil clipes de som do coração.
Segundo os pesquisadores, os próximos passos envolvem o refinamento dos modelos para aplicações na área da saúde, a criação de versões mais leves para rodar em dispositivos com baixo consumo de energia e a exploração de outros tipos de sons corporais.
Embora o estudo não mencione aplicações comerciais, acredita-se que a tecnologia possa futuramente ser integrada a produtos como iPhone, Apple Watch ou AirPods, que já possuem microfones internos e poderiam atuar como monitores cardíacos discretos.