Pesquisa da Apple abre possibilidade para que futuros AirPods leiam sinais cerebrais
Pesquisadores da Apple publicaram um novo estudo mostrando uma técnica que permite que um modelo de IA aprenda padrões de atividade elétrica do cérebro sem precisar de dados previamente anotados por especialistas. O estudo apresenta o PARS, sigla para PAirwise Relative Shift
Hoje, modelos que analisam eletroencefalografia (EEG) dependem de especialistas classificando manualmente os dados, dizendo quais trechos são sono leve, sono profundo, REM e convulsões, o que leva tempo e costuma ser caro. O PARS tenta resolver isso treinando o modelo para entender sozinho como diferentes partes do sinal se relacionam no tempo. Em vez de tentar preencher trechos faltando (que é como muitos modelos funcionam hoje), a IA aprende a reconhecer a estrutura geral das ondas cerebrais e como elas mudam ao longo do tempo.
Nos testes, o modelo treinado com PARS superou ou igualou métodos anteriores em três dos quatro conjuntos de dados avaliados. Um dos datasets usados no estudo é composto por gravações feitas com um dispositivo de ear-EEG, ou seja, um EEG captado de dentro da orelha usando um aparelho portátil.
Como a Apple já colocou sensores de saúde nos AirPods, isso levanta a possibilidade de que ela esteja explorando tecnologias para medir sinais cerebrais diretamente pelo ouvido. Em 2023, a Apple também registrou uma patente para um “dispositivo eletrônico vestível para medir biossinais”, mencionando explicitamente um ear-EEG como alternativa ao EEG tradicional.
Apesar disso, o estudo não menciona AirPods, e os pesquisadores não fazem ligação direta com a patente.