Nuova ricerca Apple: così un domani le AirPods potrebbero “leggere” i segnali del cervello

Apple ha presentato PARS, un nuovo metodo di AI per analizzare segnali EEG senza dati etichettati.

airpods-pro-3

Apple sta lavorando su qualcosa che va ben oltre il “semplice” audio in cuffia. Una nuova ricerca firmata dai suoi ingegneri mostra come un modello di intelligenza artificiale possa imparare a interpretare la struttura dei segnali cerebrali (EEG) senza bisogno di dati etichettati.

Messa così sembra roba da laboratorio, ma incrociata con vecchi brevetti e con il percorso delle AirPods negli ultimi anni, il messaggio è chiaro: Apple sta preparando il terreno per auricolari che leggono i segnali del cervello.

PARS: il modello che impara dai segnali cerebrali senza aiuto umano

Lo studio si intitola “Learning the relative composition of EEG signals using pairwise relative shift pretraining” e introduce PARS, acronimo di PAirwise Relative Shift.

Oggi, per usare l’EEG in ambito clinico (sonno, epilessia, attività motoria, ecc.) servono enormi quantità di dati annotati a mano: qualcuno deve dire al modello dove inizia la fase REM, dove c’è una crisi, dove cambia lo stato di veglia. È costoso e poco scalabile.

PARS ribalta il tavolo: invece di farsi spiegare tutto dall’uomo, il modello prende finestrine di segnale EEG grezzo, non etichettato e impara a capire quanto sono lontane nel tempo l’una dall’altra, così è costretto a cogliere la struttura temporale profonda del segnale, non solo i dettagli locali.

È un approccio di self-supervised learning: il modello si allena da solo, sfruttando il fatto che nei segnali reali il tempo ha una struttura precisa.

Nei test su diversi dataset EEG (sonno, epilessia, anomalie, attività motoria), i transformer pre-addestrati con PARS hanno eguagliato o superato i metodi precedenti in 3 benchmark su 4, soprattutto quando le etichette sono poche e l’obiettivo è riusare il modello su task diversi.

Ear-EEG e AirPods nel mirino

Uno dei dataset usati nello studio è EESM17 (Ear-EEG Sleep Monitoring 2017): registrazioni notturne di 9 soggetti con un sistema ear-EEG a 12 canali più 6 canali scalp classici.

Ear-EEG significa, in pratica, elettrodi posizionati dentro o intorno all’orecchio, invece che sulla testa. Sono meno vistosi, più comodi, eppure riescono comunque a catturare informazioni clinicamente utili su fasi del sonno, alcune tipologie di crisi epilettiche, attività cerebrale legata a compiti specifici

Qui il collegamento con il mondo Apple è immediato: negli ultimi anni abbiamo visto AirPods passare da semplici auricolari audio a wearable con sensori (con le ultime AirPods Pro che integrano, ad esempio, un sensore PPG per la frequenza cardiaca).

Usare un dataset ear-EEG in una ricerca Apple non significa automaticamente “AirPods EEG in arrivo”, ma la direzione è quella: sensori vicino all’orecchio + AI avanzata per interpretare i segnali.

La storia non finisce qui. Nel 2023 Apple ha depositato un brevetto per un “wearable per la misurazione di biosignali” che cita esplicitamente i sistemi ear-EEG.

Nel brevetto si parla anche di gesture tipo tap o squeeze per avviare o interrompere la misurazione, diversi layout e soluzioni meccaniche per integrare il tutto in un dispositivo indossabile da orecchio e, soprattutto, degli usi d’elezione: monitoraggio del sonno, rilevazione di anomalie come le crisi epilettiche, altre applicazioni legate alla salute.

Lo stesso tipo di cose che ritroviamo anche negli esempi di task dello studio su PARS.

AirPods che leggono il cervello? Sì, ma con i piedi per terra

È importante mettere dei paletti chiari: lo studio su PARS non cita mai le AirPods, mentre il brevetto del 2023 e la ricerca attuale non sono collegati ufficialmente. Insomma, siamo ancora nel campo di ricerca e prototipi, non di prodotti annunciati

Però il quadro è interessante. Da un lato Apple studia hardware per raccogliere biosignali dall’orecchio, con soluzioni per rendere il tutto robusto, comodo e non invasivo. Dall’altro testa modelli di AI che imparano a interpretare segnali EEG in modo più efficiente, senza avere bisogno di montagne di etichette manuali

Il risultato offre un potenziale piuttosto chiaro: AirPods (o dispositivo simile) raccolgono segnali cerebrali e altri biosignali dall’orecchio, un modello in stile PARS elabora questi dati per:

  • riconoscere le fasi del sonno
  • segnalare pattern sospetti legati a crisi
  • comprendere meglio lo stato dell’utente in contesti specifici

Il tutto, idealmente, con elaborazione on-device o comunque in modo privacy-first, visto quanto è delicato il tema.

Offerte Amazon di oggi
News