Short-window EEG-based auditory attention decoding for neuroadaptive hearing support for smart healthcare - 25/07/25

Doi : 10.1016/j.neuri.2025.100222 
Ihtiram Raza Khan a, b, , Sheng-Lung Peng c , Rupali Mahajan d , Rajesh Dey e
a Department of computer science, School of Engineering Sciences & Technology, Jamia Hamdard, Delhi, India 
b National Taipei University of Business, Taiwan 
c Department of Creative Technologies and Product Design, National Taipei University of Business, Taiwan 
d Vishwakarma Institute of Technology, Pune, India 
e Gopal Narayan Singh University, Sasaram, Bihar, India 

Corresponding author.

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.
Articolo gratuito.

Si connetta per beneficiarne

Abstract

Background

Selective auditory attention the brain's ability to focus on a specific speaker in multi-talker environments is often compromised in individuals with auditory or neurological disorders. While Auditory Attention Decoding (AAD) using EEG has shown promise in detecting attentional focus, existing models primarily utilize temporal or spectral features, often neglecting the synergistic relationships across time, space, and frequency. This limitation significantly reduces decoding accuracy, particularly in short decision windows, which are crucial for real-time applications like neuro-steered hearing aids. This study is to enhance short-window AAD performance by fully leveraging multi-dimensional EEG characteristics.

Methods

To address this, we propose TSF-AADNet, a novel neural framework that integrates temporal–spatial and frequency–spatial features using dual-branch architectures and advanced attention-based fusion.

Results

Tested on KULeuven and DTU datasets, TSF-AADNet achieves 91.8% and 81.1% accuracy at 0.1-second windows—outperforming the state-of-the-art by up to 7.99%.

Conclusions

These results demonstrate the model's potential in enabling precise, real-time attention tracking for hearing impairment diagnostics and next-generation neuroadaptive auditory prosthetics.

Il testo completo di questo articolo è disponibile in PDF.

Keywords : Neurophysiological information, Auditory attention decoding, EEG, Neuroadaptive, DTU dataset


Mappa


© 2025  The Author(s). Pubblicato da Elsevier Masson SAS. Tutti i diritti riservati.
Aggiungere alla mia biblioteca Togliere dalla mia biblioteca Stampare
Esportazione

    Citazioni Export

  • File

  • Contenuto

Vol 5 - N° 3

Articolo 100222- settembre 2025 Ritorno al numero
Articolo precedente Articolo precedente
  • Deep learning model for patient emotion recognition using EEG-tNIRS data
  • Mohan Raparthi, Nischay Reddy Mitta, Vinay Kumar Dunka, Sowmya Gudekota, Sandeep Pushyamitra Pattyam, Venkata Siva Prakash Nimmagadda
| Articolo seguente Articolo seguente
  • AI-enhanced diagnosis of very late-onset schizophrenia-like psychosis: A step toward preventing dementia in older adults
  • Ali Allahgholi, Ava Mazhari

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.

@@150455@@ Voir plus

Il mio account


Dichiarazione CNIL

EM-CONSULTE.COM è registrato presso la CNIL, dichiarazione n. 1286925.

Ai sensi della legge n. 78-17 del 6 gennaio 1978 sull'informatica, sui file e sulle libertà, Lei puo' esercitare i diritti di opposizione (art.26 della legge), di accesso (art.34 a 38 Legge), e di rettifica (art.36 della legge) per i dati che La riguardano. Lei puo' cosi chiedere che siano rettificati, compeltati, chiariti, aggiornati o cancellati i suoi dati personali inesati, incompleti, equivoci, obsoleti o la cui raccolta o di uso o di conservazione sono vietati.
Le informazioni relative ai visitatori del nostro sito, compresa la loro identità, sono confidenziali.
Il responsabile del sito si impegna sull'onore a rispettare le condizioni legali di confidenzialità applicabili in Francia e a non divulgare tali informazioni a terzi.


Tutto il contenuto di questo sito: Copyright © 2026 Elsevier, i suoi licenziatari e contributori. Tutti i diritti sono riservati. Inclusi diritti per estrazione di testo e di dati, addestramento dell’intelligenza artificiale, e tecnologie simili. Per tutto il contenuto ‘open access’ sono applicati i termini della licenza Creative Commons.