Short-window EEG-based auditory attention decoding for neuroadaptive hearing support for smart healthcare - 25/07/25

Doi : 10.1016/j.neuri.2025.100222 
Ihtiram Raza Khan a, b, , Sheng-Lung Peng c , Rupali Mahajan d , Rajesh Dey e
a Department of computer science, School of Engineering Sciences & Technology, Jamia Hamdard, Delhi, India 
b National Taipei University of Business, Taiwan 
c Department of Creative Technologies and Product Design, National Taipei University of Business, Taiwan 
d Vishwakarma Institute of Technology, Pune, India 
e Gopal Narayan Singh University, Sasaram, Bihar, India 

Corresponding author.

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.
Artículo gratuito.

Conéctese para beneficiarse!

Abstract

Background

Selective auditory attention the brain's ability to focus on a specific speaker in multi-talker environments is often compromised in individuals with auditory or neurological disorders. While Auditory Attention Decoding (AAD) using EEG has shown promise in detecting attentional focus, existing models primarily utilize temporal or spectral features, often neglecting the synergistic relationships across time, space, and frequency. This limitation significantly reduces decoding accuracy, particularly in short decision windows, which are crucial for real-time applications like neuro-steered hearing aids. This study is to enhance short-window AAD performance by fully leveraging multi-dimensional EEG characteristics.

Methods

To address this, we propose TSF-AADNet, a novel neural framework that integrates temporal–spatial and frequency–spatial features using dual-branch architectures and advanced attention-based fusion.

Results

Tested on KULeuven and DTU datasets, TSF-AADNet achieves 91.8% and 81.1% accuracy at 0.1-second windows—outperforming the state-of-the-art by up to 7.99%.

Conclusions

These results demonstrate the model's potential in enabling precise, real-time attention tracking for hearing impairment diagnostics and next-generation neuroadaptive auditory prosthetics.

El texto completo de este artículo está disponible en PDF.

Keywords : Neurophysiological information, Auditory attention decoding, EEG, Neuroadaptive, DTU dataset


Esquema


© 2025  The Author(s). Publicado por Elsevier Masson SAS. Todos los derechos reservados.
Añadir a mi biblioteca Eliminar de mi biblioteca Imprimir
Exportación

    Exportación citas

  • Fichero

  • Contenido

Vol 5 - N° 3

Artículo 100222- septembre 2025 Regresar al número
Artículo precedente Artículo precedente
  • Deep learning model for patient emotion recognition using EEG-tNIRS data
  • Mohan Raparthi, Nischay Reddy Mitta, Vinay Kumar Dunka, Sowmya Gudekota, Sandeep Pushyamitra Pattyam, Venkata Siva Prakash Nimmagadda
| Artículo siguiente Artículo siguiente
  • AI-enhanced diagnosis of very late-onset schizophrenia-like psychosis: A step toward preventing dementia in older adults
  • Ali Allahgholi, Ava Mazhari

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.

@@150455@@ Voir plus

Mi cuenta


Declaración CNIL

EM-CONSULTE.COM se declara a la CNIL, la declaración N º 1286925.

En virtud de la Ley N º 78-17 del 6 de enero de 1978, relativa a las computadoras, archivos y libertades, usted tiene el derecho de oposición (art.26 de la ley), el acceso (art.34 a 38 Ley), y correcta (artículo 36 de la ley) los datos que le conciernen. Por lo tanto, usted puede pedir que se corrija, complementado, clarificado, actualizado o suprimido información sobre usted que son inexactos, incompletos, engañosos, obsoletos o cuya recogida o de conservación o uso está prohibido.
La información personal sobre los visitantes de nuestro sitio, incluyendo su identidad, son confidenciales.
El jefe del sitio en el honor se compromete a respetar la confidencialidad de los requisitos legales aplicables en Francia y no de revelar dicha información a terceros.


Todo el contenido en este sitio: Copyright © 2026 Elsevier, sus licenciantes y colaboradores. Se reservan todos los derechos, incluidos los de minería de texto y datos, entrenamiento de IA y tecnologías similares. Para todo el contenido de acceso abierto, se aplican los términos de licencia de Creative Commons.