Multimodal lightweight neural network for Alzheimer's disease diagnosis integrating neuroimaging and cognitive scores - 16/07/25

Doi : 10.1016/j.neuri.2025.100218 
Bhoomi Gupta a, , Ganesh Kanna Jegannathan b , Mohammad Shabbir Alam c , Kottala Sri Yogi d, e , Janjhyam Venkata Naga Ramesh f, g , Vemula Jasmine Sowmya h , Isa Bayhan i
a Department of ITE, Maharaja Agrasen Institute of Technology, Delhi, India 
b Department of Information Technology, Maharaja Agrasen Institute of Technology, Delhi, India 
c Department of Computer Science, College of Engineering and Computer Science, Jazan University, Jizan, Kingdom of Saudi Arabia 
d Research Dept of Operations, Symbiosis Institute of Business Management, Hyderabad, Telangana, India 
e A Constituent College of Symbiosis International University Pune, India 
f Department of CSE, Graphic Era Hill University, Dehradun, 248002, India 
g Department of CSE, Graphic Era Deemed To Be University, Dehradun, 248002, Uttarakhand, India 
h Department of Computer Science and Engineering, Koneru Lakshmaiah Education Foundation, Vaddeswaram, Guntur Dist., Andhra Pradesh, 522302, India 
i Bolu Abant Izzet Baysal University, 14030, Golkoy Campus, Bolu, Turkey 

Corresponding author.

Bienvenue sur EM-consulte, la référence des professionnels de santé.
Article gratuit.

Connectez-vous pour en bénéficier!

Abstract

Conventional single-modal approaches for auxiliary diagnosis of Alzheimer's disease (AD) face several limitations, including insufficient availability of expertly annotated imaging datasets, unstable feature extraction, and high computational demands. To address these challenges, we propose Light-Mo-DAD, a lightweight multimodal diagnostic neural network designed to integrate MRI, PET imaging, and neuropsychological assessment scores for enhanced AD detection. In the neuroimaging feature extraction module, redundancy-reduced convolutional operations are employed to capture fine-grained local features, while a global filtering mechanism enables the extraction of holistic spatial patterns. Multimodal feature fusion is achieved through spatial image registration and summation, allowing for effective integration of structural and functional imaging modalities. The neurocognitive feature extraction module utilizes depthwise separable convolutions to process cognitive assessment data, which are then fused with multimodal imaging features. To further enhance the model's discriminative capacity, transfer learning techniques are applied. A multilayer perceptron (MLP) classifier is incorporated to capture complex feature interactions and improve diagnostic precision. Evaluation on the ADNI dataset demonstrates that Light-Mo-DAD achieves 98.0% accuracy, 98.5% sensitivity, and 97.5% specificity, highlighting its robustness in early AD detection. These results suggest that the proposed architecture not only enhances diagnostic accuracy but also offers strong potential for real-time, mobile deployment in clinical settings, supporting neurologists in efficient and reliable Alzheimer's diagnosis.

Le texte complet de cet article est disponible en PDF.

Keywords : Alzheimer's disease, Multimodal diagnosis, MRI, PET, Neuropsychological scores, Neural networks, Lightweight model, Feature fusion, ADNI, Transfer learning


Plan


© 2025  The Author(s). Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 5 - N° 3

Article 100218- septembre 2025 Retour au numéro
Article précédent Article précédent
  • An automated measurement of head circumference using CT scans: An application in children with head abnormalities
  • Priscila Satomi Acamine, Rafael Maffei Loureiro, Lucas dos Anjos Longas, Fabio Augusto Ribeiro Dalpra, Luigi Villanova Machado de Barros Lago, Larissa Vasconcellos de Moraes, Paulo Cesar Filho Estevam, Luiz Otávio Vittorelli, Lucas Silva Kallás, Ana Paula Antunes Pascalicchio Bertozzi, Maria Isabel Barros Guinle, Gilberto Szarf, Saulo Duarte Passos, Birajara Soares Machado, Joselisa Péres Queiroz De Paiva
| Article suivant Article suivant
  • Deep learning model for patient emotion recognition using EEG-tNIRS data
  • Mohan Raparthi, Nischay Reddy Mitta, Vinay Kumar Dunka, Sowmya Gudekota, Sandeep Pushyamitra Pattyam, Venkata Siva Prakash Nimmagadda

Bienvenue sur EM-consulte, la référence des professionnels de santé.

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2025 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.