Evaluating SegResNet for single-modality meningioma segmentation on T1 contrast-enhanced MRI on a New Zealand clinical cohort - 20/01/26

Doi : 10.1016/j.neuri.2026.100261 
Jiantao Shen a, Sung-Min Jun b, Samantha J. Holdsworth c, d, e, Gonzalo Maso Talou a, Jason A. Correia b, 1, Hamid Abbasi a, d, f, 1,
a Auckland Bioengineering Institute, The University of Auckland, Auckland, 1010, New Zealand 
b Department of Neurosurgery, Auckland City and Starship Hospitals, Auckland, 1023, New Zealand 
c Department of Anatomy & Medical Imaging, Faculty of Medical and Health Sciences, The University of Auckland, Auckland, 1023, New Zealand 
d Centre for Brain Research, The University of Auckland, Auckland, 1023, New Zealand 
e Mātai Medical Research Institute, Gisborne, 4010, New Zealand 
f Department of Physiology, Faculty of Medical and Health Sciences, The University of Auckland, Auckland, 1023, New Zealand 

Corresponding author. Auckland Bioengineering Institute, The University of Auckland, Auckland, 1010, New Zealand. Auckland Bioengineering Institute The University of Auckland Auckland 1010 New Zealand

Bienvenue sur EM-consulte, la référence des professionnels de santé.
Article gratuit.

Connectez-vous pour en bénéficier!

Abstract

Accurate and automated meningioma segmentation remains a biomedical engineering challenge, particularly when relying on single-modality MRI data. We evaluate SegResNet, a U-Net-based deep learning architecture, for meningioma segmentation using 817 T1 contrast-enhanced (T1CE) magnetic resonance imaging (MRI) images from 282 patients across Auckland, New Zealand. We investigate the effect of incorporating additional images from the 2023 Brain Tumor Segmentation (BraTS) meningioma challenge during training on model performance. The baseline model trained solely on the Auckland dataset achieved 75.67 % mean Dice. Incorporating an additional 200 and 400 BraTS images improved segmentation performance to 77.89 % and 76.73 %, respectively. A separate experiment involving pre-training on BraTS data followed by fine-tuning on Auckland data achieved 75.90 % Dice. Our results suggest that while leveraging external datasets can enhance model robustness, the extent of improvement depends on dataset heterogeneity and alignment with the target domain.

Analysis of a subset of images unaffected by skull-stripping artifacts indicated notably higher segmentation accuracy (up to 84.02 % Dice), highlighting the influence of preprocessing on performance. Evaluations using the 2023 and 2024 BraTS lesion-wise metrics demonstrated the importance of context-appropriate metric selection. Our findings highlight the adaptability of SegResNet to a single-modality T1CE – a widely available sequence in standard clinical protocols – clinical dataset and emphasize how public data integration, careful preprocessing, and task-aligned evaluation can support robust segmentation models for diverse and resource-constrained environments.

Le texte complet de cet article est disponible en PDF.

Graphical abstract




Image 1

Le texte complet de cet article est disponible en PDF.

Keywords : Meningioma segmentation, Brain tumor, Deep learning, SegResNet, Magnetic resonance imaging, Medical image analysis


Plan


© 2026  The Authors. Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 6 - N° 1

Article 100261- mars 2026 Retour au numéro
Article précédent Article précédent
  • TRELLIS -enhanced surface features for comprehensive intracranial aneurysm analysis
  • Clément Hervé, Paul Garnier, Jonathan Viquerat, Elie Hachem
| Article suivant Article suivant
  • A study on the potential relationship between the diagnosis and functional connectivity in the brain in major depressive disorder
  • Tsubasa Sasaki, Yoshiyuki Hirano

Bienvenue sur EM-consulte, la référence des professionnels de santé.

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.