Evaluating SegResNet for single-modality meningioma segmentation on T1 contrast-enhanced MRI on a New Zealand clinical cohort - 20/01/26

Doi : 10.1016/j.neuri.2026.100261 
Jiantao Shen a, Sung-Min Jun b, Samantha J. Holdsworth c, d, e, Gonzalo Maso Talou a, Jason A. Correia b, 1, Hamid Abbasi a, d, f, 1,
a Auckland Bioengineering Institute, The University of Auckland, Auckland, 1010, New Zealand 
b Department of Neurosurgery, Auckland City and Starship Hospitals, Auckland, 1023, New Zealand 
c Department of Anatomy & Medical Imaging, Faculty of Medical and Health Sciences, The University of Auckland, Auckland, 1023, New Zealand 
d Centre for Brain Research, The University of Auckland, Auckland, 1023, New Zealand 
e Mātai Medical Research Institute, Gisborne, 4010, New Zealand 
f Department of Physiology, Faculty of Medical and Health Sciences, The University of Auckland, Auckland, 1023, New Zealand 

Corresponding author. Auckland Bioengineering Institute, The University of Auckland, Auckland, 1010, New Zealand. Auckland Bioengineering Institute The University of Auckland Auckland 1010 New Zealand

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.
Articolo gratuito.

Si connetta per beneficiarne

Abstract

Accurate and automated meningioma segmentation remains a biomedical engineering challenge, particularly when relying on single-modality MRI data. We evaluate SegResNet, a U-Net-based deep learning architecture, for meningioma segmentation using 817 T1 contrast-enhanced (T1CE) magnetic resonance imaging (MRI) images from 282 patients across Auckland, New Zealand. We investigate the effect of incorporating additional images from the 2023 Brain Tumor Segmentation (BraTS) meningioma challenge during training on model performance. The baseline model trained solely on the Auckland dataset achieved 75.67 % mean Dice. Incorporating an additional 200 and 400 BraTS images improved segmentation performance to 77.89 % and 76.73 %, respectively. A separate experiment involving pre-training on BraTS data followed by fine-tuning on Auckland data achieved 75.90 % Dice. Our results suggest that while leveraging external datasets can enhance model robustness, the extent of improvement depends on dataset heterogeneity and alignment with the target domain.

Analysis of a subset of images unaffected by skull-stripping artifacts indicated notably higher segmentation accuracy (up to 84.02 % Dice), highlighting the influence of preprocessing on performance. Evaluations using the 2023 and 2024 BraTS lesion-wise metrics demonstrated the importance of context-appropriate metric selection. Our findings highlight the adaptability of SegResNet to a single-modality T1CE – a widely available sequence in standard clinical protocols – clinical dataset and emphasize how public data integration, careful preprocessing, and task-aligned evaluation can support robust segmentation models for diverse and resource-constrained environments.

Il testo completo di questo articolo è disponibile in PDF.

Graphical abstract




Image 1

Il testo completo di questo articolo è disponibile in PDF.

Keywords : Meningioma segmentation, Brain tumor, Deep learning, SegResNet, Magnetic resonance imaging, Medical image analysis


Mappa


© 2026  The Authors. Pubblicato da Elsevier Masson SAS. Tutti i diritti riservati.
Aggiungere alla mia biblioteca Togliere dalla mia biblioteca Stampare
Esportazione

    Citazioni Export

  • File

  • Contenuto

Vol 6 - N° 1

Articolo 100261- marzo 2026 Ritorno al numero
Articolo precedente Articolo precedente
  • TRELLIS -enhanced surface features for comprehensive intracranial aneurysm analysis
  • Clément Hervé, Paul Garnier, Jonathan Viquerat, Elie Hachem
| Articolo seguente Articolo seguente
  • A study on the potential relationship between the diagnosis and functional connectivity in the brain in major depressive disorder
  • Tsubasa Sasaki, Yoshiyuki Hirano

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.

@@150455@@ Voir plus

Il mio account


Dichiarazione CNIL

EM-CONSULTE.COM è registrato presso la CNIL, dichiarazione n. 1286925.

Ai sensi della legge n. 78-17 del 6 gennaio 1978 sull'informatica, sui file e sulle libertà, Lei puo' esercitare i diritti di opposizione (art.26 della legge), di accesso (art.34 a 38 Legge), e di rettifica (art.36 della legge) per i dati che La riguardano. Lei puo' cosi chiedere che siano rettificati, compeltati, chiariti, aggiornati o cancellati i suoi dati personali inesati, incompleti, equivoci, obsoleti o la cui raccolta o di uso o di conservazione sono vietati.
Le informazioni relative ai visitatori del nostro sito, compresa la loro identità, sono confidenziali.
Il responsabile del sito si impegna sull'onore a rispettare le condizioni legali di confidenzialità applicabili in Francia e a non divulgare tali informazioni a terzi.


Tutto il contenuto di questo sito: Copyright © 2026 Elsevier, i suoi licenziatari e contributori. Tutti i diritti sono riservati. Inclusi diritti per estrazione di testo e di dati, addestramento dell’intelligenza artificiale, e tecnologie simili. Per tutto il contenuto ‘open access’ sono applicati i termini della licenza Creative Commons.