Evaluating SegResNet for Single-Modality Meningioma Segmentation on T1-Contrast-Enhanced MRI on a New Zealand Clinical Cohort - 14/01/26

Doi : 10.1016/j.neuri.2026.100261 
Jiantao Shen a, Sung-Min Jun b, Samantha J. Holdsworth c, d, e, Gonzalo Maso Talou a, Jason A. Correia b, , Hamid Abbasi a, d, ,
a Auckland Bioengineering Institute, The University of Auckland, Auckland, 1010, New Zealand 
b Department of Neurosurgery, Auckland City and Starship Hospitals, Auckland, 1023, New Zealand 
c Department of Anatomy & Medical Imaging, Faculty of Medical and Health Sciences, The University of Auckland, Auckland, 1023, New Zealand 
d Centre for Brain Research, The University of Auckland, Auckland, 1023, New Zealand 
e Mātai Medical Research Institute, Gisborne, 4010, New Zealand 

Corresponding author.

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.
Artículo gratuito.

Conéctese para beneficiarse!

En prensa. Manuscrito Aceptado. Disponible en línea desde el Wednesday 14 January 2026
This article has been published in an issue click here to access

Abstract

Accurate and automated meningioma segmentation remains a biomedical engineering challenge, particularly when relying on single-modality MRI data. We evaluate SegResNet, a U-Net-based deep learning architecture, for meningioma segmentation using 817 T1-contrast-enhanced (T1CE) magnetic resonance imaging (MRI) images from 282 patients from across Auckland, New Zealand. We investigate the effect of incorporating additional images from the 2023 Brain Tumour Segmentation (BraTS) meningioma challenge during training on model performance. The baseline model trained solely on the Auckland dataset achieved 75.67% mean Dice. Incorporating an additional 200 and 400 BraTS images improved segmentation performance to 77.89% and 76.73%, respectively. A separate experiment involving pre-training on BraTS data followed by fine-tuning on Auckland data achieved 75.90% Dice. Our results suggest that while leveraging external datasets can enhance model robustness, the extent of improvement depends on dataset heterogeneity and alignment with the target domain.

Analysis of a subset of images unaffected by skull-stripping artifacts indicated notably higher segmentation accuracy (up to 84.02% Dice), highlighting the influence of preprocessing on performance. Evaluations using the 2023 and 2024 BraTS lesion-wise metrics demonstrated that importance of context-appropriate metric selection. Our findings highlight the adaptability of SegResNet to a single-modality T1CE – a widely available sequence in standard clinical protocols – clinical dataset and emphasize how public data integration, careful preprocessing, and task-aligned evaluation can support robust segmentation models for diverse and resource-constrained environments.

El texto completo de este artículo está disponible en PDF.

Graphical abstract




Image 1

El texto completo de este artículo está disponible en PDF.

Keywords : Meningioma segmentation, Brain tumour, Deep learning, SegResNet, Magnetic resonance imaging, Medical image analysis


Esquema


© 2026  Publicado por Elsevier Masson SAS.
Añadir a mi biblioteca Eliminar de mi biblioteca Imprimir
Exportación

    Exportación citas

  • Fichero

  • Contenido

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.

@@150455@@ Voir plus

Mi cuenta


Declaración CNIL

EM-CONSULTE.COM se declara a la CNIL, la declaración N º 1286925.

En virtud de la Ley N º 78-17 del 6 de enero de 1978, relativa a las computadoras, archivos y libertades, usted tiene el derecho de oposición (art.26 de la ley), el acceso (art.34 a 38 Ley), y correcta (artículo 36 de la ley) los datos que le conciernen. Por lo tanto, usted puede pedir que se corrija, complementado, clarificado, actualizado o suprimido información sobre usted que son inexactos, incompletos, engañosos, obsoletos o cuya recogida o de conservación o uso está prohibido.
La información personal sobre los visitantes de nuestro sitio, incluyendo su identidad, son confidenciales.
El jefe del sitio en el honor se compromete a respetar la confidencialidad de los requisitos legales aplicables en Francia y no de revelar dicha información a terceros.


Todo el contenido en este sitio: Copyright © 2026 Elsevier, sus licenciantes y colaboradores. Se reservan todos los derechos, incluidos los de minería de texto y datos, entrenamiento de IA y tecnologías similares. Para todo el contenido de acceso abierto, se aplican los términos de licencia de Creative Commons.