S'abonner

Automatic segmentation of thoracic CT images using three deep learning models - 06/07/22

Segmentation automatique d’images CT thoraciques à l’aide de trois modèles basés sur l’apprentissage profond

Doi : 10.1016/j.canrad.2022.02.001 
D.M. Khalal a, , A. Behouch a, H. Azizi a, N. Maalej b
a Department of Physics, Faculty of Sciences, Laboratory of dosing, analysis and characterization in high resolution, Ferhat Abbas Sétif 1 University, El Baz campus, 19137 Sétif, Algeria 
b Department of Physics, Khalifa University, Abu Dhabi, United Arab Emirates 

Corresponding author at: Department of Physics, Faculty of Sciences, Laboratory of dosing, analysis and characterization in high resolution, Ferhat Abbas Sétif 1 University, El Baz campus, 19137 Sétif, Algeria.Department of Physics, Faculty of Sciences, Laboratory of dosing, analysis and characterization in high resolution, Ferhat Abbas Sétif 1 University, El Baz campusSétif19137Algeria
Sous presse. Épreuves corrigées par l'auteur. Disponible en ligne depuis le Wednesday 06 July 2022
Cet article a été publié dans un numéro de la revue, cliquez ici pour y accéder

Abstract

Purpose

Deep learning (DL) techniques are widely used in medical imaging and in particular for segmentation. Indeed, manual segmentation of organs at risk (OARs) is time-consuming and suffers from inter- and intra-observer segmentation variability. Image segmentation using DL has given very promising results. In this work, we present and compare the results of segmentation of OARs and a clinical target volume (CTV) in thoracic CT images using three DL models.

Materials and methods

We used CT images of 52 patients with breast cancer from a public dataset. Automatic segmentation of the lungs, the heart and a CTV was performed using three models based on the U-Net architecture. Three metrics were used to quantify and compare the segmentation results obtained with these models: the Dice similarity coefficient (DSC), the Jaccard coefficient (J) and the Hausdorff distance (HD).

Results

The obtained values of DSC, J and HD were presented for each segmented organ and for the three models. Examples of automatic segmentation were presented and compared to the corresponding ground truth delineations. Our values were also compared to recent results obtained by other authors.

Conclusion

The performance of three DL models was evaluated for the delineation of the lungs, the heart and a CTV. This study showed clearly that these 2D models based on the U-Net architecture can be used to delineate organs in CT images with a good performance compared to other models. Generally, the three models present similar performances. Using a dataset with more CT images, the three models should give better results.

Le texte complet de cet article est disponible en PDF.

Résumé

Objectif de l’étude

Les techniques d’apprentissage profond (DL: Deep Learning) sont largement utilisées en imagerie médicale et en particulier pour la segmentation. En effet, la segmentation manuelle des organes à risque est chronophage et souffre d’une variabilité de segmentation entre les observateurs et pour un même observateur. La segmentation d’images par apprentissage profond a donné des résultats très prometteurs. Dans ce travail, nous présentons et comparons les résultats de la segmentation des organes à risque et d’un volume cible clinique (CTV: clinical target volume) d’images scanographiques thoraciques en utilisant trois modèles d’apprentissage profond.

Matériel et méthodes

Nous avons utilisé des images scanographiques de 52 patientes atteintes d’un cancer du sein à partir d’un ensemble de données publiques. La segmentation automatique des poumons, du cœur et d’un CTV a été réalisée à l’aide de trois modèles basés sur l’architecture U-Net. Trois métriques ont été utilisées pour quantifier et comparer les résultats de la segmentation obtenus avec ces modèles: le coefficient de similarité (DSC: Dice similarity coefficient), le coefficient de Jaccard (J) et la distance de Hausdorff (HD).

Résultats

Les valeurs obtenues de DSC, J et HD ont été présentées pour chaque organe segmenté et pour les trois modèles. Des exemples de segmentation automatique ont été présentés et comparés aux vraies segmentations correspondantes. Nos valeurs ont également été comparées à des résultats récents obtenus par d’autres auteurs.

Conclusion

La performance de trois modèles d’apprentissage profond a été évaluée pour la délimitation des poumons, du cœur et du CTV. Cette étude a clairement montré que ces modèles 2D, basés sur l’architecture U-Net, peuvent être utilisés pour segmenter des organes dans des images scanographiques avec de bonnes performances en comparaison à d’autres modèles. Généralement, les trois modèles présentent des performances similaires. En utilisant un ensemble de données avec plus d’images scanographiques, les trois modèles devraient donner de meilleurs résultats.

Le texte complet de cet article est disponible en PDF.

Keywords : Automatic segmentation, Deep learning, Organs-at-risk, Clinical target volume

Mots clés : Segmentation automatique, Apprentissage profond, Organes à risque, Volume cible clinique


Plan


© 2022  Société française de radiothérapie oncologique (SFRO). Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2024 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.