S'abonner

Deep learning–based pancreas segmentation and station recognition system in EUS: development and validation of a useful training tool (with video) - 21/09/20

Doi : 10.1016/j.gie.2020.04.071 
Jun Zhang 1, 2, 3, Liangru Zhu 4, Liwen Yao 1, 2, 3, Xiangwu Ding 5, Di Chen 1, 2, 3, Huiling Wu 1, 2, 3, Zihua Lu 1, 2, 3, Wei Zhou 1, 2, 3, Lihui Zhang 1, 2, 3, Ping An 1, 2, 3, Bo Xu 5, Wei Tan 1, 2, 3, Shan Hu 6, Fan Cheng 7, Honggang Yu 1, 2, 3,
1 Department of Gastroenterology, Renmin Hospital of Wuhan University, Wuhan, China 
2 Key Laboratory of Hubei Province for Digestive System Disease, Renmin Hospital of Wuhan University, Wuhan, China 
3 Hubei Provincial Clinical Research Center for Digestive Disease Minimally Invasive Incision, Renmin Hospital of Wuhan University, Wuhan, China 
4 Department of Gastroenterology, Wuhan Union Hospital, Huazhong University of Science and Technology, Wuhan, China 
5 Department of Gastroenterology, Wuhan Puai Hospital, Wuhan, China 
6 Research and Development Department, Wuhan EndoAngel Medical Technology Company, Wuhan, China 
7 Department of Surgery, Renmin Hospital of Wuhan University, Wuhan, China 

Reprint requests: Honggang Yu, Department of Gastroenterology, Renmin Hospital of Wuhan University, 99 Zhangzhidong Rd, Wuhan 430060, Hubei Province, China.Department of GastroenterologyRenmin Hospital of Wuhan University99 Zhangzhidong RdWuhanHubei Province430060China

Abstract

Background and Aims

EUS is considered one of the most sensitive modalities for pancreatic cancer detection, but it is highly operator-dependent and the learning curve is steep. In this study, we constructed a system named BP MASTER (pancreaticobiliary master) for EUS training and quality control.

Methods

The standard procedure of pancreatic EUS was divided into 6 stations. We developed a station classification model and a pancreas/abdominal aorta/portal confluence segmentation model with 19,486 images and 2207 images, respectively. Then, we used 1920 images and 700 images for classification and segmentation internal validation, respectively. To test station recognition we used 396 videos clips. An independent data set containing 180 images was applied for comparing the performance between models and EUS experts. Seven hundred sixty-eight images from 2 other hospitals were used for external validation. A crossover study was conducted to test the system effect on reducing difficulty in ultrasonographics interpretation among trainees.

Results

The models achieved 94.2% accuracy in station classification and .836 dice in segmentation at internal validation. At external validation, the models achieved 82.4% accuracy in station classification and .715 dice in segmentation. For the video test, the station classification model achieved a per-frame accuracy of 86.2%. Compared with EUS experts, the models achieved 90.0% accuracy in classification and .77 and .813 dice in blood vessel and pancreas segmentation, which is comparable with that of experts. In the crossover study, trainee station recognition accuracy improved from 67.2% to 78.4% (95% confidence interval, .058-1.663; P < .01).

Conclusions

The BP MASTER system has the potential to play an important role in shortening the pancreatic EUS learning curve and improving EUS quality control in the future.

Le texte complet de cet article est disponible en PDF.

Graphical abstract




Le texte complet de cet article est disponible en PDF.

Abbreviations : BP MASTER, DCNN, GPU, IoU


Plan


 DISCLOSURE: The following author disclosed financial relationships: S. Hu: Research staff member of Wuhan EndoAngel Medical Technology Company. All other authors disclosed no financial relationships. Research support for this study was provided in part by the Project of Hubei Provincial Clinical Research Center for Digestive Disease Minimally Invasive Incision (grant no. 2018BCC337) and the Hubei Province Major Science and Technology Innovation Project (grant no. 2018-916-000-008).


© 2020  American Society for Gastrointestinal Endoscopy. Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 92 - N° 4

P. 874 - octobre 2020 Retour au numéro
Article précédent Article précédent
  • Highly accurate artificial intelligence systems to predict the invasion depth of gastric cancer: efficacy of conventional white-light imaging, nonmagnifying narrow-band imaging, and indigo-carmine dye contrast imaging
  • Sayaka Nagao, Yosuke Tsuji, Yoshiki Sakaguchi, Yu Takahashi, Chihiro Minatsuki, Keiko Niimi, Hiroharu Yamashita, Nobutake Yamamichi, Yasuyuki Seto, Tomohiro Tada, Kazuhiko Koike
| Article suivant Article suivant
  • A natural language–based tool for diagnosis of serrated polyposis syndrome
  • Gopanandan Parthasarathy, Rocio Lopez, John McMichael, Carol A. Burke

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.