S'abonner

Highly accurate artificial intelligence systems to predict the invasion depth of gastric cancer: efficacy of conventional white-light imaging, nonmagnifying narrow-band imaging, and indigo-carmine dye contrast imaging - 21/09/20

Doi : 10.1016/j.gie.2020.06.047 
Sayaka Nagao, MD 1, Yosuke Tsuji, MD, PhD 1, , Yoshiki Sakaguchi, MD, PhD 1, Yu Takahashi, MD, PhD 1, Chihiro Minatsuki, MD, PhD 1, Keiko Niimi, MD, PhD 1, Hiroharu Yamashita, MD, PhD 2, Nobutake Yamamichi, MD, PhD 1, Yasuyuki Seto, MD, PhD 2, Tomohiro Tada, MD, PhD 3, 4, 5, Kazuhiko Koike, MD, PhD 1
1 Department of Gastroenterology, Graduate School of Medicine, The University of Tokyo, Tokyo, Japan 
2 Department of Gastrointestinal Surgery, Graduate School of Medicine, The University of Tokyo, Tokyo, Japan 
3 Department of Surgical Oncology, Graduate School of Medicine, The University of Tokyo, Tokyo, Japan 
4 AI Medical Service Inc, Tokyo, Japan 
5 Tada Tomohiro Institute of Gastroenterology and Proctology, Saitama, Japan 

Reprint requests: Yosuke Tsuji, MD, PhD, Department of Gastroenterology, Graduate School of Medicine, The University of Tokyo, 7-3-1, Hongo, Bunkyo-ku, Tokyo, 113-8655, Japan.Department of GastroenterologyGraduate School of MedicineThe University of Tokyo7-3-1, HongoBunkyo-kuTokyo113-8655Japan

Abstract

Background and Aims

Diagnosing the invasion depth of gastric cancer (GC) is necessary to determine the optimal method of treatment. Although the efficacy of evaluating macroscopic features and EUS has been reported, there is a need for more accurate and objective methods. The primary aim of this study was to test the efficacy of novel artificial intelligence (AI) systems in predicting the invasion depth of GC.

Methods

A total of 16,557 images from 1084 cases of GC for which endoscopic resection or surgery was performed between January 2013 and June 2019 were extracted. Cases were randomly assigned to training and test datasets at a ratio of 4:1. Through transfer learning leveraging a convolutional neural network architecture, ResNet50, 3 independent AI systems were developed. Each system was trained to predict the invasion depth of GC using conventional white-light imaging (WLI), nonmagnifying narrow-band imaging (NBI), and indigo-carmine dye contrast imaging (Indigo).

Results

The area under the curve of the WLI AI system was .9590. The lesion-based sensitivity, specificity, accuracy, positive predictive value, and negative predictive value of the WLI AI system were 84.4%, 99.4%, 94.5%, 98.5%, and 92.9%, respectively. The lesion-based accuracies of the WLI, NBI, and Indigo AI systems were 94.5%, 94.3%, and 95.5%, respectively, with no significant difference.

Conclusions

These new AI systems trained with multiple images from different angles and distances could predict the invasion depth of GC with high accuracy. The lesion-based accuracy of the WLI, NBI, and Indigo AI systems was not significantly different.

Le texte complet de cet article est disponible en PDF.

Graphical abstract




Le texte complet de cet article est disponible en PDF.

Abbreviations : AI, GC, Indigo, NBI, SM2, WLI


Plan


 DISCLOSURE: The following author disclosed financial relationships: T. Tada: CEO and shareholder for AI Medical Service Inc. All other authors disclosed no financial relationships.


© 2020  American Society for Gastrointestinal Endoscopy. Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 92 - N° 4

P. 866 - octobre 2020 Retour au numéro
Article précédent Article précédent
  • Performance of a computer-aided diagnosis system in diagnosing early gastric cancer using magnifying endoscopy videos with narrow-band imaging (with videos)
  • Yusuke Horiuchi, Toshiaki Hirasawa, Naoki Ishizuka, Yoshitaka Tokai, Ken Namikawa, Shoichi Yoshimizu, Akiyoshi Ishiyama, Toshiyuki Yoshio, Tomohiro Tsuchida, Junko Fujisaki, Tomohiro Tada
| Article suivant Article suivant
  • Deep learning–based pancreas segmentation and station recognition system in EUS: development and validation of a useful training tool (with video)
  • Jun Zhang, Liangru Zhu, Liwen Yao, Xiangwu Ding, Di Chen, Huiling Wu, Zihua Lu, Wei Zhou, Lihui Zhang, Ping An, Bo Xu, Wei Tan, Shan Hu, Fan Cheng, Honggang Yu

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.