S'abonner

Novel Computer-Aided Diagnosis Software for the Prevention of Retained Surgical Items - 22/11/21

Doi : 10.1016/j.jamcollsurg.2021.08.689 
Shun Yamaguchi, MD a, Akihiko Soyama, MD, PhD, FACS a, Shinichiro Ono, MD, PhD d, Shin Hamauzu, ME e, Masahiko Yamada, ME e, Toru Fukuda, BHSc f, Masaaki Hidaka, MD, PhD, FACS a, b, Toshiyuki Tsurumoto, MD, PhD c, Masataka Uetani, MD, PhD b, Susumu Eguchi, MD, PhD, FACS a,
a Department of Surgery, Nagasaki University Graduate School of Biomedical Sciences, Nagasaki, Japan 
b Department of Radiological Sciences, Nagasaki University Graduate School of Biomedical Sciences 
c Department of Macroscopic Anatomy, Nagasaki University Graduate School of Biomedical Sciences 
d Department of Digestive and General Surgery, Graduate School of Medicine, University of the Ryukyus, Nishihara, Japan 
e Imaging Technology Center, Research and Development Management Headquarters, FUJIFILM Corporation, Tokyo, Japan 
f Department of Radiology, Nagasaki University Hospital 

Correspondence address: Susumu Eguchi, MD, PhD, FACS, Department of Surgery, Nagasaki University Graduate School of Biomedical Sciences, Sakamoto 1-7-1, Nagasaki 852-8501, Japan.Department of SurgeryNagasaki University Graduate School of Biomedical SciencesSakamoto 1-7-1Nagasaki852-8501Japan

Abstract

Background

Retained surgical items are a serious human error. Surgical sponges account for 70% of retained surgical items. To prevent retained surgical sponges, it is important to establish a system that can identify errors and avoid the occurrence of adverse events. To date, no computer-aided diagnosis software specialized for detecting retained surgical sponges has been reported. We developed a software program that enables easy and effective computer-aided diagnosis of retained surgical sponges with high sensitivity and specificity using the technique of deep learning, a subfield of artificial intelligence.

Study Design

In this study, we developed the software by training it through deep learning using a dataset and then validating the software. The dataset consisted of a training set and validation set. We created composite x-rays consisting of normal postoperative x-rays and surgical sponge x-rays for a training set (n = 4,554) and a validation set (n = 470). Phantom x-rays (n = 12) were prepared for software validation. X-rays obtained with surgical sponges inserted into cadavers were used for validation purposes (formalin: Thiel's method = 252:117). In addition, postoperative x-rays without retained surgical sponges were used for the validation of software performance to determine false-positive rates. Sensitivity, specificity, and false positives per image were calculated.

Results

In the phantom x-rays, both the sensitivity and specificity in software image interpretation were 100%. The software achieved 97.7% sensitivity and 83.8% specificity in the composite x-rays. In the normal postoperative x-rays, 86.6% specificity was achieved. In reading the cadaveric x-rays, the software attained both sensitivity and specificity of >90%.

Conclusions

Software with high sensitivity for diagnosis of retained surgical sponges was developed successfully.

Le texte complet de cet article est disponible en PDF.

Visual Abstract




Le texte complet de cet article est disponible en PDF.

Plan


 Disclosure Information: This study was supported in part by the research grant from FUJIFILM Corporation.


© 2021  American College of Surgeons. Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 233 - N° 6

P. 686-696 - décembre 2021 Retour au numéro
Article précédent Article précédent
  • Effect of Wound Contamination on Outcomes of Abdominal Wall Reconstruction Using Acellular Dermal Matrix: 14-Year Experience with More than 700 Patients
  • Abbas M. Hassan, Malke Asaad, Allison J. Seitz, Jun Liu, Charles E. Butler
| Article suivant Article suivant
  • Crisis Containment: Tools for Harm Mitigation in Surgery
  • Petrut Gogalniceanu, Nicos Kessaris, Nikolaos Karydis, Ioannis Loukopoulos, Nick Sevdalis, Nizam Mamode

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.