S'abonner

Title: Can ChatGPT 4.0 Reliably Answer Patient Frequently Asked Questions About Boxer’s Fractures? - 09/01/25

Doi : 10.1016/j.hansur.2025.102082 
Christopher A. White , Jamie L. Kator, Hannah S. Rhe, Thomas Boucher, Rachel Glenn, Amanda Walsh, Jaehon M. Ki
 Department of Orthopaedic Surgery, Icahn School of Medicine at Mount Sinai, New York City, NY, United States 

Corresponding author.
Sous presse. Manuscrit accepté. Disponible en ligne depuis le Thursday 09 January 2025
Cet article a été publié dans un numéro de la revue, cliquez ici pour y accéder

Abstract

Background

Patients are increasingly turning to the internet, and recently artificial intelligence engines (e.g., ChatGPT), for answers to common medical questions. Regarding orthopedic hand surgery, recent literature has focused on ChatGPT’s ability to answer patient frequently asked questions (FAQs) regarding subjects such as carpal tunnel syndrome, distal radius fractures, and more. The present study seeks to determine how accurately ChatGPT can answer patient FAQs surrounding simple fracture patterns such as fifth metacarpal neck fractures.

Methods

Internet queries were used to identify the ten most FAQs regarding boxer’s fractures based on information from five trusted healthcare institutions. These ten questions were posed to ChatGPT 4.0, and the chatbot’s responses were recorded. Two fellowship trained orthopedic hand surgeons and one orthopedic hand surgery fellow then graded ChatGPT’s responses on an alphabetical grading scale (i.e., A-F); additional commentary was then provided for each response. Descriptive statistics were used to report question, grader, and overall ChatGPT response grades.

Results

ChatGPT achieved a cumulative grade of a B, indicating that the chatbot can provide adequate responses with only minor need for clarification when answering FAQs for boxer’s fractures. Individual graders provided comparable overall grades of B, B, and B + respectively. ChatGPT deferred to a medical professional in 7/10 responses. General questions were graded at an A-. Management questions were graded at a C+.

Conclusion

Overall, with a grade of B, ChatGPT 4.0 provides adequate-to- complete responses as it pertains to patient FAQs surrounding boxer’s fractures.

Le texte complet de cet article est disponible en PDF.

Keywords : Boxer’s fracture, fifth metacarpal, ChatGPT, artificial intelligence, patient education



© 2025  Publié par Elsevier Masson SAS.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2025 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.