S'abonner

Comparing AI-generated and human peer reviews: A study on 11 articles - 13/09/25

Doi : 10.1016/j.hansur.2025.102225 
Domenico Marrella a, Su Jiang b, Kyros Ipaktchi c, Philippe Liverneaux a, d,
a Department of Hand Surgery, Strasbourg University Hospitals, FMTS, 1 Avenue Molière, 67200 Strasbourg, France 
b Department of Hand Surgery, Huashan Hospital, Fudan University, No.12 Wulumuqi Middle Road, 200040, Shanghai, China 
c Department of Hand, Upper Extremity & Microvascular Surgery, Dept. of Orthopaedic Surgery, Denver Health Medical Center, 777 Bannock Street, Denver, CO 80204, United States 
d ICube CNRS UMR7357, Strasbourg University, 2-4 Rue Boussingault, 67000 Strasbourg, France 

Corresponding author at: Department of Hand Surgery, Strasbourg University Hospitals, FMTS, 1 avenue Molière, 67200 Strasbourg, France.Department of Hand SurgeryStrasbourg University HospitalsFMTS1 avenue MolièreStrasbourg67200France

Abstract

While the peer review process remains the gold standard for evaluating the quality of scientific articles, it is facing a crisis due to the increase in submissions and prolonged review times. This study assessed ChatGPT’s ability to formulate editorial decisions and produce peer reviews for surgery-related manuscripts. We tested the hypothesis that ChatGPT's peer review quality exceeds that of human reviewers.

Eleven published articles in the field of hand surgery, initially rejected by one journal and after accepted by another, were anonymized by removing the title page from the original PDF submission and subsequently evaluated by requesting ChatGPT 4o and o1 to determine each article’s eligibility for publication and generate a peer review. The policy prohibiting the submission of unpublished manuscripts to large language models was not violated, as all articles had already been published at the time of the study.

An experienced hand surgeon assessed all peer reviews (including the original human reviews from both the rejecting and the accepting journals and ChatGPT-generated) using the ARCADIA score, which consists of 20 items rated from 1 to 5 on a Likert scale.

The average acceptance rate of ChatGPT 4o was 95%, while that of ChatGPT o1 was 98%. The concordance of ChatGPT 4o's decisions with those of the journal with the highest impact factor was 32%, whereas that of ChatGPT o1 was 29%. ChatGPT 4o's decisions were in accordance with those of the journal with the lowest impact factor, which was 68%, while ChatGPT o1's was 71%. The ARCADIA scores of peer reviews generated by human reviewers (2.8 for journals that accepted the article and 3.2 for those that rejected it) were lower than those of ChatGPT 4o (4.8) and o1 (4.9).

In conclusion, ChatGPT can optimize the peer review process for scientific articles if it receives precise instructions to avoid "hallucinations." Many of its functionalities surpass human capabilities, but managing its limitations rigorously is essential to improving publication quality.

Le texte complet de cet article est disponible en PDF.

Keywords : Artificial intelligence, Large language model, Peer review, Scientific article, Hand surgery, ChatGPT


Plan


© 2025  The Author(s). Publié par Elsevier Masson SAS. Tous droits réservés.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 44 - N° 4

Article 102225- septembre 2025 Retour au numéro
Article précédent Article précédent
  • Functional and aesthetic outcomes after index pollicization using two different techniques in children with thumb hypoplasia – A comparative study
  • Karim Hachem, Manon Bachy-Razzouk, Coline Martinot-Lagarde, Elie Saghbiny, Frank Fitoussi
| Article suivant Article suivant
  • Bone grafting for scaphoid nonunion with dry arthroscopy
  • Asgeir Amundsen, Istvan Zoltan Rigo, Preben Olsson Dovland, Jan- Ragnar Haugstvedt

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.