S'abonner

Evaluating ChatGPT to test its robustness as an interactive information database of radiation oncology and to assess its responses to common queries from radiotherapy patients: A single institution investigation - 30/06/24

Évaluation de ChatGPT pour tester sa robustesse en tant que base de données d’informations interactives sur l’oncologie radiothérapique et ses réponses aux questions courantes des patients en radiothérapie : enquête auprès d’une seule institution

Doi : 10.1016/j.canrad.2023.11.005 
V.K. Pandey a, , A. Munshi a, B.K. Mohanti b, K. Bansal c, K. Rastogi d
a Radiation Oncology, Manipal Hospital Dwarka, Delhi, India 
b Radiation Oncology, Kalinga Institute of Medical Sciences, Bhubaneswar, Odisha, India 
c Radiation Oncology, Narayana Hospital, Gurugram, Haryana, India 
d Radiation Oncology, Sterling Hospital, Gandhidham, Gujrat, India 

Corresponding author.

Abstract

Purpose

Commercial vendors have created artificial intelligence (AI) tools for use in all aspects of life and medicine, including radiation oncology. AI innovations will likely disrupt workflows in the field of radiation oncology. However, limited data exist on using AI-based chatbots about the quality of radiation oncology information. This study aims to assess the accuracy of ChatGPT, an AI-based chatbot, in answering patients’ questions during their first visit to the radiation oncology outpatient department and test knowledge of ChatGPT in radiation oncology.

Material and methods

Expert opinion was formulated using a set of ten standard questions of patients encountered in outpatient department practice. A blinded expert opinion was taken for the ten questions on common queries of patients in outpatient department visits, and the same questions were evaluated on ChatGPT version 3.5 (ChatGPT 3.5). The answers by expert and ChatGPT were independently evaluated for accuracy by three scientific reviewers. Additionally, a comparison was made for the extent of similarity of answers between ChatGPT and experts by a response scoring for each answer. Word count and Flesch-Kincaid readability score and grade were done for the responses obtained from expert and ChatGPT. A comparison of the answers of ChatGPT and expert was done with a Likert scale. As a second component of the study, we tested the technical knowledge of ChatGPT. Ten multiple choice questions were framed with increasing order of difficulty – basic, intermediate and advanced, and the responses were evaluated on ChatGPT. Statistical testing was done using SPSS version 27.

Results

After expert review, the accuracy of expert opinion was 100%, and ChatGPT's was 80% (8/10) for regular questions encountered in outpatient department visits. A noticeable difference was observed in word count and readability of answers from expert opinion or ChatGPT. Of the ten multiple-choice questions for assessment of radiation oncology database, ChatGPT had an accuracy rate of 90% (9 out of 10). One answer to a basic-level question was incorrect, whereas all answers to intermediate and difficult-level questions were correct.

Conclusion

ChatGPT provides reasonably accurate information about routine questions encountered in the first outpatient department visit of the patient and also demonstrated a sound knowledge of the subject. The result of our study can inform the future development of educational tools in radiation oncology and may have implications in other medical fields. This is the first study that provides essential insight into the potentially positive capabilities of two components of ChatGPT: firstly, ChatGPT's response to common queries of patients at OPD visits, and secondly, the assessment of the radiation oncology knowledge base of ChatGPT.

Le texte complet de cet article est disponible en PDF.

Résumé

Objectif de l’étude

Les fournisseurs commerciaux ont créé des outils d’intelligence artificielle pour une utilisation dans tous les aspects de la vie et de la médecine, y compris l’oncologie radiothérapique. Les innovations en matière d’intelligence artificielle (IA) bouleverseront probablement les flux de travail dans le domaine de l’oncologie radiothérapique. Cependant, il existe peu de données sur l’utilisation de chatbots basés sur l’IA sur la qualité des informations en oncologie radiothérapique. Cette étude vise à évaluer la précision de ChatGPT, un chatbot basé sur l’IA, pour répondre aux questions des patients lors de leur première visite en oncologie radiothérapique.

Matériel et méthodes

L’avis d’expert a été formulé à partir d’un ensemble de dix questions types de patients rencontrées dans la pratique de l’oncologie radiothérapique. Un avis d’expert en aveugle a été pris pour les dix questions sur les requêtes courantes des patients lors des visites en oncologie radiothérapique, et les mêmes questions ont été évaluées sur ChatGPT version 3.5 (ChatGPT 3.5). Les réponses des experts et de ChatGPT ont été évaluées indépendamment par trois examinateurs scientifiques. En outre, une comparaison a été faite pour l’étendue de la similitude des réponses entre ChatGPT et les experts par une notation de chaque réponse. Le comptage des mots et le score de lisibilité et la note de Flesch-Kincaid ont été effectués pour les réponses obtenues auprès d’experts et de ChatGPT. Une comparaison des réponses de ChatGPT et d’expert a été effectuée à l’aide d’une échelle de Likert. Dans un deuxième volet de l’étude, nous avons testé les connaissances techniques de ChatGPT. Dix questions à choix multiples (QCM) ont été soumises par ordre croissant de difficulté : basique, intermédiaire et avancé, et les réponses ont été évaluées sur ChatGPT. Les tests statistiques ont été effectués à l’aide de la version 27 de SPSS.

Résultats

Après examen par des experts, la précision de l’opinion des experts était de 100 %, et celle de ChatGPT de 80 % (8 sur 10) pour les questions régulières posées lors des visites en oncologie radiothérapique ; une différence notable a été observée dans le nombre de mots et la lisibilité des réponses provenant d’opinions d’experts ou de ChatGPT. Par ailleurs, sur les dix QCM pour l’évaluation de la base de données d’oncologie radiothérapique, ChatGPT avait un taux de précision de 90 % (9 sur 10). Une réponse à une question de niveau de base était incorrecte, alors que toutes les réponses aux questions de niveau intermédiaire et difficile étaient correctes.

Conclusion

ChatGPT fournit des informations raisonnablement précises sur les questionnaires de routine rencontrés lors de la première visite en oncologie radiothérapique du patient et a également démontré une bonne connaissance du sujet. Les résultats de notre étude peuvent éclairer le développement futur d’outils éducatifs en oncologie radiothérapique et avoir des implications dans d’autres domaines médicaux. Il s’agit de la première étude fournissant des informations essentielles sur les capacités potentiellement positives de deux composants de ChatGPT : premièrement, la réponse de ChatGPT aux questions courantes des patients lors des visites en oncologie radiothérapique, et deuxièmement, l’évaluation de la base de connaissances en oncologie radiothérapique de ChatGPT.

Le texte complet de cet article est disponible en PDF.

Keywords : ChatGPT, Radiation oncology, Patient queries

Mots clés : ChatGPT, Oncologie radiothérapique, Requêtes des patients


Plan


© 2024  Publié par Elsevier Masson SAS.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 28 - N° 3

P. 258-264 - juin 2024 Retour au numéro
Article précédent Article précédent
  • Artificial intelligence solution to accelerate the acquisition of MRI images: Impact on the therapeutic care in oncology in radiology and radiotherapy departments
  • R. Lemaire, C. Raboutet, T. Leleu, C. Jaudet, L. Dessoude, F. Missohou, Y. Poirier, P.-Y. Deslandes, A. Lechervy, J. Lacroix, I. Moummad, S. Bardet, J. Thariat, D. Stefan, A. Corroyer-Dulmont
| Article suivant Article suivant
  • Survival and toxicity after breast-conserving surgery and external beam reirradiation for localized ipsilateral breast tumour recurrence: A population-based study
  • P. Loap, A. Fourquet, Y. Kirova

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Elsevier s'engage à rendre ses eBooks accessibles et à se conformer aux lois applicables. Compte tenu de notre vaste bibliothèque de titres, il existe des cas où rendre un livre électronique entièrement accessible présente des défis uniques et l'inclusion de fonctionnalités complètes pourrait transformer sa nature au point de ne plus servir son objectif principal ou d'entraîner un fardeau disproportionné pour l'éditeur. Par conséquent, l'accessibilité de cet eBook peut être limitée. Voir plus

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2026 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.