S'abonner

P32 - AUTORECIST : utilisation de l'intelligence artificielle pour prédire la réponse RECIST - 10/05/24

Doi : 10.1016/j.jeph.2024.202472 
S. Contu 1, R. Schiappa 1, , T. Villard 1, A. Bonnifay 1, Y. Chateau 1, E. Seutin 1, G. Baudin 2, E. Chamorey 1
1 Centre Antoine Lacassagne, Département d'épidémiologie, de biostatistique, et des données de santé (DEBDS), Nice, France 
2 Centre Antoine Lacassagne, Département de radiologie, Nice, France 

Auteur correspondant

Résumé

Introduction

RECIST version 1.1 (« Response Evaluation Criteria In Solid Tumors ») est le référentiel international d'évaluation de l'efficacité des traitements des tumeurs solides, utilisé dans les études cliniques. RECIST compare la taille des cibles tumorales à plusieurs moments de la maladie. Les réponses possibles sont CR (Réponse complète), PR (Réponse partielle), PD (Progression) ou SD (Maladie stable). La détection de PD est importante, cliniquement afin de mettre en œuvre un nouveau traitement, et statistiquement afin de calculer la survie sans récidive ou sans progression. Plus de 90% des patients n’étant pas inclus dans des essais cliniques, il est difficile d’évaluer la réponse au traitement de façon simple, précise et exhaustive. Nous avons étudié plusieurs méthodes de « natural language processing » (NLP) afin d’évaluer la meilleure méthode et l'appliquer globalement à nos comptes rendus d'imagerie.

Méthodes

Au Centre Antoine Lacassagne (CAL), la base EVA contient l'intégralité des patients suivis en recherche clinique avec évaluation RECIST. Nous en avons extraits 2901 conclusions de comptes-rendus d'imagerie (CRI), associés à leurs interprétations effectuées par des radiologistes, répartis comme suit : PD : 440 CRI, CR : 624 CRI, PR : 889 CRI, SD : 948 CRI. Trois méthodes de NLP ont été testées en utilisant python afin de traduire automatiquement la réponse RECIST à partir des CR. Toutes les cohortes d'entrainement représentaient 70 % des CRI et les cohortes de validation 30 %. Méthode 1 : « TensorFlow » (TF), développé par Google et sous licence libre qui permet d'entrainer et d'exécuter des réseaux de neurones récurrents. Méthode 2 : GZip, qui utilise les propriétés de compression de l'algorithme pour repérer les motifs récurrents dans les comptes rendus. Méthode 3 : Camembert, qui permet d'utiliser un transformer spécifiquement pré-entrainé en français à partir de BERT (« Bidirectional Encoder Representations from Transformers »).

Résultats

Gzip donne des résultats suivants : 79 % de précision pour PD, 74 % pour CR, 71 % pour PR et 75 % pour SD. TF donne les résultats suivants : 83 % de précision pour PD, 80 % pour CR, 90 % pour PR et 73 % pour SD. Camembert donne les résultats suivants : 96 % de précision pour PD, 93 % pour CR, 96 % pour PR et 97 % pour SD.

Conclusion

La comparaison des trois méthodes permet de sélectionner la meilleure approche qui est l'algorithme Camembert. D'autres méthodes qui utilisent des logiciels propriétaires ont déjà été appliquées notamment au Centre Oscar Lambret. Notre approche en python se base sur des modèles open source qui permettent de s'affranchir de cette limitation. Les résultats ne se basent que sur les conclusions et sont donc complétement anonymisées ce qui nous permettra de partager le modèle publiquement. Les modèles ont été entrainés sur des données de patients inclus dans des études cliniques, tous les patients n’étant pas évalués par RECIST, cela pourrait limiter les performances appliquées à l'ensemble des comptes rendus d'imagerie. Dans l'avenir, nous prévoyons de structurer automatiquement les plus de 500 000 comptes rendus d'imagerie du CAL et d'appliquer cet algorithme en temps réel. Nous comptons également développer cette approche pour évaluer la réponse selon le référentiel iRECIST basé sur les comptes-rendus de médecine nucléaire.

Le texte complet de cet article est disponible en PDF.

Mots-clés : RECIST, Automatisation, Recherche clinique, eCRF



© 2024  Publié par Elsevier Masson SAS.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 72 - N° S2

Article 202472- mai 2024 Retour au numéro
Article précédent Article précédent
  • P 31 - AUTOMABIO : un outil pour automatiser la saisie des bilans biologiques dans les eCRF de recherche clinique
  • R. Schiappa, O. Trancart, L. Petitjean, A. Garoche, S. Contu, E. Chamorey
| Article suivant Article suivant
  • P33 - Prédiction de la peur de la récurrence du cancer chez les femmes cinq ans après le diagnostic à l'aide de l'apprentissage automatique et des données de consommation de soins de santé
  • M. Koume, L. Seguin, AD. Bouhnik, R. Urena

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Déjà abonné à cette revue ?

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2024 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.