Peut-on duper facilement les algorithmes d’apprentissage profond de reconnaissance d’images médicales ? - 22/05/21
Résumé |
Introduction |
Les algorithmes d’apprentissage profond ont montré d’excellentes performances dans le domaine de la reconnaissance d’images médicales, et sont désormais utilisés dans plusieurs domaines médicaux. On sait peu de choses sur la faisabilité et l’impact d’attaques ciblées indétectables sur ces images pour perturber ces algorithmes. L’objectif de cette étude était de tester la faisabilité et l’impact d’une attaque sur la précision d’un système de reconnaissance d’images dermatoscopiques basé sur l’apprentissage profond.
Méthodes |
Dans un premier temps, un réseau neuronal convolutif pré-entraîné (DenseNet-201) a été utilisé pour classer un échantillon d’images issues de la banque d’images dermatoscopiques HAM10000, en sept catégories de lésions cutanées. Dans un second temps, un réseau neuronal antagoniste génératif a été développé pour créer des perturbations indétectables sur ces images. Les images originales et avec perturbations ont ensuite été classées à l’aide du premier modèle. La précision de ce modèle a été comparée entre les images originales et les images avec perturbation. Nous avons également évalué la capacité de deux observateurs à détecter les images avec perturbation et l’accord entre ces observateurs.
Résultats |
La précision du modèle de classification est passée de 84 % (IC95 % : 82 %-–86 %) pour les images originales à 67 % (IC95 % : 65 %–69 %) pour les images avec perturbations. Après perturbation, 100 % des lésions cutanées étaient classées comme nævus mélanocytaire. La sensibilité et la spécificité des observateurs à distinguer les images originales des images avec perturbations, étaient respectivement de 58,3 % (IC95 % : 45,9–70,8) et 42,5 % (IC95 % : 27,2–57,8). Le coefficient kappa entre les deux observateurs était inférieur à zéro (−0,22 ; IC95 % : −0,49 à −0,04).
Conclusion |
Les attaques contre les bases de données d’images médicales peuvent fausser l’interprétation par les algorithmes de reconnaissance d’images. Ces attaques sont faciles à réaliser et indétectables par l’homme. Il semble essentiel d’améliorer notre compréhension des systèmes de reconnaissance d’images basés sur l’apprentissage profond et de renforcer leur sécurité avant de les mettre en pratique et de les utiliser au quotidien.
Le texte complet de cet article est disponible en PDF.Mots clés : Apprentissage Profond, Modèle antagoniste génératif
Plan
Vol 69 - N° S1
P. S11-S12 - juin 2021 Retour au numéroBienvenue sur EM-consulte, la référence des professionnels de santé.