Une étude[1] dirigée par des chercheurs de l’Université de Cambridge au Royaume-Uni et de l’Université Simon Fraser au Canada a montré que les algorithmes de reconstruction d’images médicales basés sur des techniques d’apprentissage automatique ou profond (machine learning, deep learning) et d’intelligence artificielle (IA) sont « très instables », induisant quantité d’artefacts ou « des altérations indésirables des données », entre autres erreurs majeures. Des erreurs qui peuvent conduire à « des faux positifs et des faux négatifs », alors que ces effets ne sont pas observés « en général » avec les techniques d’imagerie non basées sur l’intelligence artificielle. « Le recours à des techniques de reconstruction d’images basées sur l’IA pour établir des diagnostics et déterminer un traitement pourrait, en fin de compte, nuire aux patients », alertent les chercheurs.
« Une IRM typique peut prendre entre 15 minutes et deux heures, selon la taille de la zone à scanner et le nombre d’images prises ». Plus le patient passe de temps à l’intérieur de l’appareil, meilleure sera la résolution de l’image finale. Cependant, « il est souhaitable de limiter le temps que les patients passent dans l’appareil, à la fois pour réduire le risque pour chaque patient et pour augmenter le nombre total de scanners qui peuvent être effectués ». Dans ce contexte, l’utilisation de techniques d’IA est envisagée afin d’améliorer la qualité des images « provenant des scanners IRM ou d’autres types d’imagerie médicale » : « en théorie, l’IA pourrait prendre une image de basse résolution et la transformer en une version de haute résolution ».
Le principe étant que « les algorithmes d’IA “apprennent” à reconstruire des images en s’entraînant à partir de données antérieures ». Un « changement radical par rapport aux techniques de reconstruction classiques qui sont uniquement basées sur la théorie mathématique sans dépendance des données précédentes ». Mais pour être fiable, tout algorithme d’IA a besoin de deux choses : « la précision et la stabilité ». « Une IA classifiera généralement une image d’un chat comme un chat, mais de minuscules changements presque invisibles dans l’image pourraient amener l’algorithme à classer le chat comme un camion ou une table, par exemple ». Alors, « lorsqu’il s’agit de la reconstruction d’une image, comme celle utilisée en imagerie médicale, (…) des détails comme une tumeur peuvent se perdre ou peuvent être ajoutés à tort ». Et « lorsqu’il s’agit de prendre des décisions cruciales concernant la santé humaine, nous ne pouvons pas nous permettre que les algorithmes fassent des erreurs », a déclaré le Dr. Anders Hansen du département de mathématiques appliquées et de physique théorique de l’Université de Cambridge, qui a dirigé les recherches avec le Dr Ben Adcock de l’Université Simon Fraser. Pour eux, « les erreurs les plus inquiétantes sont celles que les radiologues pourraient interpréter comme des problèmes médicaux ».
Les chercheurs s’attachent maintenant à définir les limites fondamentales de ce qui peut être fait avec les techniques d’IA. « Ces techniques ne découvriront jamais leurs propres limites. Ces limites ne peuvent être démontrées que mathématiquement », affirme le chercheur.
Pour aller plus loin :
Vers une régulation européenne de l’intelligence artificielle ?
Intelligence artificielle et médecine, le miroir aux alouettes ?
Intelligence artificielle et santé, vers un changement de paradigme
[1] Vegard Antun et al, On instabilities of deep learning in image reconstruction and the potential costs of AI, Proceedings of the National Academy of Sciences (2020). DOI: 10.1073/pnas.1907377117
Tech Xplore, University of Cambridge (12/05/2020)