Des chercheurs alertent sur les questions éthiques liées à l'utilisation de l'intelligence artificielle en médecine



Dans un article de perspective publié le 15 mars dans le New England Journal of Medicine, des chercheurs de l’Ecole de médecine de l’Université de Stanford en Californie ont alerté sur les implications éthiques liées à l’utilisation d'outils d'apprentissage algorithmiques pour la prise de décisions en matière de soins de santé, notamment dans leur utilisation à grande échelle.

 

Parmi les préoccupations soulevées par les auteurs :

  • Les données utilisées pour créer des algorithmes qui peuvent contenir des biais qui se reflètent dans les algorithmes et dans les recommandations cliniques qu'ils génèrent : « Les algorithmes intégrés dans le système de soins de santé pourraient refléter des intérêts différents et contradictoires», explique David Magnus, docteur en philosophie, auteur principal de la tribune et directeur du Stanford Centre for Biomedical Ethics. « Que se passera-t-il si l'algorithme est conçu pour économiser de l'argent ? Si les différentes décisions de traitement concernant les patients sont prises en fonction de leur prise en charge ou de leur capacité à payer ? ».
  • Les médecins doivent bien comprendre la façon dont les algorithmes sont créés, évaluer de façon critique la provenance des données qui sont utilisées pour créer les modèles statistiques, comprendre le fonctionnement des modèles pour éviter d’en être trop dépendants et écarter toute mauvaise interprétation des données qui pourraient avoir de fâcheuses conséquences sur les décisions de soin.
  • Les informations recueillies sur la base des données de l’Intelligence artificielle « doivent être fortement pondérées par ce que les médecins savent de leur propre expérience clinique ». L'aspect humain des soins aux patients doit toujours être pris en compte.
  • L'orientation clinique fondée sur l'apprentissage par la machine introduit un tiers dans la relation médecin-patient, la transformant en une relation entre le patient et le système de soins de santé. Elle pourrait remettre en question la dynamique de la responsabilité dans la relation et la confidentialité.

 

« Nous devons être prudents en ce qui concerne les soins aux personnes en fonction des algorithmes qui nous montrent », a déclaré Danton Char, professeur adjoint d'anesthésiologie, de médecine péri-opératoire et de médecine de la douleur, qui effectue une recherche financée par le National Institutes of Health sur les implications éthiques et sociales des tests génétiques élargis chez les enfants gravement malades. « La seule chose que les gens peuvent faire que les machines ne peuvent pas faire, c'est mettre de côté nos idées et d’évaluer les situations de manière critique ». Il estime que « la société s’essouffle a essayer de trouver des réponses rapides », et que la prudence et la réflexion s’imposent dans la mise en œuvre des applications de l’Intelligence artificielle aux données de santé.

 

 


Sources: 

Medical Press, Patricia Hannon (15/03/2018)