Intelligence artificielle en santé : la technologie ne doit pas remplacer la décision médicale

Publié le 7 Jan, 2019

« La décision médicale est forcément humaine. On n’imagine pas une intelligence artificielle prendre une décision médicale ». Lors d’un colloque le 11 décembre dernier, le Dr Alain Livartowski, responsable des projets e-santé à l’Institut Curie, a exprimé ses doutes sérieux face au manque de réflexion éthique préalable trop fréquent dans le déploiement de l’intelligence artificielle en santé. Il a rappelé la nécessité absolue d’une garantie humaine en toute décision. En janvier 2018, le Cnom (Conseil National de l’Ordre des Médecins) préconisait aussi, dans son Livre Blanc, le développement d’une société numérique qui reste « au service des soignants et des patients », recommandant que « les recours aux technologies ne puissent pas avoir la mission de remplacer la décision médicale ».

 

En imagerie médicale, l’intelligence artificielle est très performante. Un algorithme indiquant les risques de dégradation de l’état de santé d’un patient peut permettre de placer plus vite un malade en soins intensifs, améliorant ainsi sa prise en charge. Mais un algorithme qui prédit le risque de mortalité risquerait au contraire de « conditionner des choix, plus ou moins masqués, visant à réduire le coût des soins engagés ».

 

Certes, l’intelligence artificielle ne prend pas encore les décisions, mais elle y contribue, c’est là que se joue le débat. Car la particularité des technologies modernes de deep learning (auto-apprentissage), c’est que le raisonnement utilisé par l’ordinateur échappe désormais aux concepteurs. Que faire lorsque l’ordinateur et le médecin auront des avis divergents ? Qui croire ? « Osera-t-on aller contre l’opinion d’une machine qui traite des milliards de données à la seconde? » D’autant plus que ces algorithmes prennent mal en compte les minorités, c’est-à-dire ceux qui s’écartent de la norme statistique.

 

Les conclusions tirées par l’intelligence artificielle sont encore présentées comme des propositions, le tout est de choisir quelle valeur y est accordée. Car l’IA n’a pas d’états d’âme, elle est dépourvue « de ce qui fonde l’homme, la bienveillance ». Et ce manque d’empathie fait aussi partie de la nature des psychopathes ! « L’humain pour choisir a besoin de ses émotions. Or l’IA n’a pas d’émotions », martèle Judith Nicogossian, une anthopologiste qui tient le blog corpshybride.net. Lors des premiers essais, les assistants vocaux indiquaient le pont le plus proche à ceux qui exprimaient le désir de se suicider… Certains programmateurs modélisent des émotions, des modélisations « inévitablement partielles, sources de biais ». Mais pour Judith Nicogossian, « un robot semblant doué d’humanité alors qu’il ne fait qu’appliquer des lignes de code, c’est peut-être cela le plus grand danger ».

Le Figaro, Damien Mascret (04/01/2019)

Partager cet article

Synthèses de presse

Espagne : la Cour constitutionnelle autorise l’adoption d’un enfant né par GPA
/ PMA-GPA

Espagne : la Cour constitutionnelle autorise l’adoption d’un enfant né par GPA

Le 27 février, la Cour constitutionnelle espagnole a autorisé une femme à adopter l’enfant biologique de son conjoint né par ...
Royaume-Uni : le Parlement britannique mise sur les soins palliatifs
/ Fin de vie

Royaume-Uni : le Parlement britannique mise sur les soins palliatifs

Le Parlement britannique a remis un rapport sur la « mort assistée », sans formuler de « recommandations spectaculaires » ...
Transidentité : « au détriment de la liberté d'expression, c'est la liberté de suppression qui prévaut »
/ Genre

Transidentité : « au détriment de la liberté d’expression, c’est la liberté de suppression qui prévaut »

281 personnalités dénoncent les propos tenus lors d’une « formation aux transidentités » dans une université française ce mois-ci ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres