USA : une IA refuse 300 000 demandes de remboursement

Publié le 28 Juil, 2023

Une plainte a été déposée contre la compagnie d’assurance santé, Cigna Healthcare, en raison de l’utilisation d’un algorithme, le sytème PxDx, qui a refusé automatiquement la prise en charge de nombreux patients, avec un « taux d’erreur » d’environ 80%.

Selon les plaignants, en 2022, Cigna aurait refusé plus de 300 000 demandes de remboursement en deux mois à cause de l’algorithme.

1,2 seconde pour traiter chaque demande

Le temps moyen de traitement de chaque demande est estimé à 1,2 seconde. En outre, Cheryl Dopke, une directrice médicale de l’assureur, aurait rejeté, à elle seule, 60 000 demandes en un mois.

Selon le cabinet d’avocats Clarkson qui est à l’origine du recours, la seule façon d’opérer à une telle vitesse est qu’un humain fournisse une confirmation globale des décisions de l’algorithme, au lieu d’examiner les demandes individuellement. L’algorithme aurait ainsi « remplacé » l’évaluation humaine pour traiter un grand nombre de demandes (cf. Etats-Unis : Une intelligence artificielle pour décider des remboursements).

En ne procédant pas à une évaluation individuelle, Cigna aurait violé la loi californienne qui oblige les professionnels de santé à examiner chaque demande de remboursement de façon « approfondie, équitable et objective » afin de s’assurer que les besoins spécifiques de chaque patient soient pris en compte lors de l’évaluation de sa demande.

« Ils ont exploité la technologie avancée non pas pour améliorer la vie des gens, mais pour rejeter sommairement des milliers de réclamations valides au nom de l’efficacité » a indiqué Ryan Clarkson, un associé du cabinet d’avocats. Cigna « a délégué à tort son obligation d’évaluer et d’enquêter sur les demandes au système PxDx ». Elle « a trompé frauduleusement » ses clients californiens « en leur faisant croire que leur plan de santé évaluerait individuellement leurs réclamations » précise la plainte.

80% d’erreurs

Environ 80% des demandes de remboursement initialement refusées par Cigna, et qui ont ensuite fait l’objet d’une contestation, ont été finalement acceptées (cf. Les algorithmes prédictifs, pas plus performants qu’une boule de cristal ?). Ce « taux d’erreur » extrêmement élevé interroge sur la fiabilité de l’algorithme, sa capacité à produire des résultats cohérents et précis (cf. COVID : l’algorithme du NHS donne de « mauvais résultats » pour identifier les patients à risque).

Cigna précise que PxDx a été conçu dans le but d’accélérer les paiements aux médecins en facilitant le traitement des demandes de remboursement. Son objectif était de vérifier que les codes des examens médicaux étaient correctement soumis lors des demandes de remboursement. Il ne visait donc pas à refuser massivement des demandes. L’assureur ajoute également que l’algorithme a été uniquement utilisé pour les procédures les plus courantes, et à faible coût.

De lourdes conséquences pour les patients

En mai, la présidente du comité de l’énergie et du commerce de la Chambre, Cathy McMorris Rodgers, a fait remarquer à Cigna que le taux élevé d’appels réussis contre les décisions de PxDx indique que « les assurés paient de leur poche des soins médicaux qui devraient être couverts par leur assurance maladie ».

En raison des refus de prise en charge, des patients se sont retrouvés sans couverture. Ils ont dû régler des factures médicales imprévues et parfois très élevées. Cela a pu entraîner des problèmes financiers pour certains. Certains patients ont en outre choisi de ne pas recevoir les soins médicaux dont ils avaient besoin, par peur de se voir refuser leur remboursement.

Cette affaire souligne l’importance de réguler l’utilisation de l’IA (cf. Droits de l’homme : l’ONU adopte une résolution sur l’IA) dans le secteur de la santé pour garantir le respect des droits des patients (cf. Erreur d’algorithme informatique au Royaume-Uni : des centaines de cancers du sein non dépistés) .

Des normes plus strictes devraient être imposées afin de s’assurer que l’IA ne remplace pas l’évaluation humaine lorsqu’il s’agit de prendre des décisions impactant directement la vie des patients, et d’exiger une plus grande transparence dans le fonctionnement des algorithmes (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »).

 

Source : Trust my science, Laurie Henry (26/07/2023)

Partager cet article

Synthèses de presse

Fin de vie : « Les propos décomplexés faisant l’éloge de "l’aide à mourir" sont dangereux et erronés »
/ Fin de vie

Fin de vie : « Les propos décomplexés faisant l’éloge de “l’aide à mourir” sont dangereux et erronés »

Dans une tribune, un collectif de psys réagit aux propos du président de la mutuelle MGEN qui énonçait que « le ...
Ohio : mère de trois enfants, mère porteuse de huit autres
/ PMA-GPA

Ohio : mère de trois enfants, mère porteuse de huit autres

Une femme de l’Ohio a donné naissance à des bébés en 2011, 2013, 2014, 2015, 2017, 2018, 2021 et 2022 ...
Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des chercheurs de l'Université de Columbia ont créé des souris dotées d'un « cerveau hybride - mi-souris, mi-rat » ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres