USA : une IA refuse 300 000 demandes de remboursement

Publié le 28 Juil, 2023

Une plainte a été déposée contre la compagnie d’assurance santé, Cigna Healthcare, en raison de l’utilisation d’un algorithme, le sytème PxDx, qui a refusé automatiquement la prise en charge de nombreux patients, avec un « taux d’erreur » d’environ 80%.

Selon les plaignants, en 2022, Cigna aurait refusé plus de 300 000 demandes de remboursement en deux mois à cause de l’algorithme.

1,2 seconde pour traiter chaque demande

Le temps moyen de traitement de chaque demande est estimé à 1,2 seconde. En outre, Cheryl Dopke, une directrice médicale de l’assureur, aurait rejeté, à elle seule, 60 000 demandes en un mois.

Selon le cabinet d’avocats Clarkson qui est à l’origine du recours, la seule façon d’opérer à une telle vitesse est qu’un humain fournisse une confirmation globale des décisions de l’algorithme, au lieu d’examiner les demandes individuellement. L’algorithme aurait ainsi « remplacé » l’évaluation humaine pour traiter un grand nombre de demandes (cf. Etats-Unis : Une intelligence artificielle pour décider des remboursements).

En ne procédant pas à une évaluation individuelle, Cigna aurait violé la loi californienne qui oblige les professionnels de santé à examiner chaque demande de remboursement de façon « approfondie, équitable et objective » afin de s’assurer que les besoins spécifiques de chaque patient soient pris en compte lors de l’évaluation de sa demande.

« Ils ont exploité la technologie avancée non pas pour améliorer la vie des gens, mais pour rejeter sommairement des milliers de réclamations valides au nom de l’efficacité » a indiqué Ryan Clarkson, un associé du cabinet d’avocats. Cigna « a délégué à tort son obligation d’évaluer et d’enquêter sur les demandes au système PxDx ». Elle « a trompé frauduleusement » ses clients californiens « en leur faisant croire que leur plan de santé évaluerait individuellement leurs réclamations » précise la plainte.

80% d’erreurs

Environ 80% des demandes de remboursement initialement refusées par Cigna, et qui ont ensuite fait l’objet d’une contestation, ont été finalement acceptées (cf. Les algorithmes prédictifs, pas plus performants qu’une boule de cristal ?). Ce « taux d’erreur » extrêmement élevé interroge sur la fiabilité de l’algorithme, sa capacité à produire des résultats cohérents et précis (cf. COVID : l’algorithme du NHS donne de « mauvais résultats » pour identifier les patients à risque).

Cigna précise que PxDx a été conçu dans le but d’accélérer les paiements aux médecins en facilitant le traitement des demandes de remboursement. Son objectif était de vérifier que les codes des examens médicaux étaient correctement soumis lors des demandes de remboursement. Il ne visait donc pas à refuser massivement des demandes. L’assureur ajoute également que l’algorithme a été uniquement utilisé pour les procédures les plus courantes, et à faible coût.

De lourdes conséquences pour les patients

En mai, la présidente du comité de l’énergie et du commerce de la Chambre, Cathy McMorris Rodgers, a fait remarquer à Cigna que le taux élevé d’appels réussis contre les décisions de PxDx indique que « les assurés paient de leur poche des soins médicaux qui devraient être couverts par leur assurance maladie ».

En raison des refus de prise en charge, des patients se sont retrouvés sans couverture. Ils ont dû régler des factures médicales imprévues et parfois très élevées. Cela a pu entraîner des problèmes financiers pour certains. Certains patients ont en outre choisi de ne pas recevoir les soins médicaux dont ils avaient besoin, par peur de se voir refuser leur remboursement.

Cette affaire souligne l’importance de réguler l’utilisation de l’IA (cf. Droits de l’homme : l’ONU adopte une résolution sur l’IA) dans le secteur de la santé pour garantir le respect des droits des patients (cf. Erreur d’algorithme informatique au Royaume-Uni : des centaines de cancers du sein non dépistés) .

Des normes plus strictes devraient être imposées afin de s’assurer que l’IA ne remplace pas l’évaluation humaine lorsqu’il s’agit de prendre des décisions impactant directement la vie des patients, et d’exiger une plus grande transparence dans le fonctionnement des algorithmes (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »).

 

Source : Trust my science, Laurie Henry (26/07/2023)

Partager cet article

Synthèses de presse

Enfant
/ Génome

Thérapie génique : une petite fille retrouve l’ouïe et apprend à parler

Une thérapie génique a permis de restaurer l’ouïe chez une petite fille sourde âgée de 18 mois. Elle est la ...
Changement de genre chez les mineurs : les médecins allemands interpellent le Gouvernement
/ Genre

Changement de genre chez les mineurs : les médecins allemands interpellent le Gouvernement

Le 128e Congrès médical allemand a adopté deux résolutions : l'une sur les traitements de changement de genre, l'autre suite ...
« Témoin de la force de la vie » : un Britannique renonce à son adhésion à Dignitas
/ Fin de vie

« Témoin de la force de la vie » : un Britannique renonce à son adhésion à Dignitas

À 62 ans, Paul Carroll avait décidé de devenir membre de Dignitas, mais il y a renoncé après avoir vu ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres