L’OMS analyse les risques de l’utilisation des LMM

Publié le 19 Jan, 2024

Alors que l’intelligence artificielle (IA) générative pourrait transformer les soins de santé (cf. Intelligence artificielle en santé : les recommandations de l’OMS), l’Organisation mondiale de la Santé (OMS) a publié, le 18 janvier, un document analysant les dangers et les avantages possibles de l’utilisation des grands modèles multimodaux (LMM) en matière de santé.

Les LMM largement utilisés et appliqués en santé

« On prévoit que les LMM seront largement utilisés et appliqués dans les soins de santé, la recherche scientifique, la santé publique et la mise au point de médicaments » explique l’OMS. Cinq domaines dans lesquels cette technologie pourrait être utilisée ont été définis : le dépistage, la recherche scientifique et le développement de médicaments, la formation médicale et infirmière, les tâches administratives, et l’usage direct par les patients.

Les LMM peuvent utiliser différents types de données, et générer des résultats qui ne se limitent pas au type de données introduites dans l’algorithme. « Alors que les LMM sont de plus en plus utilisés dans les soins de santé et la médecine, les erreurs, les mauvais usages et, en fin de compte, les préjudices causés aux individus sont inévitables » prévient l’OMS (cf. « Potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions »).

Des risques ont été documentés. Les LMM peuvent produire des résultats « faux, inexacts, biaisés, ou incomplets » (cf. IA : les modèles doués pour tromper ?). Ils peuvent aussi être basés sur des données de « mauvaise qualité » ou « biaisées » par la race, l’origine ethnique, le sexe ou l’âge notamment. Les LMM présentent en outre « des risques que les sociétés, les systèmes de santé et les utilisateurs finaux ne sont peut-être pas encore prêts à gérer pleinement » signale l’Organisation.

Recommandations sur l’éthique et la gouvernance des LMM

Afin de tirer parti de cette technologie en toute sécurité, l’OMS formule plus de 40 recommandations sur l’éthique et la gouvernance des LMM destinées aux Gouvernements, aux entreprises technologiques et aux prestataires de santé.

L’Organisation considère qu’il ne faut pas attendre le déploiement des LMM dans les établissements de santé pour découvrir les failles et tenter de les corriger. « Les technologies d’IA générative ont le potentiel d’améliorer les soins de santé mais seulement si ceux qui développent, réglementent et utilisent ces technologies identifient et prennent pleinement en compte les risques associés » explique le Dr Jeremy Farrar, scientifique en chef de l’OMS. « Nous avons besoin d’informations et de politiques transparentes pour gérer la conception, le développement et l’utilisation des LMM afin d’obtenir de meilleurs résultats en matière de santé et de surmonter les inégalités persistantes en matière de santé » poursuit-il.

Vulnérabilité des LMM aux risques de cybersécurité

Les LMM sont souvent développés et déployés par les « géants » de la technologie, ce qui risque d’asseoir la domination de ces entreprises, signale l’OMS. L’Organisation recommande donc que les LMM soient aussi développés par les professionnels de santé et les patients.

L’OMS s’inquiète aussi de la conformité des LMM avec les réglementations en vigueur, notamment en matière de protection des données. Elle met en garde contre la vulnérabilité des LMM aux risques de cybersécurité qui pourraient mettre en danger des informations sur les patients, ou même la fiabilité des soins (cf. En 2022, 13% des incidents de cybersécurité ont mis en danger des patients).

Lorsque les informations sensibles sur la santé des patients sont introduites sous forme de données, les Gouvernements devront garantir la confidentialité, et donner aux gens la possibilité de se retirer, a déclaré Rohit Malpani, qui travaille au département de recherche pour la santé de l’OMS (cf. Etats-Unis : les données de santé mentale de 3,1 millions de personnes divulguées).

Evaluer l’impact de cette technologie

Les Gouvernements devraient charger des autorités de régulation d’approuver l’utilisation des LMM dans les soins de santé selon l’OMS. Elle demande la mise en place d’audits afin d’évaluer l’impact de cette technologie (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »).

Enfin, l’OMS sollicite la mise en place de règles pour « garantir que les usagers lésés par un LMM soient correctement indemnisés ou disposent d’autres formes de recours ».

 

Sources : Le Figaro (18/01/2024) ; Medical Xpress, Robin Millard (18/01/2024) – Photo : iStock

Partager cet article

Synthèses de presse

Fin de vie : « Les propos décomplexés faisant l’éloge de "l’aide à mourir" sont dangereux et erronés »
/ Fin de vie

Fin de vie : « Les propos décomplexés faisant l’éloge de “l’aide à mourir” sont dangereux et erronés »

Dans une tribune, un collectif de psys réagit aux propos du président de la mutuelle MGEN qui énonçait que « le ...
Ohio : mère de trois enfants, mère porteuse de huit autres
/ PMA-GPA

Ohio : mère de trois enfants, mère porteuse de huit autres

Une femme de l’Ohio a donné naissance à des bébés en 2011, 2013, 2014, 2015, 2017, 2018, 2021 et 2022 ...
Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des chercheurs de l'Université de Columbia ont créé des souris dotées d'un « cerveau hybride - mi-souris, mi-rat » ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres