Dans un document de travail[1] publié sur le serveur arXiv preprint, des chercheurs de l’université de Harvard dirigés par Kosuke Imai et Jim Greiner, ont démontré que l’intelligence artificielle (IA) ne parvient pas à améliorer l’exactitude des décisions judiciaires et qu’elle est moins performante que les humains.
Alors que de nombreux scientifiques se sont intéressés à la question de l’IA, « ce qu’ils n’ont pas vraiment examiné, c’est la manière dont l’utilisation de l’IA influence la décision humaine » explique Kosuke Imai, professeur d’administration publique et de statistiques. En effet, même si différents secteurs comme la justice pénale, la médecine et le monde des affaires utilisent l’IA, ce sont généralement les hommes qui prennent les décisions finales.
Dans cette étude, les chercheurs ont comparé les décisions de mise en liberté sous caution prises par un juge du Wisconsin sur une période de 30 mois, entre le milieu de l’année 2017 et la fin de l’année 2019, avec les recommandations générées par un système d’intelligence artificielle. L’IA s’intéressait avant tout à l’âge, ainsi qu’à neuf facteurs liés à leur éventuel passé criminel.
Les résultats de cette analyse ont démontré que l’IA seule était moins performante que le juge pour prédire les récidives. De plus, dans un peu plus de 30% des cas, le juge est allé à l’encontre des recommandations de l’IA.
Ces résultats ont surpris Jim Greiner, professeur de droit public à la Harvard Law School. « Compte tenu des preuves que nous avons citées, à savoir que les algorithmes peuvent parfois être plus performants que les décisions humaines, il semble que cet algorithme ait été réglé pour être trop dur. Il prédisait que les personnes arrêtées se comporteraient mal, qu’elles le feraient trop souvent et, par conséquent, il recommandait des mesures trop sévères » explique-t-il. Selon les chercheurs, des améliorations pourraient être apportées avec un recalibrage de l’algorithme.
[1] Eli Ben-Michael et al, Does AI help humans make better decisions? A methodological framework for experimental evaluation, arXiv (2024). DOI: 10.48550/arxiv.2403.12108
Source : TechXplore, Nikki Rojas (17/06/2024)