Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »

Publié le 11 Juil, 2023

Laëtitia Pouliquen dirige le think tank NBIC Ethics, un think tank traitant de l’éthique des technologies auprès des institutions européennes. Après le vote par le Parlement européen d’un projet de régulation de l’intelligence artificielle (cf. IA : le Parlement européen adopte un projet de régulation), elle analyse pour Gènéthique les enjeux de cette législation.

Après le vote par le Parlement, le règlement IA Act va maintenant faire l’objet d’un trilogue, c’est-à-dire d’une navette parlementaire entre le Conseil, le Parlement et la Commission jusqu’à aboutir à un accord entre les trois parties qui devrait être obtenu rapidement.

Ce texte, qui vise à proposer des règles harmonisées concernant l’intelligence artificielle (IA), classe les IA en trois grandes catégories : les IA interdites, celles dites à haut risque qui doivent faire l’objet d’une surveillance par un organe indépendant, et les IA à risque minimal. Dans cette dernière catégorie on retrouve les réseaux sociaux, ce qui est très regrettable car ils peuvent représenter un réel danger. En revanche, l’intelligence artificielle pour la surveillance biométrique, la « police prédictive » avant et après saisie d’images dans les lieux publics fait, elle, partie des IA interdites [1]. Cela risque de poser problème à la France qui a voté une loi autorisant la vidéosurveillance automatisée (VSA), à titre exceptionnel, dans le cadre des prochains Jeux olympiques et paralympiques. Un outil de surveillance biométrique qui, à travers des algorithmes couplés aux caméras de surveillance, détecte, analyse et classe nos corps et comportements dans l’espace public [2].

La proposition de texte s’applique à tous les fournisseurs, européens ou non, qui commercialisent un système d’IA dans l’Union, ou dont le résultat est utilisé dans l’Union, ainsi qu’aux usagers européens. La recherche est exclue de ce cadre juridique, ainsi que les PME dans certaines circonstances.

L’IA Act : une approche consumériste

La Commission européenne a adopté une approche par le risque. Cependant, cette approche consumériste renforce le manque d’un « chapeau moral », d’une « méta-éthique » qui se traduirait par un code déontologique contraignant pour les chercheurs, qui s’appliquerait quelle que soit l’IA et dont on pourrait conclure un certain nombre d’éléments d’éthique computationnelle, tels que le marquage de toute décision prise par un système d’IA de manière autonome, afin que l’utilisateur sache qu’il n’y a pas eu d’intervention humaine.

L’utilisation des systèmes d’IA dans le processus de décision automatisé des services publics ou privés devrait être classée en 3 niveaux d’interaction homme-machine : processus de prise de décision basé sur un système d’IA complet, décision basée sur un système d’IA avec supervision humaine et décision entièrement basée sur l’homme. Il faudrait surtout la garantie qu’on peut désactiver cette IA, en évitant, autant que faire se peut, la dissémination des données. En effet, toutes nos données personnelles deviennent des éléments qui nourrissent les systèmes auto-génératifs.

Une demande des chercheurs

Encourager l’innovation technologique est essentielle, elle ne doit cependant pas se faire au détriment du contrôle humain et générer un libéralisme débridé.

Les chercheurs eux-mêmes aspirent à un cadre éthique car ils s’inquiètent de leur incapacité à dire, et encore moins à coder, ce qui est bien ou mal, de leur impossibilité à anonymiser les données complètement. Enfin, ils redoutent de voir leur réputation mise en cause à la première catastrophe technologique, ce qui ne manquera pas d’arriver. Devant la difficulté d’expliquer les décisions prises par des systèmes d’IA, et encore moins de les reproduire, les développeurs et chercheurs tant que les citoyens ont besoin de protection.

Dans une logique normative, à l’instar de la norme CE, un label « ethics inside » pourrait être proposé afin de garantir la qualité en la matière de chaque portion de la chaîne technologique.

Un choix de société à poser

Nous ne sommes plus dans le temps du débat intellectuel. La technologie est là. La question est : qu’est-ce qu’on en fait ? Quels sont les objectifs ? Quel est le cadre moral ? Et c’est bien le politique et le juridique qui peuvent poser ce cadre moral. La confiance, la transparence, l’explicabilité ne sont que des indicateurs informatiques et non des valeurs humaines. Ils ne garantissent pas les droits de l’homme, le respect de la dignité et de la vulnérabilité.

Des garanties d’autant plus indispensables qu’il est aussi question de neurodroits, face notamment au risque de hacking des implants intra-cérébraux de type Neuralink (cf. Neuralink : feu vert de la FDA pour des essais sur l’homme).

Veut-on aller vers l’augmentation de l’être humain ? Vers le transhumanisme ? Il incombe aux hommes politiques de remettre au clair la différence entre l’homme et la machine. Homme, robots, animaux et éléments inanimés de notre univers ne peuvent, ne doivent être mis sur le même plan. Il faut rappeler ce qu’est l’être humain, un être de relation, d’honneur, de solidarité, de don.

La France, qui s’honore de la défense des droits de l’homme, saura-t-elle peser sur les orientations européennes pour remettre l’homme au centre ? Saura-t-elle garantir que le marché ne prendra pas le pas sur la liberté des citoyens, et que le « crédit social à la chinoise », quand bien même les plateformes d’échanges de données européennes et françaises le rendent possible, ne sera jamais une option ? L’intention politique reste l’inconnue de cette équation.

 

[1] En outre, les Etats membres ont élargi la classification des IA à haut risque pour inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement des personnes. Ils ont également ajouté des systèmes d’IA pour influencer les électeurs dans les campagnes politiques et dans les systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs en vertu de la loi sur les services numériques) à la liste à haut risque.

[2] Loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions

Photo : iStock

Partager cet article

Synthèses de presse

Fin de vie : « Les propos décomplexés faisant l’éloge de "l’aide à mourir" sont dangereux et erronés »
/ Fin de vie

Fin de vie : « Les propos décomplexés faisant l’éloge de “l’aide à mourir” sont dangereux et erronés »

Dans une tribune, un collectif de psys réagit aux propos du président de la mutuelle MGEN qui énonçait que « le ...
Ohio : mère de trois enfants, mère porteuse de huit autres
/ PMA-GPA

Ohio : mère de trois enfants, mère porteuse de huit autres

Une femme de l’Ohio a donné naissance à des bébés en 2011, 2013, 2014, 2015, 2017, 2018, 2021 et 2022 ...
Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des souris dotées d’un « cerveau hybride » détectent les odeurs avec leurs neurones de rat

Des chercheurs de l'Université de Columbia ont créé des souris dotées d'un « cerveau hybride - mi-souris, mi-rat » ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres