Tantôt vue comme une révolution aux innombrables bénéfices, ou comme un risque existentiel pour l’humanité (cf. Intelligence artificielle : « Des risques majeurs pour l’humanité »), une chose est sure : « L’IA s’immisce partout et modifie notre rapport au monde ». Nous ne pouvons que le constater. Et Laurence Devillers, professeur en intelligence artificielle à Sorbonne Université, chercheuse au CNRS et membre du Comité national pilote d’éthique du numérique (CNPEN) jusqu’en 2024, avertit : « La menace est bien réelle si nous conférons à ces machines une trop grande responsabilité ou une agentivité excessive ».
En effet, « l’IA n’est en tout cas jamais neutre » et « ces technologies, qui servent à orienter les décisions et à gérer des enjeux complexes, soulèvent des interrogations sur leur impact sur la liberté individuelle, la dignité humaine et la responsabilité sociale, en particulier lorsqu’on leur attribue des rôles de plus en plus influents dans des domaines sensibles comme la médecine, le droit, la gouvernance » (cf. Frais médicaux : un juge colombien utilise ChatGPT pour rendre une décision).
Dans un ouvrage très accessible, la chercheuse présente le potentiel de l’intelligence artificielle et ses risques, sans exacerber ni les uns ni les autres. « D’un côté je suis émerveillée par les progrès vertigineux qu’elle permet, notamment en médecine et en sciences, ouvrant des perspectives fascinantes, témoigne Laurence Devillers. Mais de l’autre, je suis profondément préoccupée par l’intrusion massive de ces technologies dans nos vies dans les mains de quelques-uns, peut-être sans régulation, souvent sans que nous disposions des connaissances nécessaires pour comprendre les implications. »
Alors « comment guider cette révolution technologique sans en devenir les esclaves ? »[1] La question est posée. Et elle est vertigineuse.
Editions : Cerf
Date de parution : mars 2025
Nombre de pages : 288
[1] Laurence Devillers en appelle notamment à la bioéthique : « Loin d’entraver les progrès en médecine, la bioéthique a en réalité permis des avancées majeures tout en encadrant les pratiques. Alors, pourquoi l’éthique et la régulation, comme la loi européenne sur l’IA (AI Act), freineraient-elles les innovations en IA ? » Les lois de bioéthique n’ont, en effet, en aucun cas « entravé » les recherches. Mais leur capacité d’« encadrement » n’a toujours été que provisoire (cf. La recherche sur l’embryon en France : 30 ans d’assouplissement législatif).