« Potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions »

Publié le 23 Oct, 2023

« Le lancement de ChatGPT n’est qu’une étape dans une longue histoire de recherches sur l’IA[1] », analyse Laurence Devillers, professeur à Sorbonne Université et spécialiste des interactions homme-machine et de l’informatique émotionnelle au CNRS, dans un entretien pour Madame Figaro. Mais l’étendue de ses capacités « oblige à reconnaître la puissance de l’IA ». Entre adhésion sans réserve et profondes inquiétudes, la « prise de conscience généralisée reste au fond assez binaire », juge le chercheur.

« Il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable »

« Il faut mieux expliquer les capacités de l’IA, estime Laurence Devillers ; ce ne sont pas des objets magiques, ils ont été façonnés par des mathématiques et des statistiques à partir de nos données. » « Il y a de l’humain derrière », rappelle-t-elle. En effet, « ChatGPT est une machine incapable de raisonner dans la temporalité, comme elle est incapable de raisonner dans notre espace 3D, d’ailleurs elle ne raisonne pas au sens humain ». En outre, « le système répond sans donner aucune de ses sources. Il est même capable d’en générer des fausses », avertit le professeur. Car « il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable ».

Le problème est que « nous avons tendance à anthropomorphiser ces machines parce qu’elles parlent notre langue en fantasmant sur leurs savoirs, leurs affects, voire sur leurs valeurs morales », regrette Laurence Devillers. Pourtant « il n’a pas d’abstraction ni de sens commun ». Sans le vouer aux gémonies, « il faut donc démythifier ChatGPT ».

Un risque de manipulation

« Si on confie trop de tâches à ces systèmes d’IA, on va perdre en intelligence collective, car la machine standardise plein de choses dont on ne se rend pas forcément compte. » Laurence Devillers insiste sur le rôle de l’école « pour apprendre à comprendre » : « l’IA doit stimuler notre libre arbitre, nous pousser à être un peu moins mouton ».

Le chercheur appelle à prendre conscience du « danger de censure ». Et, « potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions, prévient-elle. Je travaille aujourd’hui sur le nudge, c’est-à-dire tout ce qui peut modifier nos comportements sous la forme d’incitations discrètes. Et je mesure en quoi les émotions sont facilement manipulables. » Les émotions sont d’ailleurs l’enjeu principal : « la manière dont les machines peuvent nous manipuler ou nous isoler par leur présence pseudo-affective ».

Alertant sur l’existence d’« une guerre idéologique, pas qu’économique », Laurence Devillers estime qu’« entre le modèle chinois d’hypercontrôle, [et] le modèle américain aspiré par le modèle transhumaniste, le modèle européen doit s’affirmer » (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »). « On ne peut plus se permettre d’attendre. »

 

[1] Intelligence artificielle

Source : Madame Figaro, Jean-Marie Durand (22/10/2023) – Photo : iStock

Partager cet article

Synthèses de presse

Lésions cérébrales : les traitements arrêtés trop tôt ?
/ Fin de vie

Lésions cérébrales : les traitements arrêtés trop tôt ?

Certains patients souffrant de lésions cérébrales traumatiques et décédés après l'arrêt des traitements de « maintien en vie » auraient pu se ...
Estonie : condamné pour assistance au suicide
/ Fin de vie

Estonie : condamné pour assistance au suicide

Le tribunal du comté de Tartu, en Estonie, a condamné un homme en raison de ses activités illégales liées à ...
Guérir le VIH avec CRISPR ? Un essai in vivo décevant
/ Génome

Guérir le VIH avec CRISPR ? Un essai in vivo décevant

La tentative d'Excision BioTherapeutics d'utiliser une thérapie génique basée sur l’outil CRISPR pour guérir le VIH ne s’est pas montrée ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres