« Le lancement de ChatGPT n’est qu’une étape dans une longue histoire de recherches sur l’IA[1] », analyse Laurence Devillers, professeur à Sorbonne Université et spécialiste des interactions homme-machine et de l’informatique émotionnelle au CNRS, dans un entretien pour Madame Figaro. Mais l’étendue de ses capacités « oblige à reconnaître la puissance de l’IA ». Entre adhésion sans réserve et profondes inquiétudes, la « prise de conscience généralisée reste au fond assez binaire », juge le chercheur.
« Il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable »
« Il faut mieux expliquer les capacités de l’IA, estime Laurence Devillers ; ce ne sont pas des objets magiques, ils ont été façonnés par des mathématiques et des statistiques à partir de nos données. » « Il y a de l’humain derrière », rappelle-t-elle. En effet, « ChatGPT est une machine incapable de raisonner dans la temporalité, comme elle est incapable de raisonner dans notre espace 3D, d’ailleurs elle ne raisonne pas au sens humain ». En outre, « le système répond sans donner aucune de ses sources. Il est même capable d’en générer des fausses », avertit le professeur. Car « il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable ».
Le problème est que « nous avons tendance à anthropomorphiser ces machines parce qu’elles parlent notre langue en fantasmant sur leurs savoirs, leurs affects, voire sur leurs valeurs morales », regrette Laurence Devillers. Pourtant « il n’a pas d’abstraction ni de sens commun ». Sans le vouer aux gémonies, « il faut donc démythifier ChatGPT ».
Un risque de manipulation
« Si on confie trop de tâches à ces systèmes d’IA, on va perdre en intelligence collective, car la machine standardise plein de choses dont on ne se rend pas forcément compte. » Laurence Devillers insiste sur le rôle de l’école « pour apprendre à comprendre » : « l’IA doit stimuler notre libre arbitre, nous pousser à être un peu moins mouton ».
Le chercheur appelle à prendre conscience du « danger de censure ». Et, « potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions, prévient-elle. Je travaille aujourd’hui sur le nudge, c’est-à-dire tout ce qui peut modifier nos comportements sous la forme d’incitations discrètes. Et je mesure en quoi les émotions sont facilement manipulables. » Les émotions sont d’ailleurs l’enjeu principal : « la manière dont les machines peuvent nous manipuler ou nous isoler par leur présence pseudo-affective ».
Alertant sur l’existence d’« une guerre idéologique, pas qu’économique », Laurence Devillers estime qu’« entre le modèle chinois d’hypercontrôle, [et] le modèle américain aspiré par le modèle transhumaniste, le modèle européen doit s’affirmer » (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »). « On ne peut plus se permettre d’attendre. »
[1] Intelligence artificielle
Source : Madame Figaro, Jean-Marie Durand (22/10/2023) – Photo : iStock