Intelligence artificielle : « la machine ne comprend pas »

Publié le 20 Mar, 2025

Olivier Rey, mathématicien et philosophe, analyse le caractère problématique du syntagme « intelligence artificielle ».

Aristote distinguait trois types d’âme : l’âme végétative, présente dans tous les vivants, l’âme sensitive (et motrice), s’ajoutant chez les animaux, et l’âme intellective, s’ajoutant chez les êtres humains. Dans une telle perspective, intelligence était synonyme d’intelligence humaine.

Le Darmouth Summer Research Project on Artificial Intelligence, organisé en 1956 par John McCarthy, est généralement considéré comme l’acte de naissance de l’intelligence artificielle comme champ de recherche autonome. Les participants à cette réunion avaient cette conviction : « Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être fabriquée pour le simuler. [1] » C’était précisément la capacité supposée des machines à simuler l’intelligence humaine qui permettait de parler d’intelligence artificielle. Cela étant, un double constat s’imposa rapidement : d’une part, pour nombre de tâches particulières, les machines électroniques peuvent devenir extraordinairement supérieures aux humains ; d’autre part, il demeure impossible de reproduire l’intelligence humaine dans ses innombrables aspects. De ce fait, le syntagme « intelligence artificielle », qui induit nécessairement une comparaison avec l’intelligence humaine, apparaît problématique.

Un défaut de compréhension

Il l’est pour une autre raison, qui ne tient pas aux performances, mais à la façon dont celles-ci sont obtenues. A un enfant humain, il suffit d’avoir vu quelques chats, quelques escaliers ou quelques bicyclettes pour être capable de repérer ensuite un chat, un escalier ou une bicyclette, et cela parce qu’il a « compris » ce dont, dans chaque cas, il s’agit. En revanche, il faut « nourrir » les machines de millions d’images annotées pour obtenir d’elles pareille performance. Nous sommes capables, avec un peu d’expérience, de conduire une voiture dans n’importe quelle situation, alors que des milliards et des milliards de données ne suffisent pas pour qu’un véhicule dit autonome s’insère correctement dans le trafic. Du côté de la machine, il faut compenser, par un entraînement et des calculs intensifs, un défaut de compréhension, qu’on pourrait aussi qualifier de défaut d’intelligence.

Voici un exemple, qui expose de façon frappante ce défaut de compréhension. En 2023, quelques mois après le lancement public de ChatGPT, le mathématicien Jean-François Colonna eut l’idée de poser à l’agent conversationnel un certain nombre de questions de nature mathématique [2]. Certaines réponses étaient correctes, d’autres fausses, d’autres aberrantes. ChatGPT était capable, entre autres, d’énoncer correctement ce qu’on appelle les « petit » et « grand » théorèmes de Fermat. Questionné sur ce qu’est le « moyen » théorème de Fermat, ChatGPT, au lieu de répondre qu’un tel théorème n’existe pas, variait dans ses réponses, dont voici l’une d’elles : « si a et b sont deux nombres entiers consécutifs, alors il existe au moins un nombre premier p tel que a < p< b. En d’autres termes, entre deux nombres entiers consécutifs, il existe toujours au moins un nombre premier. » Etant donné qu’entre deux nombres entiers consécutifs il n’existe, par définition, aucun nombre entier, une telle affirmation est absurde. Elle montre que si l’agent conversationnel, en général, insère comme il convient le mot « nombre » dans les phrases qu’il produit, il n’a aucune compréhension de ce qu’est un nombre.

L’IA, un prestidigitateur ?

Bien entendu, ChatGPT est susceptible d’être amélioré, et l’est effectivement, afin que des réponses aussi aberrantes que celle qui vient d’être citée ne soient plus données. Mais ce que révèle l’exemple précédent demeure : la machine ne comprend pas. Un prestidigitateur peut donner l’impression d’avoir coupé une femme en deux puis de l’avoir reconstituée, en fait il ne l’a jamais coupée en deux. Un agent conversationnel peut donner l’impression, dans la réponse qu’il fournit, qu’il a compris de quoi il était question, en fait il est allé de la question à la réponse par un chemin qui ne passe pas par la compréhension. Sans faire preuve, pourrions-nous dire, d’intelligence.

L’expression « intelligence artificielle », pour critiquable qu’elle soit, ne s’en est pas moins imposée. Elle doit ce succès à son côté séduisant, et à la difficulté à lui trouver une remplaçante crédible. En concaténant programmation, apprentissage et computation, trois composantes de ce qu’on nomme intelligence artificielle, on obtiendrait proapputation. La dissonance du mot répondrait bien au caractère insolite de ce qu’il désigne – mais on aurait plus de mal à réunir des milliards pour la proapputation que pour l’intelligence artificielle.

 

[1] A Proposal for the Darmouth Summer Research Project on Artificial Intelligence. https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

[2] Jean-François Colonna, « Les élucubrations mathématiques de ChatGPT », Pour la science, 8 juillet 2023. https://www.pourlascience.fr/p/opinions/les-elucubrations-mathematiques-de-chatgpt-25434.php . Pour plus de détails : http://www.lactamme.polytechnique.fr/Mosaic/descripteurs/ChatGPT.01.Fra.html

NDLR : Cet article est un extrait d’un entretien donné par Olivier Rey au journal L’Incorrect. Il est reproduit ici avec l’accord de l’auteur.

Photo : iStock

Olivier Rey

Olivier Rey

Expert

Olivier Rey est né en 1964 à Nantes. Chargé de recherche au CNRS, d’abord au Centre de mathématiques Laurent Schwartz (1989-2008), puis au Centre de recherche en épistémologie appliquée (2009-2012), aujourd'hui à l’Institut d’histoire et de philosophie des sciences et des techniques, il a enseigné à l'École polytechnique (1991-2006) et enseigne depuis 2005 à l'Université Panthéon-Sorbonne. Il a publié plusieurs ouvrages dont le premier, intitulé Itinéraire de l'égarement - Du rôle de la science dans l'absurdité contemporaine (Seuil, 2003), étudie la façon dont la science moderne s’est constituée et par quelles voies elle en est venue, avec la technique qu’elle inspire, à capter l’essentiel des forces spirituelles et matérielles des sociétés occidentales. Une folle solitude – le fantasme de l’homme auto-construit (Seuil, 2006), prolonge la réflexion en partant d’un fait concret : le changement d’orientation des enfants dans les poussettes qui s’est opéré au cours des années 1970 – symptôme de la propension des sociétés modernes à tourner le dos aux héritages qui les fondent. Plus récemment Le Testament de Melville (Gallimard, 2011) entend montrer, à travers une étude du chef-d’œuvre posthume de Herman Melville, Billy Budd, marin, la puissance de la littérature pour explorer les questions éthiques et esthétiques. Olivier Rey est également l’auteur d’un roman, Après la chute (PGDR, 2014).

Partager cet article

 

Textes officiels

 

Fiches Pratiques

Bibliographie

Lettres

Recevez notre lettre hebdomadaire

Recevez notre lettre hebdomadaire

Chaque semaine notre décryptage de l'actualité bioéthique et revue de presse.

Votre inscription a bien été prise en compte.