L’intelligence artificielle manque de bon sens



Gary Marcus, fondateur de la société Geometric Intelligence s’inspire de la façon dont les enfants développent leur capacité d’abstraction et de bon sens pour « humaniser l’intelligence artificielle (IA)» et la rendre ainsi plus performante.

 

Contrairement aux approches de deep learning, Gary Marcus teste une méthode inédite pour faire apprendre les robots. Pour lui, le deep learning, technique d’apprentissage informatique basée sur des réseaux de neurones, est incomplet : il lui manque le « bon sens, qui dépend partiellement d’une compréhension causale des choses » : « par exemple, une image d’un homme portant un cheval sur son épaule vous semblera inhabituelle ; par contre, pour une IA qui ne connaît pas ni n’a jamais expérimenté la notion abstraite de force de gravité, cette photo n’aura rien d’absurde ». Le cerveau humain « est clairement capable de faire mieux » qu’une intelligence artificielle nourrie par deep learning. Si le cerveau « utilise des techniques proches du deep learning pour certaines tâches, il est aussi capable de développer, enregistrer et manipuler des règles sur le fonctionnement du monde de telle manière qu’il puisse tirer des conclusions aussi à partir d’un petit nombre d’expériences ». C’est suite à ce constat que Gary Marcus a choisi une autre approche pour développer l’intelligence artificielle.

 

Passionné de son domaine, il s’inquiète toutefois du manque de régulation sur « la manière dont certains acteurs mal intentionnés pourraient utiliser » l’intelligence artificielle.


Sources: 

Le Temps, Olivier Dessibourg (2/11/2016)