Lettre ouverte des experts contre les armes létales autonomes



Hier, lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en intelligence artificielle et robotique, ont réclamé l’interdiction des armes autonomes, capables de « sélectionner et de combattre des cibles sans intervention humaine ». Ils se sont fait entendre en signant une lettre ouverte publiée par le Future of Life Institute, organisme américain à but non lucratif qui travaille sur « les risques potentiels d’un développement d’une intelligence artificielle de niveau humain » et à « atténuer les risques existentiels auxquels doit faire face l’humanité ».

 

Parmi les signataires figurent Elon Musk, PDG de Tesle et de SpaceX, ainsi que l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA (cf. Synthèse de presse Gènéthique du 7 juillet 2015 , et du 4 décembre 2014).

 

Cette lettre a été publiée à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle qui se tient à Buenos Aires du 25 au 31 juillet, pour mettre en garde contre une menace bien réelle : « L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera - matériellement, si pas légalement - faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires ».

 

La crainte des experts et signataires de cette lettre ouverte est que les Etats se lancent dans une « course à l’armement » motivée par cette idée que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». « La question clé de l’humanité aujourd’hui est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer », déclarent-ils.

 

Si une puissance militaire se lançait dans le domaine des armes létales autonomes une escalade serait « inévitable », insistent-ils. « Contrairement aux armes nucléaires, ces armes ne nécessitent aucun matériel de base coûteux ou difficile à obtenir », précisent les experts, par conséquent « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler d’avantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».

 

Cependant ce texte ne s’oppose pas à l’IA en tant que telle. Les chercheurs redoutent au contraire qu’une application militaire de l’IA ne « ternisse » ce champ de recherche et ne génère un « rejet majeur du grand public contre l’IA qui couperait cour à tous ses bénéfices sociétaux futurs ».

 

La question de l’interdiction des armes létales autonomes a fait l’objet d’une réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide depuis plus de deux ans en faveur d’un moratoire sur le développement de ces systèmes en attendant la définition d’un cadre juridique adapté.

 

L’ONG Human Rights Watch avait quant à elle dénoncé dans un rapport publié en avril « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».

 


Sources: 

Le Monde (Morgane Tual) 28/07/2015