Aux Etats-Unis, lundi, dans la ville de Tempe, près de Phoenix, en Arizona, un véhicule autonome d’Uber a heurté un piéton. « Le véhicule était en mode autonome lors de la collision, avec un opérateur derrière le volant ». La femme, qui « traversait en dehors d’un passage piéton », a été transportée à l’hôpital, où elle est décédée.
Si « les défenseurs de la conduite autonome estiment que cette technologie peut diminuer le nombre d’accidents, précisément parce que les machines seraient plus fiables qu’un humain », l’accident vient renforcer les interrogations. D’autant qu’en l’espèce, ça n’est pas le premier « impliquant un véhicule ayant des fonctions de ce type ».
En 2016, un américain d’une quarantaine d’année, avait trouvé la mort alors qu’il conduisait une berline Model S de Tesla. Elle était équipée d’un logiciel, Autopilot, qui permet un certain nombre de manœuvres sans l’intervention du conducteur. A l’époque, le régulateur des transports, le NTSB, avait conclu que la « trop grande dépendance » du conducteur à Autopilot avait « entraîné un désengagement prolongé » ayant conduit à la collision.
Pour Jothi Periasamy, chef des données chez Experfy et enseignant sur l’intelligence artificielle au Massachusetts Institute of Technology (MIT), « l’intelligence artificielle n’en est qu’à ses premiers pas, dans le domaine des voitures autonomes comme ailleurs ». Il reconnait qu’« il peut survenir des situations où le modèle ne comprend pas les circonstances ».
Uber, qui fait partie des nombreuses entreprises engagées dans une course internationale pour développer la voiture autonome, a pour l’heure suspendu son programme de circulation de voitures sans conducteur.
Pour aller plus loin :
Rapport Delvaux adopté : le Parlement Européen entre dans la fiction transhumaniste
La robotique, un progrès inéluctable pour une « humanité durable » ?
Faut-il instaurer des droits pour les robots ?
Le Devoir, Karl Rettino-Parazelli (20/03/2018) ; Le Devoir, Glenn Chapman et Julie Charpentrat (20/03/2018)