Les robots à l’heure du transhumanisme

Publié le 14 Fév, 2017

Alors que l’Europe s’interroge sur le statut des robots, Emmanuel Brochier, professeur de philosophie à l’IPC, répond aux questions de Gènéthique sur les rapports de l’homme et du robot.

Gènéthique : Paris a accueilli un robot chef d’orchestre qui a parfaitement fait l’affaire… Pensez-vous que nous allons finir par exiger des autres humains qu’ils se comportent comme des robots ? Le risque pour l’homme n’est-il pas de ne plus tolérer le caractère imparfait des humains ?

Emmanuel Brochier : Oui, Urban orchestra Sibelius fut une première mondiale le 17 mai 2008 à la Cité des sciences à Paris, à une époque où le débat sur le transhumanisme n’avait pas encore été vraiment lancé en Europe… Les Japonais fascinés depuis longtemps par les robots humanoïdes avaient déjà produit des robots trompettistes ou violonistes (voir la gamme Partner de Toyota). Mais dans le cas de Robot Orchestra, il s’agissait simplement d’un bras industriel jusque-là utilisé dans les chaînes de montage, et non d’un robot humanoïde comme on le verra un an plus tard avec Asimo de Honda ou en 2014 avec Pepper, le robot franco-japonais. Pascal Gautier, le concepteur d’Orchestra, cherchait à imiter la gestuelle des plus grands chefs d’orchestre en reproduisant les mouvements de leur bassin, de leur épaule, du coude et du poignet, grâce à des captures de mouvements. Ce robot n’étant pas doté d’une intelligence artificielle, était incapable de « lire » une partition ou de corriger les erreurs d’un musicien ; il permettait seulement de diriger un orchestre, voire plusieurs en même temps, et ce, à la manière d’un maestro. À ma connaissance, depuis, nous n’avons fait que lui donner une apparence un peu plus humaine. Si donc le robot se comporte comme un chef, il est encore loin de pouvoir l’égaler.

Mais supposons que les progrès de l’intelligence artificielle permettent un jour de faire aussi bien qu’un grand chef d’orchestre. Il arriverait alors ce qui s’est déjà produit dans les usines de montage avec l’apparition des bras industriels qui ont fini, tout simplement, par remplacer les ouvriers. Je ne crois pas que l’on puisse attendre de l’homme qu’il se comporte comme un robot. Car le métier humain, celui dont l’homme a besoin, consiste moins dans la performance que dans le savoir-faire et le savoir-être, en un mot dans une sagesse au sens premier et pré-philosophique du terme. La performance, on ne le sait que trop, conduit au burn out. Dès lors, quand le robot fait mieux, il remplace l’homme. Ce n’est pas là uniquement une problématique de diminution des coûts ou de gains de compétitivité. C’est aussi le fait que le travail humain obéit à une autre logique. Un gigantesque remplacement nous est annoncé, et il semble urgent que nous l’anticipions. En janvier 2016, les organisateurs du Forum Économique Mondial prévoyaient en effet, suite à ce qu’on appelle déjà la quatrième révolution industrielle, une perte de 7,1 millions d’emplois d’ici 2020 au sein des pays développés, une perte que ne peut compenser une création d’emplois estimée à 2,1 millions ! Et le rapport de préciser que le secteur tertiaire serait également touché. De son côté, un rapport de l’ONU (publié en octobre 2016) prévoit le remplacement des deux tiers des emplois des pays en développement. Le risque est donc grand de laisser des populations entières sans travail.

Le défi sera de comprendre que les robots ne remplacent jamais le travail humain, parce que celui-ci a une autre raison d’être que la seule croissance économique. Pour s’en convaincre, il faudrait réfléchir à sa signification profonde. Les robots seront peut-être un jour plus efficaces que nos chefs d’orchestre, mais ils n’en auront jamais la culture propre. Ce jour-là, les fautes volontairement commises par nos maestros de chair et de sang seront encore autant de signes de cette culture à jamais inégalable. Et d’ores et déjà elles peuvent apparaître comme une note d’espoir pour qui veut recouvrer le sens du travail humain. Il y aura toujours un travail humain possible à côté des performances robotiques.

G : Devrait-on doter les robots d’un droit spécifique (par exemple en les dotant d’une personnalité juridique), ou simplement adapter les lois existantes ?

EB : Un vote aura lieu à ce sujet au Parlement Européen le 16 février prochain. Le débat a été préparé par le rapport Mady Delvaux[1] qui préconise au §31f la création d’une personnalité juridique spécifique aux robots au motif que les robots autonomes les plus sophistiqués (voitures, drones, robots chirurgiens, etc.) sont capables de prendre « des décisions autonomes de manière intelligente » ou d’interagir « de manière indépendante avec des tiers ». Selon le rapport adopté le 12 janvier dernier par la Commission des affaires juridiques, ces robots devraient donc être considérés comme des « personnes électroniques ».

Il ne fait pas de doute que la législation en vigueur est insuffisante dans la mesure où le comportement des robots de nouvelle génération est chose imprévisible tant pour leurs concepteurs et leurs fabricants que pour leurs utilisateurs ou propriétaires. Les robots autonomes peuvent désormais interagir avec leur environnement de manière unique et sont dotés de capacités d’apprentissage étonnantes. D’où l’idée, qui n’est pas mauvaise en soi, de créer une assurance particulière. La question n’est pas là. Elle est dans l’intention qui anime le rapport, et qui est clairement transhumaniste. Au §I de l’introduction, en effet, M. Delvaux  écrit : « il est possible en fin de compte, qu’en l’espace de quelques décennies, l’intelligence artificielle surpasse les capacités intellectuelles humaines, ce qui pourrait, si l’on ne s’y prépare pas, mettre en péril la capacité de l’humanité à contrôler sa propre création, et, dès lors, à être maîtresse de son propre destin et à assurer la survie de l’espèce ». Peut-on légiférer sur la base d’une opinion philosophique qui ne saurait s’imposer ? Écrit dans une perspective transhumaniste, on comprend que le rapport accepte l’idée qu’il n’existe pas de différence radicale entre un robot et un homme, et suggère, tout en faisant mine de ne pas y croire, la possibilité pour des robots devenant « conscients de leur propre existence [sic !]» (ibid., §l) d’être des sujets de droit au même titre que l’homme. On n’est pas davantage étonné que plus loin, au §18, il soit question du « grand potentiel de la robotique […] en matière d’amélioration du corps humain ». Je ne sais quelle sera la décision du Parlement, mais si le concept de « personne électronique » implique à ce point le transhumanisme, son acceptation pose de sérieux problèmes. Il faut d’abord débattre de la question du transhumanisme, comme y invitait la Commission européenne en 2006 dans le rapport « Technology assessment. On converging technologies ». Une philosophie ne peut pas s’imposer à la manière d’une théorie scientifique. Il faudra donc non seulement débattre, mais aussi garantir la possibilité d’être en désaccord.

G : Serge Tisseron (auteur de l’ouvrage Le Jour où mon robot m’aimera – Albin Michel, 2015) explique que les robots ne détecteront pas de mauvais sentiments en nous : « Le robot sera toujours d’accord avec vous. Il ne détectera pas un sentiment comme la honte, et de ce fait il vous évitera d’avoir honte quand vous avez mal agi ». Pensez-vous que l’intelligence artificielle fasse voler en éclat la notion de bien et de mal ?

EB : Il se pourrait que la notion de bien et de mal ait plus à craindre de l’homme que de l’intelligence artificielle. Nous l’avons déjà perdue, cette notion, si nous pensons qu’une chose – quelle qu’elle soit – n’est un bien que du fait que nous en éprouvons, ou pourrions en éprouver, un désir légitime. Augustin d’Hippone disait à propos de la vérité : « L’esprit ne fait pas la vérité, il la trouve ». Il en va, me semble-t-il, de même pour le bien. Celui-ci nous précède, même lorsqu’il dépend de nous. Il ne dépend donc jamais seulement de nous. Nous en sommes responsables, mais n’en sommes pas la source. Il nous faudra toujours chercher ce qui est bien, et nous former pour cela. Je vois beaucoup qui ne s’intéressent qu’à ce qui est utile et ne voient le bien qu’à l’aune de ce dernier. Lorsqu’elles sont généreuses, ces personnes sont dans le calcul de ce qui pourrait rapporter le plus au plus grand nombre. L’intelligence artificielle y parviendra sans doute encore mieux. Certes, si le bien était toujours utile, l’utilitarisme serait beaucoup mieux ; mais l’expérience montre que le mieux est parfois l’ennemi du bien. Imaginez que nous n’ayons jamais honte, cela serait tellement mieux, car nous ne serions jamais accablés de remords ; nous serions cependant incorrigibles, ce qui est pire. Il faut le rappeler : ce qui grandit le bien, ce n’est pas l’utilité, mais la vérité. Et d’abord la vérité sur l’homme. C’était la leçon d’un Socrate pour qui la sagesse consistait à se connaître soi-même. Je constate que l’on n’a pas attendu l’avènement de l’intelligence artificielle pour l’oublier.

G : Laurent Alexandre parle beaucoup de « déterminisme technologique ». Pour lui, le « tout technologique » semble inéluctable. Pensez-vous que le monde qu’il décrit va effectivement exister ? Et quels sont les moyens qui pourraient empêcher qu’un tel monde advienne ?

EB : L’expression « déterminisme technologique » est un oxymore. Car la technologie relève précisément de ce qui dépend de notre responsabilité. Pour Laurent Alexandre, comme pour la plupart des transhumanistes qui regardent au long terme, le problème est celui de la survie de l’espèce humaine. S’il appartient à l’homme d’éviter son extinction, il semble alors que le « tout technologique » devienne nécessaire. Mais on pourrait renverser le raisonnement et dire que si le « tout technologique » était inacceptable, alors l’objectif de sauver l’espèce humaine ne serait plus une obligation, puisqu’à l’impossible nul n’est tenu. Je crains que nous soyons collectivement en train de tomber dans un piège[2]. Et pourtant Karl Popper nous avait prévenus en montrant dans Misère de l’historicisme (1956) que l’histoire est contingente et qu’elle ne donne lieu à aucune loi, seulement à des points de vue. Certains, ajouterai-je, sont plus pertinents que d’autres ; et il appartient à la philosophie de fournir une aide au discernement aujourd’hui irremplaçable et urgente.

Emmanuel BROCHIER

Emmanuel BROCHIER

Expert

Doyen et directeur de l’IPC (Facultés Libres de Philosophie et de Psychologie).

Partager cet article

Experts

[authoravatars page_size=6 order=last_name,asc show_name=true roles=contributor avatar_size=160]

 

Textes officiels

 

Fiches Pratiques

Bibliographie

Lettres