La Déclaration de Montréal, « garde-fous » au développement de l’IA ?

Publié le 10 Déc, 2018

Après dix-huit mois de préparation, la Déclaration de Montréal a été publiée le 4 décembre dernier.

 

« L’objectif de ce texte est d’abord d’élaborer un cadre éthique pour le développement et le déploiement de l’IA, mais aussi d’orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique », explique Marc-Antoine Dilhac, professeur à l’Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et en théorie politique, et codirecteur scientifique de l’exercice ayant mené à la Déclaration. « Ce n’est pas parce que l’IA peut le faire qu’on doit le lui faire faire », explique-t-il.

 

Ce texte énonce dix principes et huit recommandations à l’usage des gouvernements, des entreprises et des ordres professionnels, parmi lesquels :

  • le principe d’équité : « Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable. »
  • le principe de prudence : « Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter. »
  • le principe de responsabilité : « Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise. Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent ».

 

La Déclaration de Montréal veut répondre à « l’inquiétude qui s’est répandue tant au sein de la population que parmi les experts, sur ses potentiels mauvais usages », selon Marc-Antoine Dilhac, qui a identifié trois craintes essentielles :

  • la peur du remplacement : « perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administrations, avec la justice, la police, etc. » ;
  • la perte de l’identité humaine ;
  • la peur de l’automatisation des injustices et des discriminations. « Mal nourris, les systèmes d’IA peuvent en effet reproduire des préjugés ».

Pour  lui, « le plus gros risque, c’est la bureaucratisation par l’IA », qui conduirait à déresponsabiliser l’humain.

 

Les gouvernements et les ordres professionnels devront « s’emparer des principes de la Déclaration, mais aussi des recommandations qui l’accompagnent afin de légiférer, notamment sur le partage et l’utilisation des données ».

Le Devoir, Hélène Roulot-Ganzmann (8/12/18)

Partager cet article

Synthèses de presse

Le zygote « n’est pas un projet parental, il est un projet de lui-même »

Le zygote « n’est pas un projet parental, il est un projet de lui-même »

« Nous sommes passés de la vie donnée à la vie produite. » Et « l’embryon entre nos mains est passé, sournoisement, mais ...
father-daughter-1476167_1920
/ Génome

Epigénétique : des conséquences de la maltraitance transmises à la descendance ?

Une étude finlandaise montre que les spermatozoïdes d’hommes ayant été maltraités dans leur enfance portent des modifications de leur profil ...
Congélation d’ovocytes : les femmes face à des « décisions complexes »
/ PMA-GPA

Congélation d’ovocytes : les femmes face à des « décisions complexes »

Le recours à la congélation d'ovocytes a connu un « essor spectaculaire » en Australie ces dernières années ...

 

Textes officiels

 

Fiches Pratiques

Bibliographie

Lettres

Recevez notre lettre hebdomadaire

Recevez notre lettre hebdomadaire

Chaque semaine notre décryptage de l'actualité bioéthique et revue de presse.

Votre inscription a bien été prise en compte.