La Déclaration de Montréal, « garde-fous » au développement de l’IA ?

Publié le 10 Déc, 2018

Après dix-huit mois de préparation, la Déclaration de Montréal a été publiée le 4 décembre dernier.

 

« L’objectif de ce texte est d’abord d’élaborer un cadre éthique pour le développement et le déploiement de l’IA, mais aussi d’orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique », explique Marc-Antoine Dilhac, professeur à l’Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et en théorie politique, et codirecteur scientifique de l’exercice ayant mené à la Déclaration. « Ce n’est pas parce que l’IA peut le faire qu’on doit le lui faire faire », explique-t-il.

 

Ce texte énonce dix principes et huit recommandations à l’usage des gouvernements, des entreprises et des ordres professionnels, parmi lesquels :

  • le principe d’équité : « Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable. »
  • le principe de prudence : « Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter. »
  • le principe de responsabilité : « Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise. Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent ».

 

La Déclaration de Montréal veut répondre à « l’inquiétude qui s’est répandue tant au sein de la population que parmi les experts, sur ses potentiels mauvais usages », selon Marc-Antoine Dilhac, qui a identifié trois craintes essentielles :

  • la peur du remplacement : « perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administrations, avec la justice, la police, etc. » ;
  • la perte de l’identité humaine ;
  • la peur de l’automatisation des injustices et des discriminations. « Mal nourris, les systèmes d’IA peuvent en effet reproduire des préjugés ».

Pour  lui, « le plus gros risque, c’est la bureaucratisation par l’IA », qui conduirait à déresponsabiliser l’humain.

 

Les gouvernements et les ordres professionnels devront « s’emparer des principes de la Déclaration, mais aussi des recommandations qui l’accompagnent afin de légiférer, notamment sur le partage et l’utilisation des données ».

Le Devoir, Hélène Roulot-Ganzmann (8/12/18)

Partager cet article

Synthèses de presse

L’IA, plus morale que les hommes ?
/ Transhumanisme

L’IA, plus morale que les hommes ?

Une étude a montré que lorsque deux réponses à une question éthique sont proposées aux gens, la plupart d'entre eux ...
Trois hommes de la même famille à l’origine d’« au moins 600 enfants »
/ PMA-GPA

Trois hommes de la même famille à l’origine d’« au moins 600 enfants »

Au Québec, trois hommes, membres de la même famille, auraient engendré « au moins 600 enfants » « de façon ...
cow-174822_640

Des scientifiques veulent faire naitre des veaux issus d’« embryons de synthèse »

Des chercheurs de l’université de Floride tentent de fabriquer « un grand animal » à partir de cellules souches uniquement ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres