La Déclaration de Montréal, « garde-fous » au développement de l’IA ?



Après dix-huit mois de préparation, la Déclaration de Montréal a été publiée le 4 décembre dernier.

 

« L’objectif de ce texte est d’abord d’élaborer un cadre éthique pour le développement et le déploiement de l’IA, mais aussi d’orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique », explique Marc-Antoine Dilhac, professeur à l’Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et en théorie politique, et codirecteur scientifique de l’exercice ayant mené à la Déclaration. « Ce n’est pas parce que l’IA peut le faire qu’on doit le lui faire faire », explique-t-il.

 

Ce texte énonce dix principes et huit recommandations à l’usage des gouvernements, des entreprises et des ordres professionnels, parmi lesquels :

  • le principe d’équité : « Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable. »
  • le principe de prudence : « Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter. »
  • le principe de responsabilité : « Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise. Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent ».

 

La Déclaration de Montréal veut répondre à « l’inquiétude qui s’est répandue tant au sein de la population que parmi les experts, sur ses potentiels mauvais usages », selon Marc-Antoine Dilhac, qui a identifié trois craintes essentielles :

  • la peur du remplacement : « perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administrations, avec la justice, la police, etc. » ;
  • la perte de l’identité humaine ;
  • la peur de l’automatisation des injustices et des discriminations. « Mal nourris, les systèmes d’IA peuvent en effet reproduire des préjugés ».

Pour  lui, « le plus gros risque, c’est la bureaucratisation par l’IA », qui conduirait à déresponsabiliser l’humain.

 

Les gouvernements et les ordres professionnels devront « s’emparer des principes de la Déclaration, mais aussi des recommandations qui l’accompagnent afin de légiférer, notamment sur le partage et l’utilisation des données ».


Sources: 

Le Devoir, Hélène Roulot-Ganzmann (8/12/18)