IA : des rapports insuffisants face à l’urgence d’un cadre éthique solide


L’intelligence artificielle (IA), nouveau domaine à prendre en compte dans la loi de bioéthique, se développe notamment dans le secteur de la santé, s’introduisant dans le diagnostic, la chirurgie, la prescription… et y apporte son lot de questions éthiques. La robotique en est un des champs de mise en œuvre important. Cette « science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence » a déjà fait couler beaucoup d’encre. Les plus récents rapports tâtonnent pour définir un cadre éthique et juridique pour la conception, la production, l'utilisation et la gouvernance de l'intelligence artificielle. Laetitia Pouliquen, fondatrice de NBIC ethics, analyse avec Gènéthique ces différentes prises de position : le guide éthique de l’IA rédigé par la Commission européenne, la récente résolution adoptée par le Parlement européen, la réflexion des évêques de la Commission des épiscopats de l’Union Européenne[1] sur la robotisation de la vie, mais aussi le chapitre 6 du rapport de Jean-Louis Touraine qui traite de l’IA en vue de la révision de la loi bioéthique française.

 

On se souvient du rapport Delvaux[2], adopté en février 2017 par le Parlement européen, controversé pour son paragraphe 59f qui recommande la création d’un statut juridique spécifique pour les robots « intelligents » ou « autonome ». Une mesure fondée sur l’affirmation que la responsabilité en cas de dommage mettant en jeu un robot, serait impossible à prouver. Cette justification est dénoncée dans une lettre ouverte[3] signée par des centaines d’experts en intelligence artificielle et robotique, leaders industriels, experts en droit, en médecine et en éthique, car elle « surestime les capacités réelles des robots même les plus avancés », et s’appuie sur « une compréhension superficielle de l’imprévisibilité et des capacités d’autoapprentissage des robots », ainsi que sur « une perception robotique déformée par la science-fiction et de récentes annonces médiatisées ». Ces experts s’opposent à la création d’une personnalité juridique pour les robots, inadaptée quel que le soit le modèle de statut juridique envisagé.

 

Pour autant, l’idée reste mentionnée dans de nombreux rapports, et l’urgence éthique et juridique dans le domaine de la robotique autonome demeure.

 

La Commission européenne a chargé un comité de 52 experts de rédiger une « guide d’éthique de l’IA » dans le but affiché de « gagner la confiance » des citoyens et des entreprises. Garantir des valeurs aux utilisateurs pour garantir le développement économique aux entreprises, une éthique biaisée. Soumis à une consultation publique entre décembre et février, sa version finale devrait voir le jour en mars 2019. D’autres recommandations, cette fois sur la régulation de l’IA sont en cours de préparation par ce groupe d’experts, elles devraient être publiées au mois de mai. Laetitia Pouliquen interroge la composition de ce groupe d’experts : une « absence quasi-totale de philosophes, éthiciens, responsables religieux, sociologues, anthropologues ou encore personnels de santé », et « une large majorité d’acteurs de l’industrie et de fédérations industrielles », dont la vision éthique est nettement influencée par le marché et une analyse coût risque. En outre, ce guide a vocation à être adopté volontairement par chaque industriel ou développeur. Pour Laetitia Pouliquen, cette démarche ne garantit pas aux utilisateurs le respect de leurs droits. Elle propose une « charte visible par un label tel que ‘Ethics inside’ », ou pour le domaine de la santé, « un nouveau serment d’Hippocrate technologique ».

 

Dans sa première version, le guide souligne l’importance de « transparence, de respect de la vie privée, de non-discrimination », mais aussi de la fiabilité technologique. Des principes importants mais insuffisants, soulignent Laetitia Pouliquen: « Les six principes éthiques considérés comme fondateurs et présentés par le groupe d'expert en IA sont la Bienfaisance (faire le bien), la Non-malfaisance (ne pas nuire), l'autonomie des humains, la Justice (c'est-à-dire la non-discrimination de l'IA) et l'explicabilité pour assurer autonomie, consentement éclairé et protection des donnés. Mais alors, sans autonomie, l'utilisateur n'aurait-il pas de droits? De même, transparence des algorithmes, non-discrimination, protection des données seront-ils des principes suffisants pour garantir le respect de nos libertés? Sans doute pas ».

 

De son côté, le Parlement européen a adopté le 12 février la résolution Ashley Fox qui concerne la politique industrielle européenne globale sur l’intelligence artificielle. La résolution envisage l’IA avec « bienveillance », considérant qu’« une intelligence artificielle et une robotique transparentes[4] et intégrant l’éthique sont potentiellement en mesure d’enrichir nos vies et de renforcer nos capacités, tant sur le plan individuel que pour le bien commun ». Si la protection des données est un sujet majeur, ainsi que l’idée d’une « technologie centrée sur l’homme », le fil conducteur reste la possibilité de « rivaliser avec les investissements de masse effectués par des pays tiers, notamment les États-Unis et la Chine ». Concernant la gouvernance de l’IA, la résolution propose la création « d’une agence réglementaire européenne de l’IA et de la prise de décision algorithmique ».

 

Dans ce foisonnement de rapports, il faut noter la publication début janvier d’une réflexion par la COMECE sur la robotisation de la vie. A l’inverse des divers guides déjà évoqués, les évêques abordent les questions de fonds que pose le développement de l’IA : comment conserver notre liberté face aux machines, comment préserver la frontière entre l’homme et la machine ? Si les robots peuvent gagner en autonomie, ils n’en sont pas pour autant libres, ce qui justifie de ne pas leur accorder de « personnalité juridique ». Pour une robotique éthique, plusieurs critères de discernement sont proposés : « la garantie d’un contrôle humain ultime sur toute décision prise par une intelligence artificielle ; la transparence concernant le processus informatique ayant permis aux machines d’exécuter leur tâche ; la protection du droit des travailleurs et des plus fragiles, pour ne pas creuser les injustices ».

 

Au niveau français, l’intelligence artificielle a notamment fait son entrée dans la réflexion éthique à l’occasion de la révision de la loi de bioéthique. Le rapport de la mission parlementaire rédigée par le député Jean-Louis Touraine y consacre donc un chapitre, et formule onze propositions[5]. Ces dernières sont intéressantes souligne Laetitia Pouliquen, mais il s’agit ici uniquement d’éthique pratique, reposant sur les principes d’autonomie, de consentement éclairé, de responsabilité. Qui est l’homme et comment se différencie-t-il de la machine ? Quelles « augmentations technologiques défigureront l’homme au détriment de sa dignité et de sa liberté » ? Autant de bases que l’auteur n’aborde pas, constate Laetitia Pouliquen. Il se réfère sans cesse à l’ « autonomie », concept pourtant contesté par le Groupe Européen d’Ethique des sciences et des nouvelles technologies[6] lorsqu’il est appliqué aux algorithmes : « La dignité humaine en tant que fondement des droits de l’Homme implique qu’une intervention et une participation humaines significatives doivent être possibles dans toutes les interactions entre la technologie et l’homme et son environnement ».

 

Si la COMECE propose une réflexion solide, les autres rapports officiels cités présentent une « éthique pratico pratique » et « oublient de rappeler les principes fondamentaux », regrette Laetitia Pouliquen. Sans être « mal pensants », ils sont « insuffisants ». L’établissement d’un cadre éthique robuste est une urgence, qui est aussi réclamée par les développeurs d’IA, face aux fantasmes en tout genre et à la confusion entretenue sur la frontière homme-machine.



[1] COMECE

[3] Laetitia Pouliquen est co-conceptrice de cette lettre

[4] Dont les actions sont comprises par les êtres humains

[5] Proposition n° 41 Maintenir le principe d’une responsabilité du médecin qui, en l’absence de défaut établi de l’algorithme, ne peut être engagée qu’en cas de faute de sa part.

Proposition n° 42 Préciser qu’une faute ne peut être établie du seul fait que le praticien n’aurait pas suivi les recommandations d’un algorithme, quand bien même celles-ci se révèleraient exactes.

Proposition n° 43 Introduire un principe législatif de garantie humaine du numérique en santé.

Proposition n° 44 Charger la Haute Autorité de Santé de rédiger des recommandations de bonnes pratiques pour la mise en œuvre concrète de ce principe de garantie humaine.

Proposition n° 45 Mettre en place un Collège de garantie humaine à l’échelle d’un établissement ou d’un territoire plus large.

Proposition n° 46 Définir un nouvel acte de télémédecine dit « de garantie humaine » permettant d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme.

Proposition n° 47 Introduire dans la loi une exigence d’explicabilité des algorithmes, différenciée selon le public visé, qui porterait sur leur logique de fonctionnement et sur les critères retenus pour apprécier la pertinence des informations finales tirées des données utilisées.

Proposition n° 48 Développer la formation des professionnels de santé sur les apports de l’intelligence artificielle en santé et l’utilisation des données de santé générées au cours du parcours de soins.

Proposition n° 49 Instaurer des outils pratiques nouveaux ou réactualisés pour garantir l’effectivité du recueil du consentement d’un individu à l’utilisation de ses données de santé.

Proposition n° 50 Introduire une exigence d’information préalable du recours à un algorithme par le médecin au patient ou à son représentant légal.

Proposition n° 51 Établir des recommandations de bonnes pratiques pour adapter le recueil de consentement du patient aux actes et traitements proposés après intervention d’un algorithme.

Proposition n° 52 Créer à titre transitoire un comité d’éthique spécialisé sur le numérique en santé au sein du CCNE puis, à terme, un nouvel organe de réflexion éthique sur l’intelligence artificielle.

[6] « sorte de comité d'éthique européen nommé par le Président de la Commission Européenne »