Développement de l’intelligence artificielle : « la santé sert de prétexte »
L’intelligence artificielle (IA) pénètre toutes les sphères de la société et certains prédisent une « guerre des intelligences » dont l’homme serait le perdant annoncé. Mais cette « guerre des intelligences » a-t-elle seulement un sens ? Rémi Sentis, docteur ès sciences, directeur de recherche émérite et co-auteur de La guerre des intelligences n’aura pas lieu paru chez Salvator, a accepté de répondre aux questions de Gènéthique.
Gènéthique : La France a récemment organisé un sommet international dédié à l’intelligence artificielle. Le président Emmanuel Macron a annoncé de futurs investissements s’élevant à 109 milliards d’euros. L’IA représenterait une « révolution », avec des apports majeurs notamment dans le domaine de la santé. Partagez-vous cet enthousiasme ?
Rémi Sentis : Il y a un effet de mode dans cette annonce, c’est indéniable. L’énormité de la dépense envisagée montre qu’elle ne sera pas entièrement dédiée à l’intelligence artificielle au sens strict (comprenant les logiciels, le hardware, les serveurs de données, etc.) et à ce qui concerne la robotique. Une partie importante de cet argent sera très vraisemblablement consacrée à d’autres fins : agences de régulation, surveillance des réseaux sociaux, etc.
Comme souvent, quand il s’agit de promouvoir des innovations techniques, la santé sert de prétexte.
Le fait qu’il s’agisse d’une source unique de financement, via éventuellement divers canaux, pose problème, car il reviendra finalement à la seule administration – aidée sans doute d’universitaires choisis par elle – de décider de la destination de ces investissements. Or l’innovation a toujours besoin de diversité.
G : Certains experts ne cachent pas leur inquiétude. Trois « contre-sommets » ont même été organisés en parallèle pour alerter sur les risques. Quels sont les principaux dangers selon vous ?
RS : Plusieurs outils d’IA ont été développés pour la santé qui ne posent pas de problème en soi : les robots chirurgicaux, les implants visant à réparer des handicaps auditifs, visuels, des paralysies, la gestion administrative de cohortes de patients, les outils d’imagerie médicale. En revanche, le développement des implants pour « réparer » l’homme peut être le marche pied vers l’homme « augmenté ». Un fantasme qui date d’il y a 30 ans mais qui reste présent dans les esprits.
Un autre danger concerne les outils de diagnostics médicaux automatisés. Ces pratiques sont en train de se développer : une infirmière reçoit un patient, prend ses constantes, l’interroge sur son historique médical, fait éventuellement un prélèvement sanguin et envoie toutes les informations collectées vers un logiciel d’IA qui pose un diagnostic et formule une prescription. Ce n’est pas l’infirmière qui décide, elle ne fait que transmettre.
Ce type de pratique fait disparaitre la notion de responsabilité, or celle-ci est capitale en médecine comme dans de multiples autres domaines humains. En effet, l’intelligence artificielle n’est qu’un outil, un outil créé par un concepteur responsable de ce qu’il a développé. Par ailleurs, les utilisateurs sont également responsables de l’usage qu’ils en font. Ils ne doivent pas utiliser l’outil en dehors de son domaine de validité. C’est ce qui fait toute la difficulté, car l’utilisateur ne comprend pas toujours les limites de validité d’un outil d’intelligence artificielle. En outre, entre le concepteur et l’utilisateur il y a de nombreux agents (ceux qui fournissent les bases de données, ceux qui personnalisent le logiciel). Tous ces acteurs ont une part de responsabilité.
G : On recense aussi de nouveaux usages en matière de diagnostic prénatal ou préimplantatoire (cf. IA : un algorithme pour détecter les anomalies chromosomiques ; DPI : une intelligence artificielle pour trier les embryons ?). Qu’en pensez-vous ?
RS : En effet, les progrès de l’imagerie et ceux des techniques d’analyse amènent à fournir des données toujours plus nombreuses sur l’enfant à naitre, ce qui conduit à le chosifier. C’est dramatique.
L’embryon est objet d’analyses extrêmement poussées : les transhumanistes promeuvent cela comme un progrès technique. Pour eux, grâce à l’intelligence artificielle, adviendra un « monde meilleur » ; et au nom d’un prétendu progrès médical, on ne saurait mettre aucune barrière au progrès technique. C’est une dérive éthique grave.
G : Publications scientifiques, vidéos, actualités : ne risque-t-on pas de se diriger vers un monde où il deviendra impossible de démêler le vrai du faux ? N’est-ce pas la porte ouverte à toutes les manipulations ? Risque-t-on de perdre tout contrôle ?
RS : C’est en effet une question centrale. Ce qu’on appelle le cyberespace est un espace extrêmement conflictuel. Les Etats en ont conscience. Des milliers d’ingénieurs travaillent à la cyberdéfense, que ce soit au niveau de l’Etat ou des entreprises privées. Des milliers sont aussi formés à la cyberattaque : en France, la DGSE organise des manœuvres avec cyberattaque et cyberdéfense (rouges contre bleus !).
La réalité du cyberespace au niveau planétaire est en fait très éloignée de l’idéal de promotion de l’humanité et de la paix universelle qui est parfois vanté… L’intelligence artificielle comme chemin de progrès et de paix est une vision idéaliste, complètement déconnectée de la réalité.
G : Alors que l’AI act vient d’entrer en vigueur, Emmanuel Macron appelle à une « régulation mondiale » (cf. L’AI Act entre en vigueur, mais pas encore le cadre répressif). Une telle entreprise est-elle envisageable à l’échelle de la planète ?
RS : L’AI act est un texte très complexe et difficile à lire (150 pages écrites serrées). Il comprend de nombreuses exceptions. Par exemple, tout ce qui relève de la recherche bénéficie d’un statut d’exception : aucun interdit n’est posé, aucun outil n’est considéré comme « à haut risque ».
Le texte comporte toutefois de bonnes choses : il permet que des lois nationales interdisent certaines utilisations de l’IA ; donc il reconnait la notion de responsabilité.
Mais le sujet des usages à prohiber ou réguler est très vaste. Il faut sans doute des règles mais il faut aussi de la morale, une morale fondée sur la notion de bien et de mal et sur la responsabilité des utilisateurs.
G : La diffusion de l’IA est extrêmement rapide, pénétrant toutes les sphères de la société. Par ailleurs, des chercheurs ont fabriqué de la peau humaine vivante sur des robots (cf. Des robots avec une peau humaine), des start-ups entendent développer des ordinateurs mettant en jeu des neurones humains (cf. « IA biologique » : une start-up australienne commercialise un ordinateur fait de neurones humains). Assiste-t-on à un bouleversement anthropologique ? Est-il inéluctable ? La frontière entre l’homme et la machine pourrait-elle être définitivement brouillée ?
RS : Deux questions sont posées. Tout d’abord celle visant à développer des robots de plus en plus similaires à des hommes. Ce qui est important pour l’homme c’est d’avoir un corps. Or le robot, ou la machine, n’a pas de corps. Le robot est un périphérique. Même s’il a un « bras », même s’il a des « doigts » et même s’il a une peau qui semble être une peau humaine, il n’a pas de corps au sens anthropologique.
Le corps est sensitif, il utilise nos cinq sens, en particulier le toucher ; ce n’est pas anodin. Par exemple, en touchant, la personne montre son affection à une autre. Mais elle est aussi affectée par cet acte. Un aidant qui touche une personne en fin de vie est bien sûr affecté par ce toucher. Un robot qui fait de la « calinothérapie » ne sera en rien affecté : il ne ressent rien et est donc toujours incapable de démontrer une vraie affection.
Le sujet des IA biologiques est autre. Il s’agit de systèmes mettant en jeu hardware et software classiques et une multitude d’électrodes pour les entrées/sorties : ces entrées et sorties sont tournées vers un organoïde au lieu de l’être vers une base de données (cf. Organoïdes : voie prometteuse pour la recherche ou précipice éthique ?). L’organoïde est constitué d’un grand nombre de cellules vivantes élémentaires – les éléments ; l’ordinateur envoie une multitude de signaux électriques à ces éléments et récupère des signaux électriques provenant d’autres éléments de l’organoïde. Le concept n’est pas inintéressant car il permet notamment de réaliser des économies de temps de calcul et donc d’énergie par rapport aux systèmes classiques, mais il s’agit d’un couplage entre un organoïde soumis à des aléas extérieurs et un logiciel classique. L’organoïde ne fait pas partie de l’intelligence artificielle.
La question est : que tirera-t-on de ces systèmes ? Ils peuvent générer beaucoup de fantasmes. Il faut se méfier des fantasmes…
G : Avec le développement du concept d’« IA biologique » ou encore d’« apprentissage organique » (cf. L’« apprentissage organique » : l’homme, un nouvel ordinateur ?), pourrait-on assister à un retour vers l’humain après la mise en valeur de la machine ? N’est-ce pas reconnaitre que l’intelligence la plus « performante » est finalement celle de l’homme ?
RS : Il faut encore revenir à la question du corps qui est essentielle. Ces développements conduisent à redécouvrir cette différence fondamentale entre l’homme et la machine. L’IA n’aura jamais de corps, elle n’a que des périphériques. L’homme, lui, est corps, âme et esprit.