Le médecin est de plus en plus amené à utiliser des outils intégrant l’intelligence artificielle : aide à la chirurgie, au diagnostic, avec des conséquences inévitables sur la relation avec le patient. Avec Anne-Laure Boch, neurochirurgien, médecin des Hôpitaux de Paris, et docteur en philosophie, Gènéthique fait le point.
Gènéthique : Comment en êtes-vous venue aux questions de l’intelligence artificielle (IA) ?
Anne-Laure Boch : En tant que médecin des hôpitaux et neurochirurgien, je suis concernée par la médecine technique, technoscientifique, au sens large du terme. Les promesses de cette médecine de pointe sont actuellement poussées à l’extrême par le transhumanisme. Ce mouvement d’idées prétend étendre les techniques biomédicales utilisées chez les malades en direction des bien-portants. Le développement de l’intelligence artificielle fait partie de leurs projets. En tant que spécialiste en neurologie, en sciences cognitives, je m’y intéresse particulièrement. Notamment le rapport avec l’intelligence biologique (l’intelligence « tout court », à vrai dire !) est une question fascinante. Mon abord de ces questions est philosophique et pas seulement technique.
G : Quand on parle d’intelligence artificielle, de quoi parle-t-on ?
ALB : Au départ, l’intelligence artificielle est née de l’ambition de copier le cerveau biologique, de fabriquer des machines qui rivalisent avec l’organe naturel. L’idée était de construire une machine qui se comporte comme une intelligence humaine. Avec le temps et le développement de la technique, un étrange renversement s’est produit. Au lieu que l’IA doive copier le cerveau, on s’est mis à considérer que c’est le cerveau humain qui aurait avantage à copier la machine. On compare le fonctionnement de la prétendue machine qu’est le cerveau à celui d’un ordinateur. C’est une mise à l’envers, un véritable tête-à-queue ! Et maintenant les choses vont plus loin… Certains, dans la mouvance transhumaniste, pensent qu’on va améliorer l’intelligence naturelle grâce à des machines, des implants. Et là, il ne s’agit plus de copier la machine, mais de l’intégrer au cerveau biologique pour l’améliorer.
G : L’inversion prométhéenne que vous évoquez est-elle réaliste ?
ALB : Elle est sans doute assez irréaliste. Certes, il y a des parties de l’intelligence humaine qui peuvent être prises en charge par une machine, notamment tout ce qui est mémorisation, accumulation, comparaison. Ce sont de toutes petites parties isolées… mais comme elles peuvent être mieux faites, plus vite et plus efficacement par un ordinateur, on imagine que l’ensemble ira au-delà des capacités du cerveau humain. Cependant, sur un grand nombre de tâches différentes, la machine est en fait beaucoup moins performante que l’homme. Et surtout, elle est moins performante pour réaliser la synthèse, qui est la seule intelligence véritable.
G : Pourriez-vous donner un exemple ?
ALB : Je pense au joueur de go vaincu par l’intelligence artificielle : enfin l’IA avait supplanté l’intelligence humaine ! C’est sans doute vrai… mais on a calculé et comparé la dépense énergétique nécessaire déployée pour une partie de Go entre une machine et un homme. La machine a besoin d’un million de fois plus d’énergie que l’homme, tout simplement parce que sa façon de fonctionner est beaucoup moins économe : la machine a passé au crible toutes les parties possibles et, après les avoir toutes modélisées, elle a choisi la plus favorable. Evidemment, l’homme ne procède pas de la sorte. La « stratégie » de la machine est-elle vraiment plus « intelligente » que celle de l’homme ? En tout cas, en terme énergétique, la machine est beaucoup moins efficace que l’homme qui agit en fonction d’une vraie réflexion stratégique. D’autre part, même si cela paraît complexe à modéliser, le jeu de go ne résume pas toute l’étendue de l’intelligence humaine. On a communiqué bruyamment sur un événement somme toute peu important.
Ce que cet exemple montre, c’est que si on regarde du côté des taches à effectuer, il y en a que la machine fait beaucoup plus vite que l’homme : chercher dans une base de données, par exemple. Mais si on regarde la méthode, l’intelligence des machines est certainement très inférieure à celle de l’homme parce que leur approche est très stéréotypée, reposant juste sur l’accumulation de données. Mais on préfère passer sous silence les limites de ce qui ne ressemble pas du tout à une intelligence pour mettre le projecteur sur les « immenses » réalisations de ces techniques.
G : Dans ce cas, peut-on vraiment parler d’intelligence ?
ALB : Pour la machine, le terme d’intelligence me semble usurpé : on l’utilise pour tout, les objets intelligents, la santé par les objets connectés intelligents… Est-ce que c’est intelligent une machine qui compte vos battements cardiaques quand vous faites un footing ? Accumulation, tri, et stockage de données : une machine fait tout cela mieux que l’homme… Mais l’intelligence est quelque chose de bien plus vaste !
G : On parle d’intelligence artificielle appliquée à la santé. Qu’est-ce que ça signifie ?
ALB : Dans le diagnostic et la thérapeutique médicale, il y a toute une partie qui concerne la consultation de bases de données. Clairement, dans cette partie de son travail le médecin peut utiliser des machines qui donnent accès très rapidement à d’immenses viviers d’informations. C’est une aide au diagnostic humain.
Le problème apparaît si cette recherche dans une base de données remplace toute la subtilité, tout l’art du diagnostic humain. L’IA ne peut être une aide que si on ne se laisse pas complètement déborder.
G : Que voulez-vous dire ?
ALB : Pour devenir un bon médecin, il faut du temps et de l’entrainement – ce qu’on appelle l’expérience. La médecine est essentiellement une question de pratique, elle a sa courbe d’apprentissage : vous êtes mieux soigné par quelqu’un qui a de l’expérience que par quelqu’un qui vient de sortir de ses études, même si le jeune diplômé a beaucoup de connaissances théoriques. Dans l’intelligence humaine, il y a de la théorie et il y a aussi beaucoup de pratique : l’expérience est ce qui, grâce au jeu d’interactions cérébrales très complexes, croise toute sorte d’événements qui nous sont arrivés avec nos connaissances théoriques. C’est ce qui permet, dans la réalité, de débrouiller les problèmes qui nous sont soumis. Aussi, le problème de l’IA se pose donc différemment pour les médecins déjà formés et pour les jeunes en formation.
Pour les médecins déjà formés, l’IA, et notamment l’accès à de grandes bases de données, est un véritable enrichissement. Ils ont déjà une bonne connaissance des pathologies, ils peuvent analyser et critiquer les outils informatiques. Ce sont des vraies aides qui améliorent le service rendu au patient. Attention cependant au risque suivant : en déchargeant systématiquement notre mémoire sur la machine, elle pourrait finir par supplanter la connaissance humaine, qui pourrait ensuite se perdre définitivement.
Chez les jeunes, cette intrusion dans leur formation médicale pourrait les rendre strictement incapables de « marcher sur leurs deux pieds ». Je vais prendre une comparaison dans un autre domaine, celui de l’orthographe : pour quelqu’un qui connait déjà l’orthographe, le correcteur orthographique des traitements de texte est utile, il évite des erreurs d’inattention. En revanche, pour quelqu’un qui n’a jamais appris l’orthographe et qui, d’emblée, utilise un correcteur d’orthographe, la probabilité qu’il sache un jour l’orthographe est très faible. Il y aura même un moment où il ne saura plus écrire du tout.
Si la machine donne la réponse, on ne réfléchit plus. Or, une faculté qui n’est plus sollicitée s’atrophie et devient inutilisable. Devenus dépendants de la machine, nous appauvrissons toute la subtilité du diagnostic. Sur le long terme, la qualité des praticiens est en jeu. Prenons l’exemple de la chirurgie intracrânienne qui est ma spécialité : on peut utiliser la neuro-navigation, une sorte de GPS, pour situer précisément une lésion intracrânienne profonde… Trouver une aiguille dans une botte de foin, si vous voulez. Des chirurgiens déjà formés à l’anatomie peuvent utiliser ce système pour compléter leurs connaissances de l’anatomie. En revanche, des jeunes qui ne connaissent pas suffisamment l’anatomie et qui s’en remettent entièrement à la neuronavigation pour trouver telle ou telle lésion intracrânienne ne font aucun progrès dans le domaine. De plus, ils deviennent complètement dépendants de la machine. Le jour où elle fait une erreur, même grossière (parce que les machines font des erreurs, elles tombent en panne, et même souvent !), ils ne peuvent rien corriger. Ils seraient même capables d’opérer à droite alors que la tumeur est à gauche, parce que la machine a eu un « bug » ! Une grande partie de la qualité et de l’art du chirurgien s’acquiert progressivement en faisant réellement fonctionner sa réflexion propre, pas en la déléguant à une machine. Les outils informatiques sont utiles à court terme, mais à double tranchant sur le long terme, parce qu’ils menacent certaines capacités éminemment intellectuelles. La première qualité perdue sera la mémoire : par la délégation continuelle de l’effort mnésique, on perd tout simplement la faculté de mémorisation. Tôt ou tard, on n’a même plus l’idée de chercher telle ou telle info. Bien sûr qu’en tapant trois mots sur Google il est aisé de retrouver le poème qu’on recherche, il est même possible d’accéder à tout le corpus poétique mondial. Mais pour avoir l’idée d’aller le chercher, il faut bien l’avoir appris un jour ! Pour la médecine, c’est la même chose : si vous n’avez jamais fait l’effort d’acquérir une connaissance, vous n’aurez pas l’idée d’aller la chercher.
G : Et du côté du patient ?
ALB : Si on continue à s’en remettre à l’IA, il ne s’agira plus que d’entrer des données dans une machine pour obtenir une « bonne » décision vis-à-vis du patient. Certes on y adjoindra des données de plus en plus nombreuses. On pourra même associer aux critères objectifs des critères prétendument subjectifs, psychologiques ou sociaux. Par exemple, le fait que la personne soit seule ou bien insérée… Mais ce ne sera jamais suffisant pour égaler, voire remplacer, la sagesse d’une décision humaine mûrement méditée. On pourrait même arriver à des décisions complètement déconnectées de la subtilité d’une existence humaine ; dans mon exemple, la machine pourrait pousser à euthanasier telle personne isolée parce que plus personne ne l’aime ni ne compte sur elle ! Le terme d’intelligence me semble, encore une fois, très usurpé.
G : Une fois le diagnostic posé, l’IA a-t-elle encore un rôle ?
ALB : Après le diagnostic et le pronostic, survient la phase thérapeutique, c’est-à-dire un protocole de soins. Or si la machine produit automatiquement le diagnostic et le pronostic, comment croire qu’on s’en remettra ensuite à la sagesse du praticien pour prendre la bonne décision thérapeutique ? Entre deux spécialistes qui ne sont pas d’accord, la discussion est possible. Avec la machine, ce n’est pas le cas, surtout dans un monde habité par le principe de précaution et la crainte du procès. La machine décharge la responsabilité humaine ou plutôt la contraint de manière obligatoire. Dans certains films de science-fiction, la machine décide que vous êtes décédé et pour tout le monde, vous l’êtes ! Et vous devez prouver que vous ne l’êtes pas ! Vous êtes mort parce que la machine l’a dit. En médecine, s’il est écrit quelque part que la machine avait préconisé un acte et que vous avez fait autrement, vous ouvrez la porte vers le tribunal. Peu de gens auront le courage de faire primer leur propre décision, même s’ils ont de bonnes raisons de penser que cela donne plus de chance à leur patient. La machine s’impose absolument et son utilisation s’accompagne d’une dévalorisation grave de l’homme : c’est quelque chose qui restreint notre liberté sous prétexte de nous aider. Cette « aide » nous met en servitude.
Certes les médecins peuvent faire des erreurs, mais le patient est toujours libre de demander un second avis médical ; il peut aussi sentir si le traitement lui convient ou non, donner son interprétation. Toute cette liberté de choix est détruite par l’IA qui prétend atteindre le summum de la rationalité. Un médecin peut dire intuitivement qu’il « ne sent pas » telle décision, il peut se remettre en question. Quand un médecin déraille, ça peut se voir et on peut résister, quand c’est la machine, on se sent obligé de la suivre quand même. La machine impose rigoureusement ses conclusions sans plus aucune correction possible de ses éventuelles erreurs. De nombreux paramètres de décision vont de facto être gommés.
G : Quel type de paramètres ?
ALB : Par exemple, un patient peut avoir peur d’une intervention ou ne pas vouloir la faire ; pourtant, ça n’entrera pas dans l’algorithme. Il est normal d’avoir des désirs propres quant à sa santé personnelle : comment la machine pourrait-elle les prendre compte, elle qui travaille de façon statistique, donc impersonnelle ? L’intelligence artificielle n’est pas une intelligence mais elle va mettre en veille l’intelligence humaine et sa subtilité. L’appauvrissement de la relation soignante est le terme de cette mise en tutelle du patient et du soignant.