Utilisées pour un diagnostic médical, l’IA générative est dangereuse pour le grand public

Publié le 18 février 2026
Utilisées pour un diagnostic médical, l’IA générative est dangereuse pour le grand public
© iStock

Un nombre grandissant d’utilisateurs font appel à des IA conversationnelles comme ChatGPT pour obtenir un avis médical. En France, 34 % de la population déclare avoir déjà interrogé une intelligence artificielle sur leur santé. Parmi ces Français, 60 % affirment avoir suivi ses recommandations[1] (cf. Santé : les Français (trop) confiants dans l’intelligence artificielle ?). Dans quelle mesure peut-on faire confiance à l’IA pour un diagnostic, voire une recommandation de traitement ? Une étude de l’université d’Oxford publiée dans Nature Medicine met en garde contre le manque de fiabilité des outils comme ChatGPT dans le domaine de la santé lorsqu’ils sont utilisés par le grand public[2] (Cf. Etats-Unis : une IA autorisée à renouveler des prescriptions médicales).

Des faux patients testent l’IA en comparaison avec des sites d’information médicale

Les IA génératives sont en mesure de « réussir » les examens de médecine, mais cette capacité n’implique pas forcément qu’elles seraient efficaces face à des patients réels. Pour le mesurer, les chercheurs de l’université d’Oxford ont demandé à près de 1.300 participants de suivre un scénario où ils doivent communiquer divers symptômes à l’IA. L’outil est évalué sur sa capacité de diagnostic mais aussi de recommandation d’un protocole de soin. Un premier groupe de participants avait recours à GPT-4o, Llama 3 (Meta) ou Command R+ (de l’entreprise Cohere), tandis qu’un groupe témoin utilisaient leurs ressources en ligne habituelles, notamment le site du NHS[3].

L’IA se révèle peu efficace pour le grand public

Les utilisateurs d’IA n’auraient reçu un diagnostic correct que dans 37 % des cas environ. Toujours selon l’étude, lorsqu’ils avaient recours aux méthodes de recherche en ligne auxquelles ils sont habitués, ce chiffre était de 45 %. La plupart « utilisaient un moteur de recherche (…) ou consultaient directement des sites de confiance, comme celui du NHS » (cf. L’OMS appelle l’Europe à renforcer ses garde-fous face à la progression de l’IA en santé). Philipp Kellmeyer, professeur spécialiste en « IA responsable » et santé numérique à l’université de Mannheim en Allemagne, apporte une précision : l’étude ne montre pas que « l’aide aux patients par IA (serait) impossible ». En effet des IA sont « entraînées spécifiquement pour établir des diagnostics, comme Infermedica ». L’enjeu est donc d’informer le grand public sur les risques que représentent les IA facilement accessibles quand il est question de leur santé (cf. ChatGPT Santé : un « conseiller santé personnalisé » qui absorbe les données des utilisateurs).

Les IA considèrent différemment les écrits de professionnels de santé

Par ailleurs, selon l’étude, l’IA serait considérablement plus fiable lorsque la liste des symptômes cliniques qu’on lui soumet est rédigée par les médecins. Dans ce cas, l’agent conversationnel posait un diagnostic correct dans environ 91 % des cas pour Command R+, dans 95 % des cas pour ChatGPT et le score atteignait même les 99 % pour LLama 3.

L’IA serait-elle influencée par la façon de s’exprimer de son utilisateur ? C’est ce qu’a montré une étude de l’Icahn School of Medicine de Mount Sinai dans la ville de New York[4]. Les chercheurs se sont demandé si une IA pouvait détecter une information médicale erronée. Ils lui ont soumis des informations médicales véridiques ainsi que des légendes urbaines collectées sur Reddit. Certains de ces scénarios étaient rédigés dans le style habituel des professionnels de santé, d’autres avec l’emphase caractéristique des publications sur les réseaux sociaux. Le résultat de l’étude est frappant : peu importe la véracité de ce qui est avancé, l’IA jugera fiable un énoncé qui évoque le style et l’assurance d’un médecin.

L’utilisation de l’IA par le grand public met la santé en danger

L’Association médicale canadienne exprime de vives inquiétudes à ce sujet, notamment après avoir effectué un sondage qui révèle que près de neuf Canadiens sur dix cherchent des informations en ligne concernant leur santé et un quart d’entre eux considère l’IA comme fiable[5]. Cette étude montre également que les Canadiens ayant suivi des conseils de santé provenant d’outils d’intelligence artificielle étaient cinq fois plus susceptibles de mettre leur santé en danger.

Le médecin de famille Jean-Joseph Condé, porte-parole de l’AMC, rapporte l’exemple d’un patient diabétique qui a arrêté ses traitements car il avait lu sur internet qu’il existait un produit naturel tout aussi efficace. D’après le médecin, le danger réside dans l’impossibilité de vérifier les sources utilisées par des outils comme ChatGPT.

Le problème de fond : le manque d’accès aux soins médicaux

Au-delà de la question de la fiabilité de l’outil, il faut poser la question de l’accès aux soins. Parmi les personnes interrogées qui ont recours à l’IA pour leur santé, 57% déclarent se tourner vers l’outil par manque d’accès à un service hospitalier ou cabinet médical (cf. Kenya : vendre des données de santé en échange d’un rendez-vous médical). « Faute d’options, les gens se tournent vers des sources douteuses », explique le Dr Margot Burnell, présidente de l’AMC ; « Depuis des années, nous tentons de sonner l’alarme sur le fait que trop de personnes, au Canada, peinent à accéder aux soins de santé au moment où elles en ont besoin ».[6]

[1] Odoxa, enquête sur le recours des Français aux IA génératives en santé, réalisée pour le média médical What’s Up Doc?, publiée en 2025

[2] Bean, A.M., Payne, R.E., Parsons, G. et al. Reliability of LLMs as medical assistants for the general public: a randomized preregistered study. Nat Med (2026). https://doi.org/10.1038/s41591-025-04074-y

[3] National Health Service

[4] Mapping LLM Susceptibility to Medical Misinformation Across Clinical Notes and Social Media, The Lancet Digital Health (2026). DOI: 10.1016/j.landig.2025.100949

[5] Étude de suivi de l’AMC sur la santé et les médias 2026

[6] Communiqué de presse de l’AMC, Les médecins s’inquiètent des répercussions négatives de l’IA sur la santé de la population (10/02/2026)

Sources de la synthèse de presse : Le Monde, Nicolas Six (09/02/2026) ; Medical Xpress, Mount Sinai Hospital (09/02/2026) ; 24h.ca, Mina Collin (10/02/2026)