L’OMS appelle l’Europe à renforcer ses garde-fous face à la progression de l’IA en santé
Juridiquement, l’encadrement des outils d’intelligence artificielle (IA) n’avance pas aussi rapidement que leur utilisation dans le domaine de la santé. L’OMS a ainsi estimé dans un rapport qu’en l’état actuel des choses, les patients et les soignants ne sont pas assez protégés.
Une utilisation qui comporte des risques
« Soit l’IA sera utilisée pour améliorer la santé et le bien-être des personnes, réduire la charge qui pèse sur nos professionnels de santé, soit elle pourrait nuire à la sécurité des patients, compromettre la vie privée et renforcer les inégalités en matière de soins » met en garde dans un communiqué Natasha Azzopardi-Muscat, directrice des systèmes de santé à l’OMS Europe. Le rapport publié par l’OMS fait suite aux réponses de 50 des 53 pays membres de la région Europe, comprenant des pays d’Asie centrale.
Près des deux tiers des Etats membres utilisent l’IA pour le diagnostic assisté, via l’imagerie et la détection. L’utilisation de l’IA s’observe également via les robots conversationnels supposés aider les patients : la moitié des Etats membres déclarent les avoir intégrés dans leurs soins. Mais cela ne va pas sans risque. L’OMS parle ainsi de résultats biaisés ou de mauvaise qualité, d’une baisse de compétence des cliniciens, d’une réduction des interactions entre praticiens et patients ou encore de résultats inéquitables pour les populations marginalisées. Pourtant, une minorité de pays a adopté une stratégie nationale.
« Sans normes juridiques claires, les professionnels peuvent hésiter à se fier aux outils d’IA et les patients peuvent ne disposer d’aucun recours clair en cas de problème »
En effet, la règlementation ne va pas aussi vite que la progression des outils d’IA. David Novillo Ortiz, conseiller en matière de données, d’intelligence artificielle et de santé numérique à l’OMS, pointe que « sans normes juridiques claires, les professionnels peuvent hésiter à se fier aux outils d’IA et les patients peuvent ne disposer d’aucun recours clair en cas de problème ». C’est pourquoi l’OMS Europe demande aux pays membres plus de clarté en ce qui concerne la responsabilité mais aussi la création de systèmes d’indemnisation (cf. Développement de l’intelligence artificielle : « la santé sert de prétexte »). Il leur est également demandé de s’assurer que les outils IA « sont testés en termes de sécurité, d’équité et d’efficacité » avant d’être mis en place.
Notons qu’un projet de loi français a été présenté le 10 novembre dernier en Conseil des ministres ayant pour but de transposer des dizaines de règlementations européennes, dont le Data Act. Celui-ci concerne notamment les producteurs de dispositifs médicaux et hébergeurs de données de santé.
Sources de la synthèse de presse : Numerikare, Belga (19/11/2025) ; Le Figaro avec AFP (19/11/2025) ; Hospimedia, Manuel Magrez (18/11/2025)