Santé, performance, « bien-être » : face au développement des neurotechnologies, l’urgence d’une prise de conscience

Publié le 9 avril 2026
Santé, performance, « bien-être » : face au développement des neurotechnologies, l’urgence d’une prise de conscience
© iStock

« Le CCNE et le CCNEN rappellent que le développement des neurotechnologies numériques doit s’inscrire dans le respect des principes fondamentaux de la bioéthique et de l’éthique du numérique, afin de garantir que l’innovation contribue au progrès médical et scientifique tout en préservant les droits, les libertés et l’intégrité de la personne humaine. »[1] Le 7 avril, le comité consultatif national d’éthique (CCNE) publiait, conjointement avec le Comité consultatif national d’éthique du numérique (CCNEN), son avis 150 (respectivement avis 10) intitulé : « Interfaces cerveau-machine et autres neurotechnologies numériques : questions d’éthique »[2]. Un avis centré sur « les résultats avérés et les applications disponibles, proposées ou envisageables à court ou moyen terme ».

Alors que « la communication dans ce domaine peut faire naître des espoirs et donner une impression d’innocuité », en réalité les bénéfices supposés et les risques potentiels des neurotechnologies sont « incertains » et les conséquences individuelles et collectives « très mal connues ». Appelant à la plus grande prudence en la matière.

Des applications bien au-delà du domaine médical

Les neurotechnologies numériques[3] permettent « de mesurer, d’analyser et de moduler l’activité du système nerveux »[4]. Outre des applications médicales, certaines entreprises affichent des ambitions bien au-delà. Ainsi le site de Neuralink affirme : « Notre mission : créer une interface généralisée avec le cerveau pour restaurer l’autonomie de ceux qui ont des besoins médicaux insatisfaits aujourd’hui et pour libérer le potentiel humain demain » (cf. Un premier implant Neuralink chez l’homme, le « spectre d’un nouvel esclavage » ?).

Sans aller jusqu’à des velléités transhumanistes, « des applications professionnelles de neurotechnologies numériques sont proposées et leur mise en œuvre semble avoir débuté dans certains pays ». « L’intérêt pour de telles approches concerne en particulier les professions dans lesquelles le niveau de vigilance et d’attention est important et où les conséquences d’erreurs peuvent être graves (pilotes d’avion, conducteurs de véhicules ou d’engins, utilisateurs de machines dangereuses, chirurgiens, etc.) », explique l’avis. Dès lors, « les interfaces cerveau-machine proposées peuvent avoir comme objectif de détecter des états cognitifs globaux indésirés (surcharge cognitive, altération de l’attention, endormissement…) et d’y remédier soit en générant des signaux d’alarme appropriés, soit en modifiant ou en interrompant la tâche en cours ».

Mais « plus largement, l’inclusion de neurotechnologies dans divers dispositifs est déjà en cours et suscite un intérêt commercial de la part des développeurs et des industriels ». « Il s’agit de dispositifs non-invasifs « légers » (casques, bandeaux, lunettes, oreillettes…) conçus pour la vie quotidienne ou les loisirs, dans des buts pratiques, ludiques ou récréatifs », détaille l’avis. « De tels dispositifs sont envisagés ou annoncés, par exemple, pour faciliter l’utilisation d’ordinateurs, en cherchant à remplacer l’usage manuel du clavier ou de la souris par la détection de signaux cérébraux qui seraient directement transmis à la machine. » Et le « marché potentiel » dans le secteur des jeux vidéo aiguise depuis longtemps les appétits. Enfin, certaines applications visent à procurer des effets de « bien-être »[5].

Une prise de conscience essentielle

Les neurotechnologies, dont le bénéfice – hors indications médicales – est « au mieux, très incertain », mettent en jeu « la dignité humaine, l’autonomie, la liberté de pensée et le respect de la vie privée, ainsi que le respect de la diversité et de l’équité, la non-discrimination et l’inclusion », avertissent les deux comités d’éthique (cf. Neurotechnologies : une vigilance éthique s’impose pour préserver la liberté de penser ; Interfaces cerveau-ordinateur : une menace pour notre vie privée ?).

Ces questions éthiques « sont en rapport avec les possibilités de modification des émotions, de l’identité et de l’agentivité humaines qui sont au cœur de ce qui constitue la personne ». « Elles comprennent également des questions importantes concernant le caractère privé des données neurales, les multiples possibilités de biais dans leur usage ou leur interprétation, et les interrogations liées à leur utilisation dans une vision d’augmentation des capacités humaines », poursuit l’avis. Ainsi, « la thématique globale qui regroupe ces diverses interrogations est celle du respect de l’autonomie humaine et du principe de non-manipulation, a fortiori de non-manipulation subliminale ».

Un risque en particulier pour les jeunes

Le CCNE et le CCNEN alertent : « Le cerveau est un organe fragile dont le fonctionnement et les dysfonctionnements restent très mal compris, et ce malgré les progrès considérables déjà accomplis. Une extrême prudence doit donc s’appliquer aux approches visant à modifier son fonctionnement ». En outre, le cerveau possédant « une grande plasticité », « les effets à long terme de toute manipulation extérieure sont largement imprévisibles et difficiles à évaluer ».

« Il est important que le grand public prenne conscience des enjeux du développement des neurotechnologies numériques », insistent les comités d’éthique. En particulier pour les jeunes. « La plasticité et la fragilité considérables du système nerveux en développement doivent conduire à protéger particulièrement les sujets jeunes, enfants ou adolescents, des effets délétères potentiels des neurotechnologies numériques, qu’ils soient directs ou indirects, à court ou à long terme ».

Un avertissement d’autant plus nécessaire que les effets des smartphones, réseaux sociaux ou systèmes d’intelligence artificielle générative sur la santé physique et psychologique des jeunes n’ont pas été anticipés. « La prudence incite donc, en l’absence de données expérimentales fiables, à appliquer des restrictions d’usage aux mineurs. »[6] « En dehors de la recherche ou d’indications médicales », l’utilisation des neurotechnologies numériques chez les enfants et adolescents, « y compris dans le cadre éducatif et les loisirs », devrait être interdite.

Des usages qui pourraient « accentuer des formes de pression sociale »

L’avis souligne : « Hors cadre médical, les dispositifs de neurotechnologies numériques pourraient être perçus comme nécessaires à la performance ou au bien-être ». Leur généralisation éventuelle pourrait dès lors « accentuer des formes de pression sociale ». En effet, « dans certains environnements, professionnels ou non, les interfaces cerveau-machine pourraient devenir des outils attendus pour « optimiser » les capacités, engendrant des inégalités, voire des phénomènes de discrimination ou d’exclusion, entre ceux qui y accèdent et ceux qui les refusent ou ne les tolèrent pas ».

« Il faut souligner que des effets de mode peuvent suffire à engendrer de fortes pressions sociales même si l’efficacité réelle des technologies est faible ou nulle », pointent le CCNE et le CCNEN. « La possible banalisation des neurotechnologies numériques appelle à une vigilance impliquant chercheurs, décideurs publics, utilisateurs, et la société dans son ensemble », interpellent-ils.

Faire évoluer le droit ?

« Les avancées rapides des neurotechnologies soulèvent des interrogations quant à la capacité des droits humains actuels à protéger l’intégrité mentale des individus », relève l’avis. Ce qui a conduit à l’idée de créer de nouveaux droits spécifiques, des « neurodroits » (cf. Neurotechnologies : l’urgence d’instaurer des « neurodroits » ; Le Chili veut garantir les droits du cerveau).

Mais cette possibilité a rencontré des « réticences » relatives au « risque de frein au progrès médical » ou « d’affaiblissement des protections juridiques existantes ».

« La réflexion collective doit s’engager autour d’un objectif commun, interpellent les deux comités d’éthique : garantir que les avancées neurotechnologiques se développent dans un cadre respectueux de la dignité, de la liberté et de l’autonomie de la personne humaine en mobilisant à la fois le corpus juridique existant et, le cas échéant, de nouveaux outils, si ceux-ci se révélaient indispensables. »

Un ensemble de recommandations

Les deux comités d’éthique proposent un ensemble de recommandations visant à encadrer le développement des neurotechnologies, en commençant par préconiser une « réévaluation régulière » « au regard des évolutions rapides du domaine » (cf. Patrick Hetzel : « Les neurotechnologies doivent, d’abord et avant tout, servir à guérir et à réparer »).

Le CCNE et le CCNEN appellent à informer les professionnels concernés, les patients, comme le grand public et à « considérer toutes les données neurales comme des données à caractère personnel sensibles, et potentiellement directement identifiantes ». Ils préconisent en outre la mise en place de dispositifs de cybersécurité et de processus de consentement adaptés aux différents contextes.

Les deux comités recommandent par ailleurs d’interdire l’utilisation de données neurales pour « le ciblage à visée commerciale et plus généralement, pour l’alimentation d’algorithmes de recommandation quels qu’en soient les objectifs ». Les usages médicaux doivent être restreints à « des indications clairement définies, répondant à des besoins reconnus par le consensus scientifique et validés par la Haute Autorité de Santé ». Il est également nécessaire de « développer des procédures pour aider les patients porteurs d’un dispositif neurotechnologique à faire face à la cessation d’activité d’un fournisseur ou à d’autres aléas ayant des conséquences sur la continuité du traitement » (cf. Etre humain réparé, fragilité augmentée ?).

Une porte ouverte aux usages professionnels et de « bien-être »

« Même si la distinction entre « normal » et « pathologique », ou entre « soin » et « augmentation » peut soulever des questions », en l’absence de justification médicale « même la demande insistante éventuelle de personnes « saines » » ne saurait en aucun cas justifier la mise en place de dispositifs invasifs, souligne l’avis. Et « tout dispositif non-invasif de modulation ou de stimulation physique directe de l’activité cérébrale » doit être considéré au nombre des dispositifs médicaux.

Les deux comités ne rejettent pas les usages en milieu professionnel mais préconisent de « consulter les instances représentatives du personnel au sujet de l’utilisation de données neurales à des fins d’observation et de suivi des employés sur le lieu de travail », de « réaliser des expérimentations préalables et des études d’impact, et comparer avec d’autres solutions possibles ». En revanche « l’usage de données neurales pour l’embauche, l’évaluation, la promotion, la sanction ou le licenciement d’employés » devrait être considéré comme « discriminatoire ».

Les instances préconisent en outre d’interdire « les dispositifs fondés sur l’induction de réponses numériques à partir d’enregistrements d’activité cérébrale dans le contexte des jeux de hasard, de paris avec enjeux monétaires, d’achats, d’enchères à distance, de gestion de flux financiers, et plus généralement pour toute activité de prise de décision ayant des conséquences financières pour l’utilisateur ». « La mise sur le marché des dispositifs de neurotechnologie numérique susceptibles d’influencer le comportement ou le jugement de la personne concernée » pourrait par contre, selon le CCNE et le CCNEN, être simplement « réglementée » et « encadrée strictement ».

« Le développement des neurotechnologies numériques nécessite un cadre éthique à la hauteur de leurs promesses comme de leurs risques. L’innovation doit demeurer au service de la personne humaine », plaide Claude Kirchner, président du CCNEN. En envisageant dès aujourd’hui des usages professionnels et même de « bien-être », le « cadre éthique » pourrait pourtant se modeler bien plus sur les promesses que sur les risques. Et devenir illusoire.

[1] Communiqué de presse (07/04/2026)

[2] Interfaces cerveau-machine et autres neurotechnologies numériques : questions d’éthique. Avis commun du CCNE et CCNEN, Avis 150 du CCNE, Avis 10 du CCNEN. Février 2026.

[3] « Certaines neurotechnologies nécessitent l’implantation de matériel et sont dites invasives, de même que les méthodes qui induisent des lésions intracérébrales sans ouverture de la peau. Les autres méthodes sont dites non-invasives. La quasi-totalité des neurotechnologies utilise des technologies du numérique, dont des techniques d’intelligence artificielle. »

[4] Les interfaces cerveau-machine génèrent la réponse d’une machine à partir de l’activité cérébrale

[5] « En combinant des casques d’électroencéphalographie (EEG) de faible coût, des capteurs physiologiques variés, et des applications sur téléphone portable, un nombre croissant d’entreprises proposent des systèmes de neurofeedback, de « brain training » ou d’« optimisation attentionnelle » censés améliorer la concentration ou le sommeil, favoriser la relaxation, ou stimuler la créativité. Ces dispositifs sont souvent présentés comme des outils accessibles, personnalisés, et scientifiquement fondés, alors que leurs fondements empiriques restent très hétérogènes et habituellement non évalués scientifiquement »

[6] « Il faut souligner qu’aucune donnée ne permet actuellement de fixer une limite d’âge au-dessus de laquelle les risques seraient plus faibles, sachant que le développement cérébral est un processus long sans étape finale clairement identifiée »