IA : l'avènement de la société de la simulation ?
« L’anthropomorphisme des machines-automates à travers le langage a débuté par l’expression trompeuse « intelligence artificielle » », pointe Roxana Ologeanu-Taddei. Titulaire d’un doctorat en sciences de l’information et de la communication ainsi que d’une Habilitation à diriger des recherches, elle est actuellement maitre de conférences en management des systèmes d’information à l’Université de Montpellier. Dans l’ouvrage Intelligence artificielle et anthropomorphisme – De l’illusion à la confusion publié aux Presses des Mines, un essai ramassé et très accessible, la chercheuse examine cette anthropomorphisation des IA et toute la confusion qu’elle génère. Entretien.
Gènéthique : L’intelligence artificielle et notamment les IA génératives ont connu un déploiement fulgurant. Comment l’expliquer ?
Roxana Ologeanu-Taddei : Il faut d’abord distinguer entre l’adoption individuelle et l’adoption par les organisations. Ce qui distingue l’intelligence artificielle générative (IAG) d’autres technologies adoptées par des organisations (notamment des entreprises) c’est qu’elle joue sur les deux tableaux : entreprises et individus. Lorsqu’elle cible les individus (le grand public), il s’agit d’une « consumer IT », une technologie pour la consommation – à l’instar des applications grand public comme Whatsapp ou du smartphone. C’est surtout cette adoption individuelle qui a été très rapide, alors que l’adoption par les entreprises est plus mitigée, pour plusieurs raisons.
Concernant le niveau individuel, l’IAG a bénéficié d’une campagne marketing utilisant la rhétorique de la science-fiction, comme j’essaye de l’expliquer dans mon livre. Elle a aussi bénéficié d’une grande couverture médiatique – la presse traditionnelle reprenant aussi cet imaginaire, pour capter l’attention. Par ailleurs, l’IAG est une technologie gratuite pour le grand public, et d’une facilité d’usage inégalable par d’autres technologies. Il n’y a donc aucun coût d’entrée, et aucun apprentissage nécessaire (en théorie). Enfin, une autre raison est liée à l’efficacité des résultats pour des réponses à des questions simples (synthèses, création de contenu) ainsi que le caractère ludique de plusieurs interactions avec l’IAG. 65% des utilisateurs déclarent utiliser l’IAG par curiosité et pour le loisir (entertainment)[1].
Dans le monde professionnel, beaucoup d’utilisateurs déclarent utiliser l’IAG pour augmenter la productivité, mais cela peut être un « piège » et créer une illusion d’efficacité, comme le montre un rapport de Deloitte pour le gouvernement australien, truffé d’erreurs liés à l’utilisation trop importante (sans vérification) de l’IAG[2].
G : « L’anthropomorphisme des machines-automates à travers le langage a débuté par l’expression trompeuse « intelligence artificielle » ». Quelles sont les conséquences de cette anthropomorphisation que vous dénoncez ?
ROT : Il y en a plusieurs. Premièrement, il y a risque de manipulation, d’addiction et d’effets délétères sur la santé mentale surtout des publics vulnérables, comme cela a été mis en lumière par le suicide d’un adolescent américain après des interactions manipulatrices avec une application anthropomorphisante basée sur l’IAG (cf. « Les contentieux vont exploser » : des suicides d’adolescents ouvrent un débat vertigineux sur la responsabilité de l’IA). Deuxièmement, il y a le risque de déresponsabilisation dans la prise de décision. Troisièmement, l’« anesthésie » de l’esprit critique, ce qui amène à accepter, en tant que citoyen, des investissements inédits dans l’IA, sans débat citoyen, alors que ces investissements seraient probablement plus utiles dans d’autres secteurs (par exemple, la santé, la justice sociale, et surtout l’amélioration de notre impact environnemental). Quatrièmement, l’IA dont l’IAG est responsable de l’augmentation exponentielle de l’impact environnemental du numérique, à travers les centres de données qui sont actuellement construits partout dans le monde sur de grands espaces (souvent au détriment de la nature) ; ces centres de données sont énergivores et consommateurs d’une grande quantité d’eau. Enfin, il y a un risque social très important : l’usage de l’IAG pour la désinformation et la création de textes, et surtout de fausses vidéos (« deeptech ») dont le réalisme augmente ; en peu de temps, ce ne sera plus possible de distinguer le faux du vrai.
A mon sens, la destruction de la vérité et de la confiance peut entrainer la destruction de nos sociétés actuelles. Nous serions obligés de choisir quel camp croire, sans pouvoir nous reporter à aucune source, à aucun fait. Ce serait l’avènement de la société de la simulation dont Jean Baudrillard a parlé.
G : Illusion du sens, illusion de l’intentionnalité, illusion de l’émotion, voire de la conscience : comment expliquer que nous soyons si réceptifs à ces mystifications ?
ROT : Je pense que nous aimons les histoires. L’« artillerie » narrative autour de l’IAG est très efficace : elle mêle science et science-fiction, et reprend des schémas prophétiques, transmis par des nouveaux gourous, qui sont les leaders milliardaires de la « tech » et influenceurs sur les réseaux sociaux. Il y a un scénario hollywoodien dans ces schémas. Par ailleurs, le fait de mimer l’interaction et la facilité de « parler » avec l’IAG trompent notre cerveau, qui a tendance à considérer l’objet avec lequel il pense interagir comme étant un « pair ».
G : Assiste-t-on à un bouleversement anthropologique ? Est-il inéluctable ?
ROT : Oui, c’est un bouleversement. Mais pas inéluctable ! Justement, l’imaginaire de l’IAG (avec tous les éléments de langage sur la superintelligence, l’intelligence artificielle générale etc.) vise à le légitimer et le rendre inévitable. On entend souvent : « c’est trop tard », ou « on ne peut pas arrêter le progrès » ou encore « les chevaux sont lâchés ». Mais laisse-t-on un cheval courir où il veut ? Il lui faut un cavalier.
Et c’est là où nous avons un véritable problème : la rhétorique des entreprises et des fans de l’IAG fait tout pour légitimer le cheval sans cavalier. Car pour ces entreprises, le cavalier est une contrainte : cela signifie un cadre politique, éthique et légal. Il me semble urgent de mettre l’IAG et son fonctionnement au centre du débat social.
[1] Generative AI Adoption The Report, 2025
[2] The Guardian, Krishani Dhanji, Deloitte to pay money back to Albanese government after using AI in $440,000 report (06/10/2025)