Intelligence artificielle : une réunion au sommet, sans consensus
Cette semaine le « Sommet pour l’action sur l’intelligence artificielle » (IA) s’est tenu à Paris. Le 11 février, à l’issue du sommet, 58 pays [1] ont signé une déclaration sur une IA « ouverte », « inclusive » et « éthique ». Toutefois les Etats-Unis et le Royaume-Uni ne figurent pas parmi les signataires de cette déclaration non engageante.
Créer un « dialogue mondial » ?
Les pays signataires se sont prononcés pour une « coordination renforcée » de la gouvernance de l’IA. Pour cela, il est nécessaire de créer un « dialogue mondial » et d’éviter « une concentration du marché » afin de rendre cette technologie plus accessible. « Rendre l’intelligence artificielle durable pour les populations et la planète » figure également comme l’une des priorités. Pour cela, la création d’un « observatoire de l’impact énergétique » de l’IA a été officialisé lors du Sommet. Il sera piloté par l’Agence internationale de l’énergie.
« Nous posons là les bases, à côté de l’innovation et de l’accélération, de ce qui va permettre à l’IA d’advenir et de tenir, c’est-à-dire les clés de la confiance » affirme Emmanuel Macron.
Tester avant de réglementer ?
Néanmoins, l’absence de deux grands pays témoigne des divisions que ce sujet soulève. Le vice-président américain J.D. Vance craint une « régulation excessive » qui « pourrait tuer une industrie en plein essor ».
De son côté, un porte-parole du Premier ministre du Royaume-Uni Keir Starmer rappelle : « Nous n’adhérons qu’à des initiatives qui sont dans l’intérêt national du Royaume-Uni », indiquant s’engager à faire du Royaume-Uni un « leader mondial » de l’IA. Pour cela, il a annoncé un plan d’action visant à attirer les entreprises du secteur en leur laissant tester dans le pays leurs innovations avant toute régulation : « Nous allons suivre notre propre voie : tester et comprendre l’IA avant de la réglementer, afin de nous assurer que lorsque nous le ferons, ce sera de manière proportionnée et sur la base de données scientifiques ».
Les Français « restent un de nos plus proches partenaires dans tous les domaines de l’IA », assure le porte-parole britannique. « Nous n’avons pas pu nous mettre d’accord sur toutes les parties de la déclaration mais nous allons continuer à travailler avec la France sur d’autres initiatives », promet-il.
Distinguer progrès et innovation
De son côté, le député européen David Cormand s’inquiète que l’IA devienne un « outil de domination au service des plus puissants, multinationales ou Etats ». Il appelle à distinguer le progrès de l’innovation, à l’instar du pape François (cf. IA : le Vatican appelle à ne pas « brouiller la frontière entre ce qui est humain et artificiel »). « Dans cette ruée vers l’IA, les gouvernements sont tentés de sacrifier la régulation légitime d’une innovation conçue pour le bénéfice d’une poignée d’acteurs économiques, au nom d’une quête de « compétitivité » aveugle et dénuée de sens ».
Le 29 janvier, le dernier rapport international sur la sécurité des systèmes d’IA a mis en lumière trois types de risques à prendre en compte dans l’utilisation de l’intelligence artificielle : les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie. Rédigé par une centaine d’experts de 30 pays et faisant référence à plus de 1360 publications scientifiques, sa conclusion est qu’en matière de sécurité des systèmes d’intelligence artificielle, « le futur est incertain ». Mais « l’IA n’est pas une fatalité. Les choix des citoyens détermineront son avenir ».
[1] Dans la première liste publiée par l’Elysée, la Suède figurait deux fois. Le Monténégro a finalement été retiré des signataires.
Sources : AFP (12/02/2025) ; The Epoch Times (11/02/2025) ; La Croix, David Cormand (11/02/2025) ; Le Monde, David Larousserie (11/02/2025)