Intelligence artificielle : des résultats moins performants que les humains en justice pénale

Publié le 20 Juin, 2024

Dans un document de travail[1] publié sur le serveur arXiv preprint, des chercheurs de l’université de Harvard dirigés par Kosuke Imai et Jim Greiner, ont démontré que l’intelligence artificielle (IA) ne parvient pas à améliorer l’exactitude des décisions judiciaires et qu’elle est moins performante que les humains.

Alors que de nombreux scientifiques se sont intéressés à la question de l’IA, « ce qu’ils n’ont pas vraiment examiné, c’est la manière dont l’utilisation de l’IA influence la décision humaine » explique Kosuke Imai, professeur d’administration publique et de statistiques. En effet, même si différents secteurs comme la justice pénale, la médecine et le monde des affaires utilisent l’IA, ce sont généralement les hommes qui prennent les décisions finales.

Dans cette étude, les chercheurs ont comparé les décisions de mise en liberté sous caution prises par un juge du Wisconsin sur une période de 30 mois, entre le milieu de l’année 2017 et la fin de l’année 2019, avec les recommandations générées par un système d’intelligence artificielle. L’IA s’intéressait avant tout à l’âge, ainsi qu’à neuf facteurs liés à leur éventuel passé criminel.

Les résultats de cette analyse ont démontré que l’IA seule était moins performante que le juge pour prédire les récidives. De plus, dans un peu plus de 30% des cas, le juge est allé à l’encontre des recommandations de l’IA.

Ces résultats ont surpris Jim Greiner, professeur de droit public à la Harvard Law School. « Compte tenu des preuves que nous avons citées, à savoir que les algorithmes peuvent parfois être plus performants que les décisions humaines, il semble que cet algorithme ait été réglé pour être trop dur. Il prédisait que les personnes arrêtées se comporteraient mal, qu’elles le feraient trop souvent et, par conséquent, il recommandait des mesures trop sévères » explique-t-il. Selon les chercheurs, des améliorations pourraient être apportées avec un recalibrage de l’algorithme.

 

[1] Eli Ben-Michael et al, Does AI help humans make better decisions? A methodological framework for experimental evaluation, arXiv (2024). DOI: 10.48550/arxiv.2403.12108

Source : TechXplore, Nikki Rojas (17/06/2024)

Partager cet article

[supsystic-social-sharing id='1']

Synthèses de presse

Canada : une femme handicapée accusée d'être « égoïste » parce qu’elle refuse l'euthanasie
/ Fin de vie

Canada : une femme handicapée accusée d’être « égoïste » parce qu’elle refuse l’euthanasie

« Vous êtes égoïste. Vous ne vivez pas, vous vous contentez d’exister » a déclaré une infirmière à une femme souffrant d’une ...
Irlande : une femme souffre de stress post-traumatique après la destruction de ses embryons
/ PMA-GPA

Irlande : une femme souffre de stress post-traumatique après la destruction de ses embryons

Une femme dont les cinq embryons stockés dans une clinique de fertilité ont été détruits, souffre désormais d’un syndrome de ...
Fin de vie : le nouveau Gouvernement britannique a d'autres priorités pour l’année prochaine
/ Fin de vie

Fin de vie : le nouveau Gouvernement britannique a d’autres priorités pour l’année prochaine

Keir Starmer a déclaré qu’il accorderait du temps parlementaire pour un vote si un député proposait de modifier la loi ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres