France World

La justice algorithmique s’installe en France

Publié le : 06/01/2022 – 11:25

Le Conseil d’État vient de valider le système informatique d’aide à la décision, DataJust, permettant aux tribunaux d’établir les indemnisations auxquelles ont droit les victimes de préjudices corporels. Les associations de défense des libertés fondamentales dénoncent l’utilisation des données personnelles sans le consentement préalable des justiciables.

L’objectif du programme DataJust est d’apporter une assistance aux magistrats pour évaluer, par exemple, les montants des indemnisations auxquelles peuvent prétendre les victimes d’agression physique ou d’accident de la route. Le lancement de cette expérimentation qui a été annoncée par décret le 27 mars 2020, « vise à développer un algorithme, chargé d’extraire de manière automatique et d’exploiter les données contenues dans les décisions de justice portant sur l’indemnisation des préjudices corporels » précisait alors le ministère de la Justice sur son site.

Pour « s’entraîner » ce système qui est basé sur des programmes d’intelligence artificielle puise dans un fichier contenant des milliers de données sensibles. Parmi celles ci, les noms, prénoms des victimes ainsi que des informations liées à de potentielles blessures, des expertises médicales, mais aussi leur situation professionnelle ou financière. Si la plupart de ces informations ont été rendues anonymes, certains éléments d’identification comme la date de naissance ou encore les éventuels liens de parenté entre les victimes et leurs proches figurent en clair dans la base de données.

Les associations de défense des libertés fondamentales mobilisées

Cette méthode de traitement informatique contreviendrait au RGPD, le dispositif européen de protection des données personnelles et à la loi Informatique et libertés, selon plusieurs avocats. Même constat du côté des associations. « L’État s’affranchit avec cette expérimentation de justice algorithmique, des lois qui protègent les données personnelles et la vie privée », estime Bastien Le Querrec, juriste et membre du groupe contentieux à la Quadrature du Net, l’association de défense des libertés fondamentales dans les environnements numériques.

► À lire aussi : Données numériques: « Protégées sur le papier, pas dans la réalité »

« Cette méthodologie qui consiste à apposer une étiquette d’expérimentation pour s’autoriser à aller piocher encore plus d’informations à caractère personnel, nous dérange. À chaque fois, on décrète que c’est expérimental, ne vous inquiétez pas, nous allons vérifier si le résultat proposé par l’algorithme est proportionné, alors qu’en réalité on joue à l’apprenti sorcier. Cette croyance qu’un algorithme peut prendre de meilleures décisions qu’un être humain se généralise, nous l’observons dans le secteur de la police, maintenant celui de la justice, en matière de contrôle social dans les systèmes de la Caisse d’allocations familiales… nous constatons que ces algorithmes s’immiscent de plus en plus dans la vie quotidienne des citoyennes et des citoyens et c’est vraiment un choix de société. À la Quadrature du Net, nous essayons de lutter contre les biais qu’engendrent ces programmes automatiques, parce que la technologie parfois peut amener à des dérives, comme c’est le cas aujourd’hui avec le dispositif DataJust », regrette Bastien Le Querrec.

L’algorithme DataJust validé par la plus haute juridiction

Le Conseil d’État saisi par la Quadrature du Net indique dans ses conclusions que ce projet étant d’intérêt public, alors le consentement des personnes figurants dans le fichier n’est pas nécessaire pour procéder au traitement de leurs données personnelles. Le dispositif DataJust dont l’efficacité n’a pas encore été dévoilé devrait être opérationnel fin mars 2022, prévoit le ministère de la Justice.

www.rfi.fr

L’article La justice algorithmique s’installe en France est apparu en premier sur zimo news.