https://s.france24.com/media/display/df648e84-a381-11eb-857b-005056bff430/w:1280/p:16×9/220421-ia-facial-recog-eu-propal-risk-m.jpg
La Commission européenne a dévoilé, mercredi, son très ambitieux projet de réglementation des usages de l’IA. Un texte qui met en place une échelle de risque pour les différentes formes d’intelligence artificielle. Une démarche inédite au niveau international qui tente de concilier et éthique et compétitivité, ce qui suscite déjà des réticences.
IA fais-moi peur ? La Commission européenne a rendu public, mercredi 21 avril, ses propositions pour mieux encadrer le développement de l’Intelligence artificielle et, notamment, les utilisations qu’elle juge les « plus risquées » de cette technologie.
Ce projet constitue « l’effort le plus significatif à ce jour [dans le monde] pour réguler l’IA », d’après Wired, une site spécialisé dans les nouvelles technologies. Les plus de cent pages de règles proposées couvrent un large éventail de sujets, allant du développement des algorithmes pour faire fonctionner les applications d’Intelligence artificielle jusqu’à la reconnaissance faciale ou encore l’utilisation de l’IA par des recruteurs.
Un « acte politique »
Dans un monde où la Chine utilise sans réserve ces technologies pour surveiller des minorités ethniques, ou pour noter ses habitants, et où les États-Unis hésitent à réguler, de peur de se faire distancer dans la « course à l’IA », ce texte est avant tout un « acte politique », juge Laurence Devillers, professeure en intelligence artificielle à l’université Paris-Sorbonne, membre du Comité national pilote d’éthique du numérique, contactée par France 24.
« Il permet à l’Europe de se positionner sur la scène internationale et d’y défendre nos valeurs fondées sur une approche de l’IA plus respectueuse de l’humain et de la société », affirme cette spécialiste des questions d’éthique et d’intelligence artificielle. En ce sens, « l’apport le plus important de ce projet est qu’il interdit certains usages de l’intelligence artificielle, ce qui permet de montrer quelles sont les des lignes rouges pour Europe », note Daniel Leufer, spécialiste des politiques européennes en matière de nouvelles technologie pour l’ONG Access Now, contacté par France 24.
Ces IA non gratæ sont inscrites à l’article 5 du texte et recouvrent des systèmes d’intelligence artificielle similaires au « crédit social » chinois qui permet à des algorithmes d’évaluer la « fiabilité » sociale des individus, ou encore la mise en place d’une dispositif de suivi « en temps réel » des personnes grâce à la reconnaissance faciale. Pas question donc d’introduire en Europe des systèmes de surveillance électronique de masse.
L’autre grand « bon point de ce texte », selon Daniel Leufer, est l’idée de mettre en place un registre des dispositifs d’IA proposés sur le sol européen. « Cela permettrait d’apporter un peu de transparence à tous ces outils dont peuvent se servir, par exemple, la police », estime l’expert d’Access Now. Là encore, c’est une approche radicalement différente de celle adoptée par les États-Unis et la Chine où règne une grande opacité.
L’aspect de ce document qui a fait couler le plus d’encre concerne le choix de la Commission de classer les usages de l’IA par niveau de risque. Il y a celles qui sont jugées trop risquées – donc interdites –, celles qui apparaissent « très risquées », « moyennement risquées » et ainsi de suite. Pour chacun des échelons de cette nouvelle échelle de Richter de l’IA, il y a des règles différentes, toujours plus contraignantes, à mesure que l’on grimpe les barreaux de l’échelle.
C’est risqué d’évaluer le risque
« C’est l’aboutissement réglementaire des travaux des experts de haut niveau sur l’IA (GEHN IA) mandatés par la Commission européenne [en 2018] pour réfléchir à la notion d’IA ‘digne de confiance’ », explique Jean-Gabriel Ganascia, président du comité d’éthique du CNRS et expert de l’intelligence artificielle au Laboratoire d’Informatique de l’université Paris-6.
Une approche qui laisse cet expert dubitatif. « C’est difficile de quantifier à priori le risque que représente quelque chose d’aussi nouveau et en perpétuelle évolution que l’IA », estime-t-il. Dans le cas du projet de la Commission, ce sont les libertés individuelles et les grands principes démocratiques qui servent de baromètre pour évaluer la dangerosité de l’application d’un IA. Mais « ce sont des notions très politiques qui peuvent varier d’un pays à l’autre », souligne cet expert des questions éthiques.
Il craint aussi que cette manière de présenter l’IA à l’aune du risque pour la société « soit anxiogène pour la population et freine l’adoption de cette technologie ». Ce serait alors contre-productif puisque le but affiché par la Commission européenne est de créer un cadre réglementaire qui favorise son développement.
Dès lors que la Commission attribue un niveau de risque aux différents usages de l’IA, il convient aussi de savoir « qui décide à partir de quand un risque est jugé acceptable, ce qui nous entraîne sur des pentes très glissantes », estime Daniel Leufer. En voulant pour preuve des choix, à son avis, très contestables. Il conteste, par exemple, la décision de la Commission de ne pas inclure les détecteurs de mensonge dopés à l’IA dans dans les usages à bannir et de n’en faire que des applications « à fort risques », alors « qu’il s’agit à nos yeux d’une pseudoscience dangereuse ». Le recours à ces détecteurs de mensonges dits « intelligents » en 2018 pour tenter d’identifier des immigrés clandestins aux frontières de pays comme la Hongrie ou la Grèce s’était attiré de vives critiques à l’époque.
Un modèle à suivre ?
Pour Daniel Leufer, la formulation « trop vague » de certaines dispositions pousse aussi à se demander qui aura le dernier mot pour définir ce qui est « trop risqué ». Il n’est, ainsi, pas évident de savoir qui évaluera la conformité aux règles d’une IA de la très sensible catégorie des applications « très risquée ». On y retrouve pourtant des usages comme les algorithmes de prédiction de criminalité, les IA de recrutement ou encore celles qui sont intégrées dans les infrastructures critiques (comme les réseaux électriques). « Le texte semble suggérer que la conformité aux règles pourra être évaluée en interne, ce qui serait un comble », s’étonne Daniel Leufer. Ce serait comme laisser des fabricants de cigarettes juger de la dangerosité du tabac, note-t-il.
« Il est vrai qu’il y a encore des trous dans la raquette », reconnaît Laurence Devillers. Mais pour elle, « c’est tout de même beaucoup mieux que la jungle qui règne actuellement ». Elle veut voir ce texte « comme une première étape très positive qui pose les fondements pour une discussion sur les tensions éthiques permettant d’aboutir à des règles acceptées par tous ».
Et pas seulement en Europe. À l’instar du règlement européen général sur la protection des données (RGPD), « ce texte peut avoir vocation à inspirer d’autres pays dans le monde », espère Laurence Devillers. Elle rappelle que le RGPD aussi à ses débuts avait fait sortir toute sorte de détracteurs du bois avant de devenir une référence.
Il serait primordial, à ses yeux, que le monde accorde ses violons sur des règles communes en matière de développement de l’IA. Car « si on veut contenir les formes dangereuses d’IA de se propager comme un virus, il faut que tout le monde travaille ensemble », affirme Laurence Devillers. Et pour elle, le Partenariat mondial sur l’intelligence artificielle (PMIA), qui regroupe depuis l’an dernier une quinzaine de pays, est « le premier maillon de cette discussion ». Mais avant cela, il faudra encore vaincre le cluster de résistance en Europe.
L’article Intelligence artificielle “très risquée”, “trop risquée” : l’Europe veut mieux encadrer les usages est apparu en premier sur zimo news.