France World

Les données de formation destinées à rendre la police prédictive moins biaisée sont toujours rac …

Pour leur défense, de nombreux développeurs d’outils de police prédictive affirment qu’ils ont commencé à utiliser les rapports de victimes pour obtenir une image plus précise des taux de criminalité dans différents quartiers. En théorie, les rapports des victimes devraient être moins biaisés car ils ne sont pas affectés par les préjugés de la police ou les boucles de rétroaction.

Mais Nil-Jana Akpinar et Alexandra Chouldechova de l’Université Carnegie Mellon montrent que le point de vue fourni par les rapports sur les victimes est également biaisé. La paire a construit son propre algorithme prédictif en utilisant le même modèle que celui que l’on trouve dans plusieurs outils populaires, dont PredPol, le système le plus utilisé aux États-Unis. Ils ont formé le modèle sur les données des rapports sur les victimes pour Bogotá, en Colombie, l’une des très rares villes pour lesquelles des données indépendantes sur les rapports sur la criminalité sont disponibles au niveau district par district.

Lorsqu’ils ont comparé les prédictions de leur outil aux données réelles sur la criminalité pour chaque district, ils ont constaté qu’il y avait des erreurs importantes. Par exemple, dans un district où peu de crimes ont été signalés, l’outil a prédit environ 20% des points chauds réels – des endroits où le taux de criminalité est élevé. En revanche, dans un quartier avec un nombre élevé de rapports, l’outil prédit 20% de points chauds en plus qu’il n’y en avait réellement.

Pour Rashida Richardson, avocate et chercheuse qui étudie les biais algorithmiques à l’AI Now Institute de New York, ces résultats renforcent les travaux existants qui mettent en évidence les problèmes liés aux ensembles de données utilisés dans la police prédictive. «Ils mènent à des résultats biaisés qui n’améliorent pas la sécurité publique», dit-elle. «Je pense que de nombreux fournisseurs de services de police prédictifs comme PredPol ne comprennent fondamentalement pas comment les conditions structurelles et sociales biaisent ou faussent de nombreuses formes de données sur la criminalité.»

Alors, pourquoi l’algorithme a-t-il fait si mal? Le problème avec les rapports de victime est que les Noirs sont plus susceptibles d’être signalés pour un crime que les Blancs. Les Blancs plus riches sont plus susceptibles de signaler une personne noire plus pauvre que l’inverse. Et les Noirs sont également plus susceptibles de dénoncer d’autres Noirs. Comme pour les données sur les arrestations, cela conduit les quartiers noirs à être signalés plus souvent qu’ils ne le devraient comme des points chauds de la criminalité.

D’autres facteurs déforment également l’image. «Le signalement des victimes est également lié à la confiance de la communauté ou à la méfiance à l’égard de la police», dit Richardson. « Donc, si vous êtes dans une communauté avec un service de police historiquement corrompu ou notoirement raciste, cela affectera comment et si les gens signalent les crimes. » Dans ce cas, un outil prédictif peut sous-estimer le niveau de criminalité dans une zone, de sorte qu’il n’obtiendra pas les services de police dont il a besoin.

Source

L’article Les données de formation destinées à rendre la police prédictive moins biaisée sont toujours rac … est apparu en premier sur zimo news.

Leave a Reply

Your email address will not be published. Required fields are marked *