Des chercheurs de l’Université de Chicago pensent avoir construit une meilleure souricière avant le crime
5 min readdu mieux-deviner-équivaut-meilleur-police? département
Voici seulement deux des nombreuses choses que la Securities and Exchange Commission interdit aux sociétés d’investissement de mettre dans leur documentation marketing :
(B) Les représentations impliquant que les gains ou revenus futurs peuvent être déduits ou prédits sur la base des performances d’investissement passées ; ou
(C) Représentations des performances passées, faites d’une manière qui impliquerait que les gains ou les revenus réalisés dans le passé seraient répétés à l’avenir.
Personne ne contrôle la technologie policière avec autant de zèle, car c’est essentiellement l’intégralité des programmes de police prédictive : l’hypothèse selon laquelle les données sur la criminalité passée peuvent projeter où les crimes futurs sont susceptibles de se produire.
Les programmes de police prédictive, pour la plupart, combinent des données d’ordures générées par des efforts de police biaisés avec des logiciels propriétaires pour générer des «cartes thermiques» ou «une zone votée la plus susceptible de contenir un crime futur» ou quoi que ce soit pour donner aux organismes d’application de la loi des conseils sur la meilleure façon de déployer leurs ressources limitées.
Le problème n’est pas forcément le logiciel. Mais même si c’est robuste comme de la merde, cela va toujours refléter le biais inhérent aux données brutes. Les zones où vivent les minorités ont tendance à être sur-policées. Les minorités sont arrêtées à des taux dépassant de loin leur pourcentage démographique. Des années de racisme manifeste ont créé des ensembles de données biaisés qui surreprésentent les victimes de préjugés systémiques. Les prédictions basées sur ces données ne feront que créer davantage la même chose en matière de police raciste. Mais cette fois, cela ressemblera à de la science, plutôt qu’à des flics renversant des enfants noirs simplement parce qu’ils le peuvent.
Non seulement la police prédictive recycle-t-elle des décennies de mauvaises idées, mais elle ne semble jamais entraîner la réduction de la criminalité et les partisans de la police communautaire de ces systèmes prétendent que le déploiement conduira.
Quelqu’un (enfin, plusieurs personnes) affirment qu’ils ont enfin obtenu le droit de police prédictive.
Des scientifiques de l’Université de Chicago ont développé un nouvel algorithme capable de prédire la criminalité future une semaine à l’avance avec une précision d’environ 90 % et dans une plage d’environ 1 000 pieds.
Pour ce faire, il apprend des modèles à partir de données publiques sur les crimes violents et les crimes contre les biens.
“Nous rapportons une approche pour prédire la criminalité dans les villes au niveau des événements individuels, avec une précision prédictive bien supérieure à ce qui a été atteint dans le passé”, écrivent les auteurs.
Ça a l’air génial, mais qu’est-ce qui est vraiment célébré ici ? Cet outil peut dire aux flics ce qu’ils savent déjà (ou croient), mais ce n’est pas vraiment une solution. Il suggère que l’application de la loi et les patrouilles devraient être concentrées là où les crimes sont susceptibles de se produire simplement parce que c’est là que des crimes ont été commis dans le passé. Avoir raison 90 % du temps ne signifie pas que davantage de crimes seront évités. Cela ne signifie pas non plus que davantage de dossiers seront fermés. Un logiciel avec une meilleure précision ne peut pas changer la façon dont les flics réagissent aux crimes. Il ne peut que mettre quelques flics de plus dans certaines zones et espérer que cela produira d’une manière ou d’une autre des résultats positifs.
Outre le problème évident de déclarer qu’une zone est l’hôte de futurs crimes (faire de tout le monde dans la zone un suspect possible jusqu’à ce qu’un crime soit commis), il y a le problème de biais introduit par l’ensemble de données. Ces chercheurs affirment qu’ils peuvent atténuer ce problème omniprésent de la police prédictive.
D’une certaine manière cela aide?
Il divise la ville en “tuiles spatiales” d’environ 1 000 pieds de diamètre et prédit la criminalité dans ces zones.
Les modèles précédents reposaient davantage sur les quartiers traditionnels ou les frontières politiques, qui sont sujettes à des biais.
Cela peut empêcher les jugements instantanés lorsque les cartes thermiques sont vues pour la première fois, mais cela semble quelque chose de mieux adapté, par exemple, mise en place des districts du Congrès que d’essayer d’empêcher les données parasites de générer des résultats parasites. Cela ne change que la façon dont les résultats finaux sont affichés. Cela ne supprime pas en quelque sorte le biais des données sous-jacentes.
Et, malgré toute sa précision, les chercheurs ont reconnu que le logiciel amélioré ne peut pas vraiment faire grand-chose pour réduire la police biaisée.
L’équipe de recherche a également étudié la réponse de la police à la criminalité en analysant le nombre d’arrestations à la suite d’incidents et en comparant ces taux entre différents quartiers.
Ils ont constaté que lorsque les niveaux de criminalité dans les zones les plus riches augmentaient, cela entraînait davantage d’arrestations. Mais cela ne s’est pas produit dans les quartiers défavorisés, ce qui suggère un déséquilibre dans la réponse et l’application de la police.
Mais que se passerait-il s’il n’était pas conçu pour les flics, mais plutôt pour le public et les entités de surveillance policière ? Peut-être cette est la façon dont le logiciel doit être utilisé.
“Nous reconnaissons le danger que de puissants outils prédictifs placent entre les mains d’États trop zélés au nom de la protection des civils”, concluent les auteurs, “mais nous démontrons ici leur capacité sans précédent à vérifier les biais d’application et à tenir les États responsables d’une manière inconcevable dans le passé.”
Cela ressemble à une meilleure utilisation de la technologie de police prédictive : suivre les activités policières plutôt que de soumettre les citoyens à des flics qui traitent tout le monde dans une certaine zone comme un suspect simplement parce qu’un ordinateur leur a dit que des actes criminels étaient prévus. Mais aucun gouvernement n’est prêt à dépenser des millions pour tenir les agents responsables ou fournir au public un meilleur aperçu des activités d’application de la loi. Ces millions ont déjà été réservés pour acheter plus de technologies aux flics sous l’hypothèse douteuse que les performances passées sont indicatives des résultats futurs.
Filed Under: partialité, police, précrime, police prédictive