Lieux, âges, coordonnées mais aussi voix, visages ou contenus postés sur les réseaux sociaux… Collecter les données sur les individus pour permettre aux agents de police de cibler leurs interventions à l’avance, avant même qu’un délit ou un crime ne soit commis, il s’agit de la « police prédictive« . Une pratique que dénonce la Ligue des droits humains en publiant une étude d’un chercheur de l’ULB en géographie humaine, Corentin Debailleul.
« Le terme ‘prédictive’ suppose que l’on pourrait prédire l’avenir, que la police en aurait la capacité, ce qui est déjà critiquable« , commence le chercheur. « L’idée, c’est de collecter un maximum de données, de statistiques et sur cette base, construire des modèles de prédiction qui pourraient indiquer où seraient commis des crimes et des délits dans le futur. Ou encore, de prédire qui sont les personnes qui pourraient être les coupables ou les victimes de ces crimes.«
« Cela s’est fortement développé ces dernières années avec l’avènement de ce qu’on appelle les ‘big data’« , explique Corentin Debailleul. « C’est-à-dire, en collectant des données sur les gens, les lieux et les contextes, on serait en mesure de prédire l’avenir« . Big data mais aussi intelligence artificielle. Ces nouvelles technologies sont autant de dangers pour la Ligue des droits humains, mais pas seulement. L’Union européenne a déjà mis en place un cadre depuis le 2 février dernier, l’IA Act, la législation européenne sur l’intelligence artificielle. Elle interdit l’utilisation de l’IA à des fins de police prédictive.
Mais cela ne rassure pas la Ligue des droits humains. « Les données policières sont souvent inexactes et reflètent les biais systémiques présents dans la police comme dans la société – en particulier le racisme, l’islamophobie et le classisme [ndlr : discrimination liée à la classe sociale]« , écrit-elle dans son rapport publié avec d’autres associations de protection des droits humains dont Statewatch qui publiait le même constat pour le Royaume-Uni il y a quelques jours.