POLICE PREDICTIVE : BEAUCOUP DE BRUIT POUR RIEN ?

Une réflexion sur les forces de l’ordre de demain ne peut faire l’économie d’un questionnement des moyens technologiques à leur disposition et de leur évolution. Parmi ceux-ci, la police prédictive, application des techniques de prévision et d’analyse, notamment des données, à la prévention de la criminalité. Apparue à l’aube de la décennie aux Etats-Unis, le développement de cette technologie semble à bout de souffle… Raison technique ou éthique ?

Par Sarah Pineau

Cachez ce logiciel que je ne saurais voir : genèse et émergence de la police prédictive

Si dans l’espace médiatique, la police prédictive s’est fait connaître, timidement en 2010, de manière plus assumée à partir de 2015 avec le logiciel PredPol largement utilisé par la police américaine pour orienter ses patrouilles, son origine est plus ancienne. Elle remonte aux années 1990 qui ont connu une « explosion des outils de gestion de la performance policière en Occident » rappelle Camille Gosselin, chargée d’étude urbaniste à l’Institut Paris Région. Dans ce contexte, la « donnée informatisée des faits de délinquance » est précieuse pour « établir des priorités d’action, fixer des objectifs ou optimiser les ressources sur des secteurs géographiques précis », raison pour laquelle l’urbaniste se lance dans une enquête de terrain en 20181, alors que la « Plateforme d’Analyse et de Visualisation Evolutive de la Délinquance » (« Paved »), outil d’anticipation développé par la gendarmerie nationale, est en cours d’expérimentation. L’étude qu’elle en a tirée permet de déconstruire un certain nombre d’idées reçues : la prédiction se limite en fait à la probabilité de réalisation d’un événement. Pour aller plus loin, il faudrait que la plateforme puisse agréger aux données quantitatives et qualitatives de délinquance dont elle dispose des données personnelles, « chose impossible en France en l’état actuel de la législation » note Camille Gosselin.

Dès lors, le terme de « police prédictive » n’est guère approprié. Le Colonel Patrick Perrot, rattaché à la Direction générale de la gendarmerie nationale et en charge de la stratégie de la donnée et de l’intelligence artificielle et qui a largement participé au développement de « Paved » considère que cette expression est du « simple marketing » et lui préfère celle « d’analyse prédictive de la délinquance ». Quant à la plateforme qu’il présente comme « un outil d’aide à la décision », elle est en « phase d’appropriation » par les forces de l’ordre.

« Science sans conscience n’est que ruine de l’âme », enjeux et débats.

Pendant ce temps, on constate qu’aux Etats-Unis ces dispositifs de police prédictive sont peu à peu abandonnés, à commencer par PredPol interdit depuis cet été à Los Angeles et dans plusieurs autres grandes villes américaines ainsi qu’en Angleterre. La raison ? Budgétaire officiellement, mais en coulisse, les explications d’une telle désaffection vis-à-vis de ces outils sont bien plus nombreuses… Pour commencer, des doutes sur leur efficacité réelle, soit parce qu’ils ne font que confirmer l’existence de zones criminogènes déjà connues, conduisant à une « prédiction réduite à des banalités2 », soit parce qu’il s’avère impossible de mesurer leur utilité : si l’évènement prédit par la machine a lieu, l’outil sera présenté comme efficace ; mais si l’évènement n’a pas lieu, l’outil pourra aussi être considéré comme efficace en ce qu’une patrouille envoyée sur place aurait dissuadé les personnes d’agir… Ensuite, des questions éthiques qui restent non résolues : alors que la conception et le développement des systèmes de police prédictive sont souvent vantés comme « objectifs » et « neutres », préjugés et stéréotypes sont ancrés dans les modèles et les algorithmes. Ainsi, Yves-Alexandre de Montjoye, chercheur au laboratoire Human Dynamics du Media Lab du MIT rappelle que le machine learning sur lequel repose ces logiciels « a été inventé pour résoudre des problèmes techniques, comme pour classer des images ou des données. Mais l’appliquer aux politiques publiques pose beaucoup de questions, notamment parce qu’il encode nos propres biais ». Ce qui aboutit à des résultats discriminatoires, avec des scores de risque plus élevés associés à certains groupes de population comme le relève un récent rapport du centre des hautes études du ministère de l’Intérieur3. Autre enjeu à la frontière du juridique et de l’éthique, la collecte des données et leur traitement. Si en France, les « boîtes noires » prévues par la loi sur le renseignement de juillet mai 2015 pour être placées sur les réseaux des opérateurs de télécommunications ne sont censées collecter que des métadonnées (heure, date, expéditeur, émetteur, durée), ces dernières fournissent des informations extrêmement révélatrices sur la vie des individus. Nul besoin de connaître le contenu précis, « l’enveloppe » suffit ! Faut-il pour autant jeter le bébé avec l’eau du bain ? Non. Ces interrogations qui concernent l’éthique by design, l’éthique des usages (quel usage éthique faisons-nous des technologies qui sont déjà à notre disposition ?), et enfin l’éthique sociétale (comment la technologie impacte-t-elle notre société ?) sont au coeur des enjeux et des débats de demain. Une gouvernance spécifique de l’éthique en intelligence artificielle et des algorithmes doit être adoptée pour faire émerger des technologies conformes à nos valeurs et nos normes sociales. Le Colonel Perrot souligne alors « ces outils, que nous le voulions ou non, vont être amenés à se développer de manière exponentielle dans les années à venir. Pour ma part, je préfère qu’ils soient utilisés par l’Etat qui est respectueux et garant des libertés publiques et qui place l’éthique au cœur de sa réflexion, plutôt que par des entreprises privées, dont les priorités peuvent être autres ». Une préoccupation également défendue au niveau européen où le projet Cutting Crime Impact (CCI) financé par l’Union européenne dans le cadre du programme de recherche et d’innovation Horizon 2020 insiste sur l’intérêt de telles approches, à condition qu’elles soient strictement encadrées : « La police prédictive peut engendrer de meilleurs processus de prise de décision et des décisions potentiellement moins biaisées et standardisées si les méthodes sont testées correctement et que la sélection et l’analyse des données continue à être améliorée (qualité et quantité des données) ».

1GOSSELIN C, La police prédictive. Enjeux soulevés par l’usage des algorithmes prédictifs en matière de sécurité publique, avril 2019, IAU île-de-France.

2BENSLIMANE I, Etude critique du système d’analyse prédictive : Predpol, 2015, Cortecs/ Université Grenoble Alpes

3Céline Castets-Renard, Philippe Besse, Jean-Michel Loubes, Laurent Perrussel. « Encadrement des risques techniques et juridiques des activités de police prédictive ». [Rapport de recherche] Centre des Hautes Etudes du Ministère de l’Intérieur. 2019. hal-02190585