Science sans conscience n’est que ruine de l’âme (F. Rabelais)

Après les crises et nouvelles menaces de ces dernières années, la technologie se propose de contribuer à assurer la sécurité et la sûreté. Au sempiternel dyptique sécurité/libertés, il manque des volets tels que l’utilité et les impacts économiques ou environnementaux. Il est difficile de composer entre les visions et les intérêts des industriels et des politiques tout en veillant aux composantes de l’intérêt général pour un modèle de société donné. Les citoyens sont mal informés et l’espace entre la morale, la déontologie, la Loi, la sociologie et l’économie est mal exploré. A ce jour, il manque un organe central de réflexion pouvant proposer des voies avec leurs conséquences.

Esquisse d’une première analyse précédent la naissance d’un prochain débat…

Par Georges Fenech, Ancien magistrat et Député Honoraire et Stéphane Schmoll, consultant en technologies de sécurité

De la science-fiction à la réalité

La technologie s’est constamment enrichie notamment depuis les développements de l’électronique et de l’informatique. La terminologie s’enrichit – capteurs, actionneurs, calculateurs, matériel, logiciel, robots, drones, etc. – mais moins vite que les nouvelles capacités dues à la puissance des calculateurs, à la taille des mémoires, à de nouveaux capteurs, aux objets connectés et aux réseaux plus rapides et omniprésents, aux données massives et enfin à l’intelligence artificielle qui en constitue une clé de voûte. S’y ajoutent de nouveaux matériaux et des techniques biologiques qui vont permettre de réaliser de nombreuses prédictions de la science-fiction. Les prospectivistes annoncent ainsi qu’il sera possible de simuler un humain vers 2030 et de le dépasser largement sur de multiples terrains en 2060. Nous en apercevons les premiers signes et les générations suivantes vivront avec, du moins dans les sociétés « avancées ».

De multiples cadres d’analyse

Il existe divers organes de réflexion sur l’utilisation de la technologie en général, qui étudient les possibles évolutions de la technique, de la législation et de la formation au sein du parlement (OPECST11), de la CNIL2 et même du Conseil d’Etat. Le parlement européen a proposé de créer un corpus juridique, déontologique et éthique audacieux mais controversé pour les robots, leurs concepteurs et leurs utilisateurs3, et le Groupe européen d’éthique des sciences et des nouvelles technologies créé jadis par J. Delors pour le biomédical a été relancé et étendu4. La Commission européenne a proposé des lignes directrices pour une éthique de l’IA5. Au niveau mondial, le Québec a une Commission de l’éthique en science et en technologie6. L’UNESCO a créé une Commission mondiale d’éthique des connaissances scientifiques et des technologies7 qui a produit un rapport sur l’éthique de la robotique.

En France, l’expérience la plus aboutie d’un organe d’orientation pérenne est celui du Comité consultatif national d’éthique8 créé en 1983 pour animer et canaliser un débat constructif sur les progrès que la science peut apporter au domaine des sciences de la vie et de la santé. Sa composition, son fonctionnement et sa production peuvent sans doute servir de modèle pour un équivalent dédié au vaste domaine de la sécurité et de la sûreté, qui présente aussi des caractéristiques spécifiques. C’est un domaine régalien par excellence qui touche aux bases-mêmes des institutions, des entreprises et des citoyens avec leurs besoins fondamentaux de protection des biens, des personnes et du capital immatériel. Certains groupes férus de ces questions les étudient en profondeur, notamment à la gendarmerie nationale, dotée du Centre de recherche de l’Ecole des officiers9 et d’un Observatoire national des sciences et technologies de la sécurité ainsi qu’à l’INHESJ10.

Un corpus législatif constamment complété autorise l’Etat à mettre en œuvre certaines technologies pour assurer ses missions, seul et de plus en plus en coopération avec d’autres acteurs, collectivités territoriales et entreprises spécialisées. La sécurité est l’affaire de tous, mais tous n’ont pas les mêmes droits et devoirs. Les pratiques habituelles sont encadrées par la loi et les règlements mais la technologie évolue si vite qu’il est indispensable d’anticiper les besoins et les usages pour préparer le futur. Tandis que les entreprises et leurs ingénieurs proposent constamment de nouvelles solutions technologiques sans se soucier de leurs impacts, les conséquences pour la population sont parfois néfastes aux citoyens, aux entreprises, aux institutions et même à l’environnement et alimentent bien des conjectures sans profondeur de vue dans l’espace et dans le temps. Pour faire les bons choix, l’éthique et la déontologie sont des creusets de jurisprudence. L’expérimentation, l’information, la pédagogie et la formation en sont d’indispensables outils.

Une myriade de questions délicates

De multiples problèmes font débat. La plupart se trouvent au carrefour du droit, de la doctrine opérationnelle, de l’acceptabilité sociologique et de la technologie. Quelques exemples :

Au-delà du RGPD et des multiples réglementations, peut-on aider le législateur par un canevas commun d’analyse des risques et d’acceptabilité liée aux systèmes exploitant les métadonnées des opérateurs, les données du cyberespace, les images des caméras de surveillance ou celles des drones, avec ou sans algorithmes ? Jusqu’où faut-il traiter comme personnelles des données telles qu’un visage, un comportement, des opinions, etc. ? Quels domaines les analyses d’impact doivent-elles parcourir ?

Pour les forces de l’ordre, quel équilibre entre l’analyse ciblée et l’analyse de masse ? Qui ou quels garde-fous et comment les contrôler ? Peut-on recourir au traitement massif de données pour résoudre des contentieux de masse en combattant le sentiment d’impunité et en développant l’éthique citoyenne ? L’utilisation de robots dans le maintien de l’ordre doit-il rester tabou ? Les forces de l’ordre doivent-elles pouvoir agir sur un véhicule connecté ou contrôler à distance ses occupants ? Comment conjuguer les intuitions, les émotions, le bon sens et la responsabilité de l’homme avec les analyses et capacités moins faillibles du robot ? L’intelligence artificielle peut-elle enrichir les guichets d’interaction entre citoyens et forces de l’ordre ? La primauté de la décision humaine est-elle compatible avec la rapidité d’action des malfaisants avec des outils comparables ? Quelle limite entre le devoir de signalement et la délation ? Pourquoi différencier le traitement juridique entre le recours à des chiens entraînés à détecter des signaux imperceptibles par l’homme et les possibilités de la machine ? Quel taux de faux positifs acceptables avant le contrôle ou l’intervention ? Quelle acceptabilité du profilage des individus ciblés par l’IA pour la sécurité ? Comment nourrir les enquêtes judiciaires et administratives par des données probantes quantitatives et qualitatives ?

Peut-on bâtir un même référentiel de confiance dans le recours à des technologies à travers le continuum de sécurité : Etat, collectivités territoriales, entreprises spécialisées ? Doit-on encourager des expérimentations audacieuses pour rester dans la course ou bien s’arc-bouter sur un droit rectifié posément et d’une main tremblante, selon la formule de Montesquieu ?

Les sujets arrivent hélas plus vite que le temps de les traiter un par un. Une méthodologie et une approche génériques permettraient de gagner du temps en repérant les invariants.

Vers un Conseil de réflexion et d’orientation sur les technologies de sécurité ?

Certains pays non-européens ont pu prendre de l’avance sur les débouchés de la technologie, notamment des algorithmes mais aussi de normes d’usage que nous ne pourrons ignorer sans proposer les nôtres. Le rejet systématique de leurs études, réflexions et pratiques au nom d’un humanisme européen prétendument supérieur serait une erreur. Faute de pouvoir durablement interdire l’utilisation de solutions qu’ils proposent, on peut s’en inspirer et décider de ce qui est transposable dans nos sociétés et dans un Etat de droit positif, en dégageant des principes simples définissant les responsabilités et domaines d’interventions des différents acteurs, assureurs compris. La « Patrie des droits de l’homme » a besoin d’un Conseil de réflexion et d’orientation sur les technologies de sécurité pour faire jaillir ses lumières et les partager. Le fonctionnement et la gouvernance de cet indispensable organe consultatif restent à définir. Ils pourraient comprendre une structure plénière rassemblant des représentants des Ministères concernés, du Parlement, de la CNIL, du Défenseur des droits et autres organismes tels que l’INHESJ ou le CNAPS avec lesquels des passerelles d’échanges seraient établies. Des groupes de travail thématiques rassembleraient des représentants d’autres groupes de réflexions nationaux (CERNA, CVPIP, etc.) ou européens et des filières industrielle et humaine de sécurité et surtout des experts scientifiques, juristes, économistes, assureurs, sociologues, philosophes, prospectivistes, journalistes, chercheurs et autres personnalités qualifiées pour analyser et éclairer les choix.

Une instance indépendante et des visions croisées pour tracer, ensemble, les meilleures voies au service de l’intérêt général.

1 Office parlementaire pour l’évaluation et les choix scientifiques et techniques

2cf. son rapport de déc 2017 sur les enjeux éthiques des algorithmes et de l’intelligence artificielle

3www.europarl.europa.eu/doceo/document/A-8-2017-0005_FR

4www.europarl.europa.eu/doceo/document/E-8-2017-003747_FR

5 https://ec.europa.eu/digital-single-market/en/news/communication-building-trust-human-centric-artificial-intelligence

6www.ethique.gouv.qc.ca/fr/ethique

7www.unesco.org/new/fr/social-and-human-sciences/themes/comest/

8 www.ccne-ethique.fr

9cf ses revues de 2017 sur le droit des robots et du 2e tr. 2018 sur les algorithmes et les espaces normatifs

10Institut national d’études pour la sécurité et la justice ; revue défis n°8