La deep tech et l’IA à l’épreuve de l’éthique

Ces derniers mois, les champs de la deep tech et de l’intelligence artificielle ont largement été sous le feu des projecteurs. Face à des secteurs aux progrès fulgurants et à la compétitivité maximale, de multiples acteurs tentent de promouvoir une approche éthique de l’utilisation de ces technologies émergentes. Mais les faits s’alignent-ils avec les discours ?

Par Corentin Dionet

En octobre 2021, lors de la présentation du plan France 2030, Emmanuel Macron affirmait : « Nous avons un point sur lequel nous sommes en difficulté (…) cest linvestissement dans lindustrialisation des technologies de ruptures. Cest pourquoi le cinquième point sur lequel je voudrais insister () cest une stratégie dinvestissement dans la deep tech ». Celle-ci englobe les technologies de pointe dans de nombreux domaines : « l’intelligence artificielle » le « machines learning », la « blockchain », le « Big Data », l’information quantique.» 1

Mieux collaborer avec le secteur privé

Ces technologies émergentes, développées presque exclusivement par les start-up, entrent logiquement dans les sphères de compétences du monde militaire et font l’objet de compétition entre puissances. C’est pourquoi l’Organisation du Traité de l’Atlantique Nord (OTAN), a décidé d’investir ce champ dans le cadre de l’agenda OTAN 2030. Les membres de l’Alliance ont lancé, eux aussi en octobre 2021, l’initiative DIANA : un « accélérateur d’innovation de défense pour l’Atlantique Nord. »2 Avec un milliard d’euros en poche, le fond d’investissement multinational espère pouvoir permettre l’éclosion de champions occidentaux dans plusieurs technologies émergentes.

Le savoir-faire français a été mis à l’honneur par l’Alliance atlantique. En effet, l’OTAN a sélectionné Thales, début 2021, pour l’équiper de son premier cloud de défense : le Nexium Defence Cloud. C’est « la première solution de cloud de théâtre militaire déployable, compacte et certifiée, permettant une maîtrise de bout-en-bout de la connectivité, des applications et de l’hébergement des données. »3

S’il existe un plan France 2030, il existe également un plan deep tech, sous son égide, piloté par Bpifrance. Il vise à faire du pays un leader mondial dans le secteur. Lancé en 2019, il possède un budget de 2,5 milliards d’euros, revu à la hausse devant le succès d’une structure non-ralentie par la crise sanitaire, et devant être dépensé en cinq ans.

Une politique « d’usage responsable »

L’intelligence artificielle (IA) est au premier rang de ces technologies de rupture. Déjà utilisée par plusieurs armées, elle : « comprend deux branches majoritaires: les approches symboliques basées sur le raisonnement (systèmes à base de règles) et les approches connexionnistes plus proches de lempirisme, fondées sur lapprentissage à partir de grandes bases de données (réseaux de neurones) » 4. Nicolas Fournier, Directeur général du numérique et des systèmes d’information et de communication du ministère des Armées, expliquait durant les Vauban Sessions, le 18 janvier dernier : « Les dynamiques et outils usant de prédictibilité sont dématures. Nous utilisons lIA pour optimiser notre logistique. »

Elle répond à des besoins du champ de la défense, notamment par sa capacité à gérer, stocker et traiter les données. Les acteurs du secteur coopèrent pour anticiper et amoindrir les risques inhérents à son fonctionnement. L’OTAN s’est doté d’une politique dite « d’usage responsable » de l’IA5, fondé autour de plusieurs dogmes. Les applications de ces technologies doivent être en conformité avec les lois nationales et internationales, y compris le droit humanitaire international et les droits de l’Homme. Elles seront soumises à une responsabilité humaine permettant de rendre des comptes, le fonctionnement de ces technologies devant être transparent, vérifiable et traçable. Leur fiabilité sera testée et leur utilisation sous-tend la nécessité d’une gouvernance humaine. Enfin, l’objectivité doit être de mise pour limiter la création d’un biais, quel qu’il soit, dans la fabrication et l’utilisation d’une technologie fonctionnant grâce à l’IA.

De ces considérations éthiques ressort une priorité claire : la place de l’Homme dans le processus décisionnel lié à l’action des technologies utilisant l’intelligence artificielle. Et c’est là qu’intervient le secteur privé, fournisseur de solutions. « L’humain doit pouvoir exercer un contrôle significatif sur la prise de décision » déclare Bernard Clermont, directeur du département d’innovation de CMI Defense. Aussi rappelle-t-il : « Il est nécessaire de définir des règles éthiques guidant le processus de décision autonome et automatique issu de la réflexion de l’IA ». Autrement dit, comment implémenter des valeurs dans la construction des outils et inclure l’humain dans le processus décisionnel pour assurer le caractère éthique de la décision. Encore faut-il déterminer, quand, comment, de quelle manière, à quel stade et avec quelle ampleur…

Ne pas « se lier les mains »

Un pan de la souveraineté numérique française et européenne se joue ici. La compétition fait rage et la France et l’Europe ne doivent pas laisser le champ libre à leurs rivaux. Les divergences d’intérêts, de valeurs et d’éthiques sont trop importantes. C’est pourquoi la ministre des Armées, Florence Parly, s’est saisie du sujet, affirmant en première page du rapport de la task force IA : « Nous choisissons la voie de la responsabilité, celle de protéger à la fois nos valeurs et nos concitoyens, tout en embrassant les opportunités fabuleuses qui sont offertes par lintelligence artificielle. »6

Selon Laure de Rochegonde, chercheuse à l’IFRI et spécialiste du sujet : « Il existe une compétition normative autour de l’éthique qui devrait être appliquée à l’intelligence artificielle à usage militaire. Cest particulièrement visible dans le cadre des systèmes darmes létales autonomes (SALA) et de leur fonctionnement avec l’IA. » Le débat force les acteurs étatiques à se positionner : « La France et lUE doivent se saisir de ce combat. La manière dont l’éthique est débattue entraîne des conséquences sur les capacités techniques. LEurope risque de se lier les mains et de se démunir face à ses compétiteurs. Le fait que le Fonds européen de défense ne finance pas les SALA pourrait entraîner des conséquences néfastes sur le plan capacitaire et il faut participer à ces débats pour ne pas se voir imposer un cadre non-conforme à nos valeurs et nos intérêts » affirme la chercheuse.

Deux approches distinctes existent. La première, défendue notamment par la Russie, soutient que « l’éthique nécessite le recours à la technologie, car la machine est plus efficace que lhomme et dépourvue de passions, de fatigue ou du désir de revanche ». L’IA serait donc plus susceptible de respecter le droit de la guerre que l’Homme. L’approche opposée consiste à affirmer que les biais humains se retrouvent dans l’intelligence artificielle via les algorithmes. Laure de Rochegonde illustre : « Des expérimentations menées aux Etats-Unis sur la justice prédictive ont montré que les afro-américains étaient plus souvent considérés comme coupables ou susceptibles de récidiver que les blancs. Cest un biais de lintelligence artificielle qui provient de lHomme ».

Entre prisme majeur et écran de fumée

Ainsi, l’éthique est-elle un prisme majeur de détermination de l’intelligence artificielle, où simplement un écran de fumée ? La question mérite d’être posée. Louis Perez, doctorant à l’Institut de recherche stratégique de l’École militaire (IRSEM) écrit une thèse sur la régulation juridique de l’IA. Selon lui, l’importance de l’éthique dans les discussions autour de cette technologie tient dans ce qu’il n’y a pas de droit pour la réguler. « Aujourdhui, toutes les puissances ont leur document sur l’éthique. Mais cest extrêmement abstrait. Les Etats ont le champ totalement libre. Les Etats-Unis, la Russie, la Chine peuvent déclamer leurs principes éthiques. Ils ny sont pas liés, nayant quune responsabilité morale et non juridique. » S’il reconnaît être partisan de l’écran de fumée, il ne veut pas dénigrer totalement l’éthique qui « met lhomme au centre de la réflexion, permet un dialogue pluridisciplinaire et aux entreprises de se saisir du sujet. Nous avons besoin de l’éthique et du droit, mais seul le droit pourra modeler les comportements. »

Constatant que les Etats partagent un discours commun sur l’éthique, le doctorant dénote que des dissensions pourraient se former dans l’action : « On peut imaginer que lEurope sera fidèle à sa vision humaniste, que les Etats-Unis tenteront de trouver l’équilibre entre intéts stratégiques et humanisme quand la Chine reléguerait plutôt l’éthique au placard. » S’intéresser à l’utilisation de l’intelligence artificielle dans le champ civil permet de se faire une idée selon Louis Perez :« Le parallèle entre le crédit social chinois et la France, qui est en train dinterdire la reconnaissance faciale dans certaines circonstances, nous donne un sens des divergences entre les pays. »

Laure de Rochegonde, elle, indique : « Ce quon observe dans ce champ, cest ce que certains appellent l’éthique washing, comparable au green washing. Comme ces technologies font peur, on cherche à rassurer les populations ». Pour autant, l’une des forces de l’Union européenne réside dans sa capacité à imposer ses normes à la communauté internationale. Elle est illustrée par le succès du RGPD dans le domaine civil, qui semble avoir donné des idées à Bruxelles. La Commission européenne a présenté en avril dernier le Artificial Intelligence Act, ayant vocation à réguler l’IA. « Utiliser la voie normative, avec une vocation et une application extraterritoriale permet à l’Union européenne de simposer aux Etats-Unis. Face à sa faiblesse sur le plan international, lUE utilise ce quelle connaît le mieux: sa machine administrative et sa force juridique » souligne le doctorant. Et si, encore une fois, la voie normative était la voie à suivre…

1 Gouvernement, (2021), « Renforcer le financement des « start-up » industrielles ».

2 Organisation du traité de l’Atlantique nord, (2021), « Les Alliés se lancent dans la mise en place d’un fonds OTAN pour l’innovation ».

3 Business Wire, (2021), « L’OTAN s’équipe du premier Cloud de Défense dédié aux forces armées développé par Thales ».

4 Ministère des armées, (2019), « Stratégie de l’Intelligence artificielle au service de la Défense ».

5 Organisation du traité de l’Atlantique nord, (2021), « Summary of the NATO Artificial Intelligence Strategy »

6 Ibid.