Certification et normalisation : jeu d’influence pour un IA de confiance

Au-delà de l’aspect technique, certification et normalisation revêtent un caractère politique comme un levier de puissance susceptible de donner un avantage aux pays dans la course à l’hégémonie internationale. Ainsi, les acteurs de la filière tentent d’abord de s’accorder sur une définition de l’intelligence artificielle et de trouver un référentiel commun. Pourtant, les logiques d’influence sont à l’oeuvre. L’enjeu est immense car le pays dont la définition sera la plus proche du référentiel international verra son influence décuplée dans tous les domaines stratégiques. Dans cette bataille qui fait rage entre la Chine et les Etats-Unis, la France possède des ressources convoitées et très enviées. De son côté l’Europe imprimera-t-elle sa marque ?

Par Simon DOUAGLIN

Définir l’intelligence artificielle

Définir l’IA est un enjeu de premier ordre. « L’intelligence artificielle ne peut pas se réduire à l’analyse du Big Data ou au Machine Learning . L’IA basée sur l’analyse des données et promue en particulier par les GAFAM couvre un sous-ensemble des techniques à base d’IA. Il en existe d’autres telles que l’IA hybride ou l’IA symbolique. En effet, inclure des fonctionnalités cognitives à un système artificiel, c’est-à-dire des fonctionnalités de perception, d’apprentissage machine ou de raisonnement, de résolution de problèmes complexes ou bien encore de capacité d’action et de réaction sont autant de caractéristiques qu’il faut prendre en compte pour concevoir un système critique à base d’IA. De plus, la conformité, la robustesse, l’explicabilité, la fiabilité et la sûreté sont des propriétés à prendre en compte, c’est tout l’enjeu pour aboutir à une IA de confiance. » explique Juliette Mattioli, senior expert en intelligence artificielle chez Thales. « Il ne s’agit pas de développer seulement les IA de données. Voir émerger une IA de confiance repose avant tout sur la complémentarité entre les différents types d’IA. » complète François Terrier, directeur de recherche au CEA. « On observe aujourd’hui une tendance à l’évolution des standards qui permettent une justification, comme pour les logiciels classiques, de chaque instruction et valeur utilisée par l’outil par une IA. Justifier chaque point du réseau de neurone reste encore un réel défi qu’il nous faudra relever ».

Normaliser pour développer

Utiliser l’IA pour des usages critiques dépend en premier lieu de la normalisation de l’outil. « Les technologies d’IA sont déjà utilisées dans certaines fonctionnalités quotidiennes, non-critiques et où l’humain reste toujours décideur en dernier recours, c’est le cas des correcteurs d’orthographe par exemple. Pour aller plus loin, la normalisation, l’homologation voire la certification apporteront des garanties permettant son utilisation comme dans les domaines considérés comme « business critical » (banques, assurances) ou de « mission critical » (sécurité et défense). C’est encore plus vrai en ce qui concerne le domaine « safety critical » (médecine, aéronautique et ferroviaire) où les vies humaines sont directement en jeu. Il ne s’agit pas de recréer un process exclusivement dédié aux systèmes critiques à base dIA mais bien de revisiter les ingénieries et les réglementations en vigueur dans les différents secteurs d’application pour y intégrer l’IA. » ajoute Juliette Mattioli. « Progressivement les outils d’intelligence artificielle vont intervenir dans les processus de prise de décision. Dans les véhicules autonomes ou dans les systèmes navals et aéronautiques l’intelligence artificielle permettra de réduire drastiquement le temps de réaction conformément à une exigence d’optimisation. La confiance de l’humain dans l’outil sera déterminante pour pouvoir utiliser et continuer à développer l’IA. » détaille François Terrier. Le projet SESNA, hébergé au CEA Paris-Saclay et qui voit l’expérimentation de navettes autonomes, montre toute l’importance des enjeux de sécurité et de sûreté en ce qui concerne les véhicules autonomes. « Outre l’intégrité physique, la sûreté des IA est liée à des critères éthiques et juridiques tels que le respect de la vie privée et le risque de déshumanisation programmée. » indique un article du CEA1.

« La difficulté de normaliser réside aussidans la non-explicabilité et la non-interprétabilité des algorithmes. » poursuit Juliette Mattioli.

Des normes internationales encadrent déjà l’utilisation des technologies d’IA, telles que ISO/IEC 23053 et ISO 21448, mais n’incluent pas encore toutes les utilisations possibles2. D’autres normes sont donc en cours d’élaboration. « Deux projets généralistes sont à l’oeuvre. L’un est porté par l’AFNOR (Comité de Normalisation IA), le CEA en est membre. Il est en lien avec le sous-comité 42 Artificial Intelligence de lISO (ISO/IEC JTC 1/SC 42 « Artificial Intelligence »). Le second est porté par le comité européen de normalisation (CEN-CENELEC/BTWG 6 ICT Standardization policy). Un troisième, spécialisé dans l’avionique, est intitulé EUROCAE WG-114 Artificial Intelligence» détaille François Terrier. Avec un marché estimé à 70 milliards de dollars en 20213, les enjeux politiques et économiques sont tels que le processus de normalisation est le théâtre des luttes d’influence.

Le rapport de force international

Normaliser à l’échelle internationale permet d’uniformiser les référentiels au service d’une confiance commune dans les technologies d’IA. Pourtant, imposer ses standards est devenu l’objet de convoitise des puissances. Sous couvert de neutralité, l’instance ISO est sous influence américaine et chinoise. Chacune de ces puissances cherche à imposer ses propres standards et sa propre vision de l’intelligence artificielle dans le cadre d’une stratégie d’influence. « Le chairman du sous-comité 42 est l’illustration de la farouche opposition entre les deux puissances. De nationalité américaine et employé par Huawei, sa nomination a été le fruit d’un long travail de compromis. L’important nombre de représentants envoyé par les deux pays au sein de l’instance ISO témoigne également du bras de fer permanent qui se joue et qui permettra à l’un ou l’autre de prendre l’avantage. » explique Arnault Ioualalen, PDG et directeur R&D de Numalis.

Si les Etats-Uni et la Chine sont au coude à coude, « la France n’a que deux projets actifs au sein de l’instance ISO pour tenter d’influencer la production de standards en faveur du modèle français. C’est une stratégie qui semble limitée au regard de l’enjeu. Il est donc urgent pour la France de prendre sa part dans la conception des standards internationaux afin d’offrir à ses entreprises un terreau fertile pour le développement des futurs produits de l’IA. » poursuit Arnault Ioualalen.

L’enjeu de la certification

En ce qui concerne les produits informatiques et autres logiciels traditionnels, la certification intervient avant la mise en fonctionnement du produit. « En étudiant le programme avant son utilisation, on peut dire si le produit est conforme ou non. L’aspect évolutif de l’IA et les nombreuses mises à jour tout au long de la phase de fonctionnement rend cette certification impossible. Par ailleurs, toutes les données utilisées pour entraîner l’IA dès sa naissance ont un impact sur le résultat final et il est impossible de contrôler l’ensemble de ces données. Une hypothèse serait de pouvoir implémenter un mécanisme de certification dynamique qui pourrait qualifier l’outil de manière autonome en parallèle de l’utilisation de celui-ci. » précise François Terrier.

La certification à partir d’un référentiel est un enjeu majeur pour développer largement les technologies d’intelligence artificielle, mais ce référentiel reste à construire. « Une technologie qui fonctionne doit faire ses preuves pour devenir une technologie de confiance.Standardiser pour, à terme, certifier l’IA est donc le passage obligé pour une utilisation dans des situations critiques. » explique Arnault Ioualalen.

Les instances françaises de certification sont également la cible d’influences étrangères. « Face aux tentatives d’influence des entreprises étrangères telles que Microsoft ou IBM, Patrick Bezombes, le président de la commission Intelligence Artificielle de l’AFNOR, a tenté de redonner une orientation souveraine à la certification en coordonnant les réponses conformément à la stratégie d’indépendance entreprise par l’Etat. » précise Juliette Mattioli.

La stratégie française

Face aux géants qui cherchent à imposer leurs standards en matière d’intelligence artificielle, les pouvoirs publics français ont mis en place une stratégie en trois points : sécuriser, certifier, fiabiliser. Le 29 mars 2018, le président Macron annonçait que la recherche, l’ouverture des données et les enjeux éthiques et sociaux seraient les axes majeurs d’articulation de la stratégie du gouvernement. 1,5 milliard d’euros sera investi par l’Etat pour appuyer cette stratégie.

S’appuyant sur le rapport du député Villani, la stratégie française, intitulée « AI for humanity », a donné lieu à un « manifeste pour une IA au service de l’industrie ». Signé en juillet 2019 par des grands groupes tels que Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo, le manifeste vise à fédérer les acteurs de la filière. « Nous devons décloisonner les activités pour que les acteurs puissent échanger, partager leurs visions au service d’une stratégie globale. » indique Julien Chiaroni, directeur Grand Défi en IA de confiance au Secrétariat Général Pour l’Investissement (SGPI). La stratégie française prévoit notamment de faciliter les échanges entre le secteur privé et la recherche. Concrètement, il y aura une « simplification des démarches de création de start-up pour les chercheurs, [une] accélération des procédures contractualisant les projets scientifiques, ou encore [une] possibilité pour un chercheur de consacrer 50% de son temps à un projet privé (au lieu de 20% aujourdhui) »4.

Forte de plus de 5000 chercheurs et de près de 400 entreprises spécialisées, « la France possède une vision claire de ce que doit être l’utilisation de l’IA pour les systèmes critiques, un véritable atout susceptible d’appuyer une troisième voie française et européenne. » avance Juliette Mattioli. « La France se démarque en défendant une vision singulière de l’IA. Là où Américains et Chinois se rejoignent sur une vision de l’IA des données, le modèle français apparaît comme une alternative en incluant l’IA symbolique et l’IA hybride. » décrit Arnault Ioualalen. « Le meilleur modèle se trouve probablement dans une synthèse entre ces différentes types d’IA, reste à trouver le bon équilibre. » partage Juliette Mattioli.

Vers un modèle européen ?

La charte de la Commission européenne pour l’Efficacité de la Justice (CEPEJ), se pose comme une alternative directe et éthique face aux velléités chinoises et américaines. « Les valeurs véhiculées par l’Union européenne en matière d’IA sont particulièrement reconnues dans le monde. Les géants du numérique parmi lesquels Alibaba et IBM s’intéressent de près à ce modèle où respect de la démocratie et éthique sont une exigence préalable et beaucoup plus protectrice que dans le reste du monde. » poursuit François Terrier. « Ethique européenne et savoir-faire français pourraient former une troisième voie crédible face aux hégémonies étrangères. » conclut Juliette Mattioli.

1 Clefs – Les voies de la recherche – Novembre 2019

2 Clefs – Les voies de la recherche – Novembre 2019

3 France-Intelligence Artificielle : https://www.vie-publique.fr/sites/default/files/rapport/pdf/174000247.pdf

4 Stratégie nationale de recherche en IA – https://cache.media.enseignementsup-recherche.gouv.fr/file/strategie_IA/60/7/mesri_IA_dep_A4_09_1040607.pdf