L’éthique des algorithmes : quel futur voulu par l’homme ?

« En matière d’intelligence artificielle (IA), la confiance n’est pas un luxe mais une nécessité absolue. » déclarait Margrethe Vestager, vice-présidente pour une Europe adaptée à l’ère du numérique. Les biais s’invitent dans chaque algorithme et doivent être maîtrisés afin de faire de l’IA un domaine le plus éthique possible. Comment penser l’éthique de ces algorithmes ? Quel futur pour nos sociétés de plus en plus dépendantes ?

Par Camille Léveillé

Accords et réglementations internationaux

La Commission européenne s’est emparée de la question dès 2018. En février 2020, le livre blanc “Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance” a pris en compte les potentiels risques créés par l’IA et les algorithmes. « Il est capital que lIA européenne soit fondée sur nos valeurs et nos droits fondamentaux, tels que la dignité humaine et la protection de la vie privée. »notait la Commission. En avril 2021, elle présentait au Parlement européen sa proposition de réglementation sur l’IA, basée sur l’identification et l’encadrement des risques. Si la première pierre d’un cadre normatif opposable aux Etats membres de l’UE a été posée, la transposition de ce règlement dans les droits nationaux risque d’être longue. Il aura fallu 4 ans au RGPD. Mais, Christine Balagué, professeure à Institut Mines-Télécom Business School et co-titulaire de la chaire “Good In Tech” se veut optimiste, croyant dans le « potentiel de lEurope sur ces questions ». 

L’UNESCO s’est aussi emparé du sujet via l’adoption par 193 pays du premier accord sur l’éthique de l’IA. Il vise à « concrétiser les avantages que lIA apporte à la société et à réduire les risques quelle comporte. Elle veille à ce que les transformations numériques favorisent les droits de lhomme et contribuent à la réalisation des Objectifs de développement durable, en abordant les problématiques liées à la transparence, la responsabilité et la vie privée. »

L’objectif est de fournir un cadre normatif aux Etats à qui incombent « la responsabilité de lappliquer à leur niveau » selon Audrey Azoulay, Directrice Générale de l’UNESCO. Les signataires devront « rendre compte régulièrement de leurs progrès et de leurs pratiques » a-t-elle déclaré, sans toutefois préciser quelle forme prendraient ces comptes-rendus. Les Etats-Unis et Israël ont quitté l’organisation en 2011 et n’ont ainsi pas adopté cet accord alors même qu’ils figurent parmi les Etats les plus proactifs dans le numérique. L’Iran, la Russie et la Chine ont, eux, signé cet accord qui, rappelons-le, n’a aucune portée juridique.

La nomination d’un ministre de l’Intelligence artificielle et la création d’un “hub de l’IA” à Dubaï illustrent l’engagement des Emirats Arabes Unis (EAU) en faveur de l’IA. Ils ont également été sélectionnés par l’ONU pour être l’un des quatre pays siège régional de la plateforme “Big Data pour le développement durable”. L’émirat entend créer une richesse nouvelle puissante grâce aux investissements dans ce secteur. Les conclusions d’un rapport de PWC Middle East indiquent que 14% du PNB 2030 des Emirats devraient provenir de toutes les composantes de l’activité liée à l’IA, soit 96 milliards de dollars. 

La France et le Canada ont signé, dès 2018, la Déclaration franco-canadienne sur l’intelligence artificielle. Un an plus tard, ils annonçaient la création d’un Groupe International d’experts en Intelligence Artificielle (G2IA), premier groupe de travail de coopération concerné par ces enjeux. Invitant les Etats qui le souhaitent à les rejoindre, seul le Japon s’était montré intéressé… sans toutefois se décider. 

Toute la difficulté de définir une éthique de l’IA repose sur le fait qu’il existe à travers le monde des conceptions différentes liées aux cultures diverses. L’expérience de la Moral Machinemontre qu’une IA est chargée de biais cognitifs relatifs à la culture de ses concepteurs.

Des chartes à profusion

Arborus et Orange ont rédigé une charte destinée à toute entreprise de la tech et de l’IA visant à « respecter la diversité en veillant à ce que lensemble de la chaîne de valeur de la donnée soit responsable et que les biais discriminatoires soient identifiés et maîtrisés ». Les engagements des 105 entreprises signataires sont multiples : promotion de la mixité et de la diversité pour les équipes qui travaillent sur des solutions d’intelligence artificielle, formation et responsabilisation des acteurs impliqués dans leur création pour réduire les biais, etc.

Fin septembre 2021, c’est au tour de Numeum de lancer “Ethical AI”, une initiative reposant sur 3 piliers : l’existence d’un manifeste matérialisant l’engagement des signataires, un guide pratique et le développement d’une communauté d’entraide visant à ce que chacun progresse ensemble. Le projet rassemble ONG, entreprises, think-tank, instituts interdisciplinaires d’IA et écoles, soit près de 80 organisations et plus de 360 contributeurs. « Il sagit daider au quotidien le développeur, le chef de projet, le data scientist, le data ingénieur, tous ceux qui travaillent sur des projets dintelligence artificielle, et leur donner des repères très concrets pour développer cette IA éthique qui participe à un environnement numérique de confiance. Dans la pratique cela signifie : dire comment jarbitre entre un résultat que je veux obtenir et des contraintes qui sont liées à mon algorithme et à mes données. On a besoin dune grille danalyse permettant de savoir sur quels critères on va faire ces choix et sassurer quils soient les plus respectueux des individus, de leur vie privée, de leurs données… » témoigne Katya Lainé, présidente de la commission IA de Numeum et d’ajouter « les IA qui ne sont pas éthiques sont par définition inefficaces ! On ne peut plus aujourdhui concevoir des solutions dintelligence artificielle sans y intégrer la dimension éthique. » 

L’éthique des algorithmes : un enjeu dexplicabilité

« Exiger que les acteurs de lIA puissent revendiquer une approche éthique et transparente » est une des étapes les plus urgentes à franchir selon Françoise Halper, conseillère en stratégie digitale et anthropologie numérique. L’IA de confiance passe par la résolution des problèmes de biais et l’explicabilité. Cette dernière constitue « une valeur importante de l’éthique. Les entreprises capables dexpliquer le fonctionnement de leurs algorithmes en toute transparence ont un véritable avantage sur leurs concurrents » selon la conseillère.

La réflexion éthique doit s’intéresser « aux algorithmes eux-mêmes pour éviter quils ne constituent des boîtes noires. Mais aussi à lintégrité des données, car elles sont susceptibles dintroduire des biais dans un algorithme a priori « loyal » vis-à-vis de lusager »pour Jérôme Béranger, chercheur associé en éthique du numérique à l’unité Inserm de l’Université Paul Sabatier de Toulouse. 

Ethique européenne et savoir-faire français 

Forte de plus de 5000 chercheurs et de près de 400 entreprises spécialisées, « la France possède une vision claire de ce que doit être lutilisation de lIA pour les systèmes critiques : un véritable atout susceptible dappuyer une troisième voie française et européenne. » assure Juliette Mattioli, experte en intelligence artificielle chez Thales.

Les entreprises sont d’ailleurs prêtes à la transition vers une IA plus responsable. Selon un sondage publié prochainement par la “Chaire Good in Tech” : « 75% des sondés ont déclaré que linnovation technologique responsable n’était pas un frein à la compétitivité, au contraire » et d’ajouter : « Aujourdhui, nous proposons notamment de créer une Responsabilité Numérique de lEntreprise qui serait intégréà la Responsabilité Sociale de lEntreprise et qui permettrait davoir des innovations technologiques responsables. Ethique européenne et savoir-faire français pourraient former une troisième voie crédible face aux hégémonies étrangères. » conclut Juliette Mattioli.

Vers une certification éthique des algorithmes 

Aujourd’hui, trop de standards s’imposent sur lesquels les Européens ont peu, voire pas de prises. « IN Groupe déploie des équipements et des systèmes utilisant des algorithmes biométriques en France et en Europe. Ces algorithmes sont évalués au regard de critères techniques définis par une agence fédérale américaine. Ne pourrait-on pas imaginer que l’Europe se dote de sa propre capacité à certifier ses algorithmes, en profitant de l’occasion pour rajouter le volet éthique qui manque, à mon sens, à l’évaluation de ces derniers ? » interroge Didier Trutt, CEO d’IN Groupe.

Françoise Halper appelle elle à « mettre en place un label sur le modèle du nutriscore. Ainsi, les sites qui utiliseraient des algorithmes transparents et explicables auraient un score vert et, a contrario, les sites utilisant des algorithmes opaques et ne tenant pas compte de la dimension éthique auraient un score rouge. Si l’Europe établissait ce type de score, les consommateurs auraient connaissance des systèmes qui sont éthiques par essence. » Un système qui pourrait ainsi se faire vertueux et « tirer lensemble de l’écosystème vers le haut. La confiance par la transparence étant le gage de conserver sa clientèle, voire de l’élargir. »

Un « champ de mines éthique »

Malgré les efforts consentis et visibles, l’étude publiée par Alteryx en janvier dernier en partenariat avec YouGov « L’éthique des données : pas une priorité pour près de la moitié des travailleurs de la data » se veut alarmante : 47% des travailleurs français de la data considèrent que l’éthique des données n’est pas pertinente pour leur fonction. 

« Sur fond de programmes de formation défaillants, les projets d’IA continueront de constituer un « champ de mines éthique » pour les entreprises de toute la France. » alerte Alteryx. « Le manque de compétences fondamentales en matière de data constitue un obstacle majeur. S’il nest pas résolu, les biais de données involontaires peuvent conduire à des pratiques discriminatoires, ainsi qu’à des modèles d’IA inexacts, incorrects et incohérents » souligne Alan Jacobson, Chief Data and Analytic Officer chez Alteryx.

L’intelligence artificielle, combinaison de données et d’algorithmes, est avant tout une technologie conçue par l’Homme. Celles et ceux qui la développent font donc partie de l’équation. In fine, c’est donc bien, une fois de plus, à l’humain de définir, penser, introduire et maintenir de l’éthique au coeur même des systèmes d’intelligence artificielle.

Aussi, ne nous trompons pas, si l’intelligence artificielle est dépourvue d’éthique, aujourd’hui ou demain, la responsabilité incombera bien à l’Homme. D’une volonté de gouvernance des entreprises et des Etats, dépendra, une fois de plus, notre avenir.