IA de confiance : le Grand Défi  

L’intelligence artificielle… celui qui « en sera le leader sera le maître du monde », avait déclaré Vladimir Poutine, en septembre 2017. Deux mois auparavant, le gouvernement chinois présentait son plan de développement pour l’IA, dont l’objectif était d’être le numéro 1 mondial à l’horizon 2030. Au-delà d’un enjeu géopolitique avéré et primordial, l’intelligence artificielle constitue également un défi sociétal de premier plan. S’il est communément admis que le développement de cette technologie bouleversera la société dans son ensemble, l’Union européenne et ses Etats membres conduisent une réflexion éthique de ses usages et de sa conception, afin de constituer une troisième voie sur la scène internationale. « Développer une IA de confiance, c’est une garantie de durabilité de son déploiement et de son développement », rappelait Nozha Boujemaa, membre du AI HLEG, groupement d’experts de haut niveau sur l’IA auprès de la commission européenne. Défendre cette approche devient le grand défi à relever dans la course à cette technologie disruptive !

Par Hugo CHAMPION

Les enjeux géopolitiques de l’IA

La course à l’intelligence artificielle revêt un caractère stratégique significatif. Le président russe l’avait formulé ainsi devant une assemblée d’étudiant à Iaroslavl : « celui qui deviendra le leader de l’intelligence artificielle sera celui qui dominera le monde ». Vingt années plus tôt, deux anciens colonels chinois de l’armée de l’air avaient prédit dans un ouvrage de pensée stratégique incontournable [La Guerre hors limites], l’extension du domaine de la guerre : « Il n’existe plus de domaines qui ne puissent servir la guerre et il n’existe presque plus de domaines qui ne présentent l’aspect offensif de la guerre ». Le monde des GAFAM et BATX nous montre à quel point la course à l’intelligence artificielle est disputée et génère des tensions dangereuses pour la stabilité des relations internationales. Dans son « Plan de développement d’une prochaine génération de l’intelligence artificielle » publié en juillet 2017, le Conseil des affaires d’État chinois dévoilait les moyens que se donne Pékin afin d’atteindre ses objectifs en matière d’IA. Le but est clair : devenir le leader mondial du marché de l’IA à l’horizon 2030. Technologie stratégique de premier plan, l’IA transformera également la guerre sur le plan militaire. De nombreux domaines sont concernés : le cyberespace, les capacités d’entraînement, de déploiement et de commandement, le développement de sous-marins, chasseurs, bateaux et tanks de combats autonomes. La France se positionne sur la modernisation de son armement, notamment avec le projet « Man Machine Teaming » (MMT), conduit par Dassault Aviation et Thales qui a pour but de faire émerger des technologies d’intelligence artificielle (IA) et d’interface homme-machine (IHM), au profit de l’aviation de combat du futur.

Quels impacts de l’IA sur nos sociétés ?

Au-delà même des enjeux géopolitiques de l’IA se dessine un enjeu civilisationnel. Selon ses usages, l’IA changera profondément les sociétés humaines. L’IA de confiance connaît des définitions différentes selon les régions du monde, bien qu’elles abordent souvent la question de l’éthique. Pour Google, l’IA doit protéger la vie privée et être socialement bénéfique, juste, sûre et responsable envers les individus. Pour IBM, l’IA devrait augmenter l’intelligence humaine plutôt que la remplacer, la confiance est la clé de l’adoption et les politiques de données doivent être transparentes. Au Canada, le débat sur l’IA aborde primordialement les risques que la technologie comporte, notamment la surveillance automatisée. L’IA déchaîne les passions. Présentée comme une menace fondamentale par certains, elle peut être interprétée comme une révolution positive par d’autres. Mais ne serait-il pas opportun de sortir de ce débat manichéen et d’aborder les enjeux civilisationnels de l’IA dans sa globalité ? L’essayiste et philosophe français Eric Sadin considère l’avènement de l’IA comme un « antihumanisme radical ». Selon lui, nous vivons le « tournant injonctif de la technique », qui conduirait l’homme à être guidé par la machine dans le choix de ses actions. L’IA d’aujourd’hui est vivement critiquée et la France et l’Europe ont choisi une autre voie reposant sur l’éthique et la confiance. « Le modèle actuel de l’IA ou plutôt de l’informatique théorique est très dangereux. Je défends l’idée que les traitements massifs produits par le calcul intensif produisent de la standardisation et de la diminution de la variabilité », nous expliquait le philosophe français Bernard Stiegler dans une interview accordée quelques semaines avant son décès. Partant du constat que l’IA a aujourd’hui une tendance structurellement entropique, Bernard Stiegler soulignait : « dans tous les cas, il faut qu’il y ait un processus d’interprétation humain ». L’urgence est déclarée pour défendre le modèle de société que nous voulons pour demain. « Nous souhaitons la création d’un vaste programme de recherche européen soutenu par l’armée car ce sont des objectifs stratégiques. Il faut développer de nouveaux modèles dans l’urgence. Il ne faut pas chercher à reproduire les modèles des Chinois et des Américains », indiquait le philosophe.

Quelle éthique ? Pour quelle l’IA ?

« Le défi éthique dépendra de nous », prévient André-Yves Portnoff, directeur de l’Observatoire de la révolution de l’intelligence à Futuribles. Et d’ajouter : « Comme pour tout progrès technique il faut se poser la question : pour qui et pour quoi ? La question de l’éthique est alors fondamentale car la responsabilité de l’homme est d’autant plus grande que la technique est plus puissante ». C’est pourquoi il faut définir les contours des usages que l’on veut avoir de l’intelligence artificielle. « Il faut comprendre ce qu’est l’IA et qu’on l’applique selon des valeurs positives. Il faut donc avoir la force d’imposer notre modèle sur les marchés ». Pour relever ce défi, il faudra que l’Europe « crée des majors en face des majors américains et chinois, d’où la nécessité de faire un small business act qui réserverait un cinquième des marchés publics aux petites et moyennes entreprises », préconise André-Yves Portnoff. La vision à long terme que doit s’offrir l’Europe repose sur un modèle qui reste à inventer et qui garantirait la confiance des citoyens envers cette technologie disruptive. « On se plaît à considérer que la domination de la machine sur l’homme constituerait le danger suprême du progrès technologique. Mais ce n’est pas tant ce péril hypothétique mais plutôt ce qui se passe aujourd’hui qui devrait nous inquiéter : la cécité éthique qui nous amènerait à laisser une technologie se diffuser sans en maîtriser les effets », soulève Maxime des Gayets, Conseiller régional d’Ile de France. La nécessité de développer un modèle innovant d’application et d’utilisation de l’IA est alors partagée. « Il existe des risques liés à l’IA : l’homme augmenté par exemple. C’est pourquoi un contrôle éthique permettant de l’orienter est indispensable », confirme Guy Mamou-Mani, co-président du groupe Open et auteur de l’ouvrage L’Apocalypse n’aura pas lieu.

L’éthique de l’IA se développe sur de nombreux axes, parmi lesquels la mise en place d’une IA robuste combinée à une IA responsable, constituant ainsi les deux socles indispensables à la création d’une IA de confiance. Car, « la confiance c’est bien. Mais la preuve que le consentement est respecté, c’est encore mieux », souligne Nozha Boujemaa. Docaposte, société de la branche numérique du Groupe La Poste, tiers de confiance numérique et expert du traitement de données sensibles, prône lui aussi une IA responsable reposant sur 4 piliers : la transparence sur l’origine des données ; l’information sur les différents systèmes utilisés ; l’humain au centre en l’impliquant dans la mise en œuvre de l’IA ; la cybersécurité et l’intégrité des systèmes IA. « Notre positionnement responsable est aussi un élément différenciant, en particulier vis-à-vis d’acteurs américains ou chinois qui ne répondent pas aux mêmes réglementations et ne proposent pas les mêmes garanties, notamment en termes de transparence et de protection des données », souligne Fabien Aili, Responsable IA Docaposte. Si des initiatives montrent que des lignes bougent, le chantier reste encore vaste. Pour accompagner le développement de notre modèle, il sera indispensable d’inclure de la formation éthique et philosophique dans les carrières d’ingénieur afin de donner une conscience à notre science. La France est pionnière dans la conduite des réflexions sur l’IA et veut s’ériger en leader de l’IA de confiance. Ainsi, l’initiative AI For Tomorrow, témoigne de cette ambition française. Lancée en mai dernier, son programme vise à faireémerger des usages citoyens de l’intelligence artificielle. Au contenu proposé pour inciter à penser le monde de demain grâce à l’IA, s’ajoute l’innovation challenge destiné aux moins de 28 ans pour aider à construire le monde de demain grâce à l’IA dans 3 domaines : santé, environnement et société. Les 9 finalistes seront connus courant octobre.

L’impact de l’IA sur le travail

D’après une étude du cabinet McKinsey, d’ici 2030, 60 % des métiers pourraient être concernés par l’automatisation. Cependant, un rapport du FMI datant de 2018, explique que nous devrions connaître une création de 58 millions d’emplois d’ici 2022. Si l’évaluation de l’impact de l’IA sur l’emploi varie et demeure très difficile à évaluer, le déploiement de l’IA dans l’économie engendre d’ores et déjà des besoins en spécialistes de l’informatique et des mathématiques. « Nos métiers sont de plus en plus impactés par la digitalisation et l’intelligence artificielle, dans les domaines de la robotique, de la maintenance, de l’architecture industrielle ou de l’automatisation », analyse Mikaël Butterbach, responsable emploi, formation et gestion des compétences d’Airbus. Parmi les emplois les plus menacés, le rapport sur l’IA de Cédric Villani, mentionne notamment les postes d’ouvriers non qualifiés dans les industries de process, la manutention, le second œuvre du bâtiment, la mécanique ainsi que les agents d’entretien ou les caissiers. Si la disparition de nombreux métiers se dessine, d’autres seront irremplaçables. « Peut-être que certains métiers seront in fine amenés à disparaître car l’IA pourra dans certains domaines, faire le travail aussi bien voire mieux qu’un humain mais elle ne remplacera pas l’expert. Elle sera plutôt son assistant », pense Pascal Bianchi, professeur enseignant chercheur en statistique et optimisation à Télecom Paristech. Il est donc nécessaire d’engager une réflexion en profondeur sur la disparition des emplois qui met l’employé dans une situation de fragilité. « Ne nous trompons pas d’objectif : il faut protéger les employés, non les emplois. De tout temps des emplois ont disparu et de nouveaux ont vu le jour, avec, in fine, un nombre total d’employés toujours plus important », prévient Fabrice Asvazadourian, directeur exécutif d’Accenture Strategy en France. La destruction créatrice est un processus historique qui, lors des révolutions techniques, a vu des emplois supprimés et d’autres apparaître. 75 millions d’emplois seront reconvertis tandis que 133 millions « de nouveaux rôles peuvent apparaître, plus adaptés à une nouvelle division du travail ». Selon une étude PwC datant de 2018, l’intelligence artificielle pourrait créer autant d’emplois qu’elle en supprimera. « Il faut prendre conscience qu’à chaque fois que l’opérateur humain sera remplacé par un logiciel, la compétence humaine disparaîtra », souligne André-Yves Portnoff. « De nouvelles formes d’emplois vont arriver, il semble important de s’y préparer plutôt que d’y résister » explique Guy Manou-Mani. Pour répondre à cet enjeu, le rapport Villani précisait que « pour assurer la complémentarité de l’humain avec l’IA, ce sont les compétences cognitives transversales, mais également les compétences sociales et relationnelles et les compétences créatives qui devront être développées ». Ainsi, certains métiers évolueront et occuperont une place centrale comme les data scientists ou les ingénieurs de l’IA. D’autres métiers devraient voir le jour. C’est le cas des éthiciens (responsable de la dimension éthique liée à l’IA), le psydesigner qui dessinera les contours de la personnalité de l’IA ou encore l’egoteller qui aura pour mission de modéliser le profil établi par le psydesigner.

L’IA et la santé

L’utilisation de l’intelligence artificielle dans le domaine médical nourrit de nombreux espoirs. Ce domaine fait partie en France des cinq axes des Grands défis, choisis par le Conseil de l’innovation et financés à hauteur de 120M€ par an par le Fonds pour l’innovation et l’industrie (FII), dont l’objectif est de répondre à des enjeux sociétaux dans des domaines stratégiques nécessitant la levée de barrières technologiques. L’enjeu est de taille. Il s’agit d’accélérer le développement de nouveaux produits et de favoriser l’arrivée d’une prise en charge individualisée des patients. Ces objectifs s’appuieront sur la collecte des données et leur standardisation où il faudra fédérer les acteurs concernés, dans le but de créer une industrie du numérique de santé souveraine et compétitive ; l’interopérabilité des centres d’archivage, et l’uniformisation des accès, des échanges et leur sécurisation ; la mise en  œuvre de plateformes de recherche collaboratives intégrant des infrastructures de calcul et de stockage au meilleur niveau mondial ; le développement d’outils logiciels permettant de traiter et d’exploiter le volume considérable de données médicales afin d’offrir des analyses  prédictives et prescriptives dans le cadre du parcours de soin. Des appels à projets ont donc été lancés afin d’améliorer les diagnostics médicaux par l’IA. C’est le cas de E-Scopics, start-up situé à Aix-en-Provence, en partenariat avec le CHU de Bordeaux, qui développe son premier produit (une App logicielle utilisant une sonde d’échographie ultra-portable digitale) pour les marchés de deux spécialités cliniques : l’endocrinologie et la gastroentérologie. L’objectif du projet AIDA-Ultrasound est de guider l’utilisateur dans la prise en main de ce dispositif en développant des outils d’assistance au positionnement de la sonde et à l’acquisition de mesures. Si les opportunités de l’IA dans le domaine médical sont porteuses de nombreuses promesses, le Dr Loïc Etienne, auteur de l’ouvrage publié en 2020 Les Sorciers du futur aux éditions Livre-Marabout, défend que la machine ne remplacera jamais l’homme. « Dans dix ans, l’intelligence artificielle sera capable de faire aussi bien sinon mieux que le médecin dans différents domaines : l’analyse de la plainte du patient, l’enquête sur l’histoire de la maladie (anamnèse), l’examen clinique, l’interprétation des examens complémentaires (…). Mais la machine ne pourra jamais remplacer le médecin dans tous les aspects de négociation de la plainte, du diagnostic et de la guérison ». La machine traite tandis que le médecin soigne, d’où l’importance de conserver le lien entre le soigné et le soignant. « Tant que le médecin utilise ces programmes comme une aide, une documentation, voire une extension de son cerveau, le lien entre lui et le patient reste entier. Mais dès lors que le patient se trouvera directement confronté à la machine, la médiation avec le médecin disparaîtra et, avec elle, tout ce qui fait la relation thérapeutique. A fortiori, l’absence de prise en compte du corps du patient grâce à l’examen clinique privera celui-ci du soin. C’est pourquoi une machine ne pourra jamais soigner : il lui manquera toujours cette empathie que le patient réclame en plus de la compétence médicale », prévient Loïc Etienne. Si dans son ouvrage, Loïc Etienne expose l’apport extraordinaire de l’IA dans le domaine médical, il souligne le risque lié au libre arbitre : « Avec la masse de données récupérées par des capteurs microscopiques à la durée de vie quasi éternelle, la machine sera dotée d’un pouvoir de décision exorbitant sur nos vies. Il faut que la société civile mette en place des garde-fous. Pour que nous devenions des sorciers du futur et non des apprentis sorciers ».

Le Grand défi devra s’appuyer en amont sur la CNIL, afin de sécuriser juridiquement les méthodes d’anonymisation des données personnelles sensibles, ainsi que les instances en charge de la déontologie médicale (le comité consultatif national d’éthique pour les sciences de la vie et de la santé, le conseil national de l’ordre des médecins ainsi que celui des pharmaciens) et l’Institut national des données de santé. Il devient urgent de développer une médecine éthique liée à l’IA car la technologie, elle, est déjà là. « Des domaines sont pratiquement à portée de main : assistance diagnostic mais aussi pronostic », indique Hugues Berry, directeur scientifique adjoint chargé de la santé et de la biologie à l’Inria. L’IA de confiance dans la santé passe par la résolution des problèmes de biais et l’explicabilité. « Les données brutes sans algorithmes sont une masse inerte et les algorithmes sans données sont des processus creux », rappelle Nozha Boujemaa. Cela implique donc que la réflexion éthique « s’intéresse aux algorithmes eux-mêmes, pour éviter qu’ils ne constituent des boîtes noires, et d’autre part à l’intégrité des données, car elles sont susceptibles d’introduire des biais dans un algorithme a priori « loyal » vis-à-vis de l’usager », explique Jérôme Béranger, chercheur associé en éthique du numérique à l’unité Inserm de l’Université Paul Sabatier de Toulouse. Néanmoins, comme l’illustre l’expression « Garbage in, garbage out, les programmes d’intelligence artificielle sont toujours biaisés, que ce soit volontairement ou involontairement », souligne André-Yves Portnoff. Le second axe de la confiance, celui de l’explicabilité, est alors fondamental. « Le principe d’explicabilité en médecine est primordiale, et pour l’instant, nous ne savons pas encore très bien le faire », souligne Hugues Berry.

La souveraineté des données est le défi premier pour les Etats européens dans le but de garantir notre modèle basé sur l’IA de confiance. Si les critiques soulevées par l’IA sont indispensables au débat qui doit avoir lieu, nous ne pouvons nous priver d’un telle technologie qui est amenée à bouleverser la vie des Hommes. C’est à peu près la seule certitude que l’on peut émettre sur ce sujet aujourd’hui ! Mais évoluer et saisir des opportunités, c’est aussi accepter le changement, les risques et un saut qui comporte forcément une part d’inconnu…