Les conséquences inattendues de l’éthique de l’IA

Comme le notait le World Economic Forum, la réflexion sur l’éthique de l’IA avait produit dès 2021 déjà plus de 90 textes détaillant 200 principes et cela avant même l’introduction de ChatGPT ! On peut citer ente autre les textes de l’Unesco (novembre 2021), le premier à poser un texte de nature réellement mondiale, mais aussi de l’OCDE (mai 2019), du Pentagone (février 2020), du World Economic Forum (juin 2021), ou de l’Union Européenne (avril 2021). Quelles réflexions ces comités d’experts, de diplomates et autres technocrates ont-ils pu produire, en s’engageant sur le chemin tortueux mais nécessaire de l’éthique dans lequel s’étaient déjà aventurés de nombreux philosophes de Socrate et Aristote à Peter Singer en passant par Baruch Spinoza ?

Par Guy-philippe Goldstein, Enseignant à l’Ecole de Guerre Economique, Advisor PwC

Ethique de lutilisateur et des sociétés humaines

Une grossière synthèse identifie deux classes de recommandations éthiques. La première concerne l’utilisateur du système. La machine doit toujours être contrôlée de manière plus ou moins rapprochée par son utilisateur. Sinon, il n’y a plus d’assurance que la machine satisfasse à la volonté de son utilisateur. Cette condition définit précisément qu’il s’agit d’ailleurs d’une machine ; sinon, c’est fonctionnellement une anomalie (voire un accident). Cette éthique du contrôle s’exprime par la transparence, la prouvabilité et la traçabilité de la décision, qui garantit à l’utilisateur la vérification pour contrôle. Elle s’énonce également via les impératifs de fiabilité, dans la sécurité face aux aléas de la nature ou tout simplement face au dysfonctionnement pour des raisons de mauvaise qualité ; mais aussi dans les impératifs de sûreté face à la volonté d’acteurs malicieux d’interférer avec l’usage de ces systèmes, et donc la nécessité de la cybersécurité, devenue centrale à l’âge du code qui « avale le monde ». Enfin, elle impose ce que les militaires américains appellent la gouvernabilité du système, au premier rang desquels la présence d’un « bouton » d’arrêt d’urgence, toujours disponible : sa présence est le marqueur critique du rapport de contrôle dans la dialectique de l’utilisateur humain et de la machine. De même, celle-ci ne peut s’en prendre à son utilisateur au titre que le contrôle ultime est rompu.

La deuxième classe de recommandation éthique concerne les effets directs et indirects de ces systèmes autonomes sur le reste du monde. Comme tout système complexe ou composante d’une personne morale, le système autonome d’IA doit agir dans le cadre de la loi – un point qui n’est pas nécessairement explicité dans beaucoup de textes. Ce système d’IA doit avoir des responsables juridiques clairement identifiés au cas où des parties prenantes contesteraient son action. Il doit aussi éviter les zones grises qui pourraient potentiellement l’exposer à des actions de justice. On peut ainsi citer les biais induits en termes de discrimination contre les femmes ou les minorités – par exemple, si l’IA s’occupe d’emploi ; la nécessité de garantir la sécurité des données personnelles ; ou encore la protection physique ou psychologique de l’ensemble des autres être humains exposés à ces systèmes – ou, dans le cadre d’IA militaire, l’adhérence au droit des conflits armés nécessitant respect des civils et réponses proportionnées. De manière générale, ces systèmes doivent idéalement contribuer au reste des sociétés humaines en maximisant les externalités positives et en minimisant les négatives – par exemple, en évitant d’amplifier désordre social ou dérèglement climatique.

Une boite de Pandore éthique

L’ensemble de ces textes, pour la plupart publiés depuis 2017, posent une première réflexion autant qu’ils ouvrent de nouvelles questions.

Avec un corpus si large, il y a un premier risque : créer une si grande complexité dans la compréhension de ce qui doit être fait, que finalement peu de chose ne devient réalisable de manière concrète. Or, comme le rappelle entre autres John Stuart Mill, ne rien faire peut avoir un impact sur soi et sur les autres ; et dans certains cas, induire autrui à l’inaction par la confusion et la complexité constitue une action contraire à l’éthique. Des organismes comme l’OCDE, le World Economic Forum ou le Pentagone ont développé soit une base de données d’outils, soit des débuts de recommandations concrètes et pratiques. Mais pour maintenir toute crédibilité, il faudra donner une incarnation concrète et facile à mettre en place, et pour les organismes de toute taille et bourse – sous peine d’un discrédit – si ces idées importantes demeurent à l’état de rapport sur étagère.

Il y a aussi un problème d’évaluation : pas d’efforts approfondis sans mesure claire du coût de l’externalité négative que l’on veut réduire ; et sans priorisation des problèmes à traiter. Le risque est bien de tomber soit dans la « liste à la Prévert » qui prête le flanc à l’ « ethic-washing » ; soit dans le catastrophisme – d’autant que certains chercheurs en IA convoquent parfois des comparaisons avec le nucléaire, ou même avec un Armageddon qui viendrait nous saisir par surprise. Il s’agit peut-être d’une exagération : en matière d’accidentologie, avant d’être face aux catastrophes les plus graves, il y a le plus souvent tout un ensemble de signes avant-coureurs d’incidents ou quasi-accidents. Mais à convoquer une apocalypse qui ne viendra pas, on risque de démobiliser à nouveau. La question de l’évaluation se posera donc ; et avec elle, peut-être, la nécessité de relire Baruch Spinoza qui nous indiquait qu’il fallait regarder toutes choses, et donc les conséquences de nos actes, non pas « sub specie durationis », avec un regard étroit, mais « sub specie aeternitatis », en embrassant la vue la plus large en termes de durée et de géographies, et dans les conséquences directes et indirectes. Peut-être que les simulations à base d’IA elles-mêmes pourront aider à l’évaluation des impacts d’autres systèmes d’IA ?

Enfin, reste le piège posé dans ces définitions : celle du respect de la loi. Que faire quand celle-ci même ne respecte pas les droits humains les plus fondamentaux ? Peut-on intégrer des systèmes d’IA venus de juridictions qui ne respectent pas ces droits humains, au risque d’influencer nos propres résultats ? C’est la question que pose l’intégration technologique avec des régimes totalitaires comme par exemple celui de la Chine, pour lesquels les membres de certaines minorités ethniques sont collectivement privés de droits fondamentaux et sont victimes de génocide. Dans ce contexte, demander le respect de principes éthiques à l’IA impliquera des tensions géopolitiques encore plus fortes. C’est aussi cela, la conséquence de respect de l’éthique dans l’IA : un choix plus assumé de nos valeurs.