IA : la course à la régulation est lancée

Les Intelligences Artificielles (IA) génératives ont donné un puissant coup d’accélérateur aux tentatives de régulation globale de l’IA. Face à ces technologies dont le potentiel vertigineux impressionne et enthousiasme autant qu’il inquiète et questionne, les initiatives se multiplient pour encadrer, de façon plus ou moins contraignante, leur développement et leurs applications. Outil de soft power pour les uns, de diplomatie scientifique pour d’autres, enjeu industriel, concurrentiel et géopolitique, le défi sera de concilier progrès et innovation avec confiance et sécurité.

Par Marie Rollet

Lexception européenne

« Le monde avait absolument besoin dune règlementation, surtout depuis la révolution de lIA générative qui pose des défis de robustesse et de sécurité encore plus importants que les IA classiques : cest un cocktail encore plus « boite noire », très puissant, extrêmement proliférant. » souligne Nicolas Miailhe, Co-fondateur et CEO de PRISM Eval, Fondateur et Chairman non exécutif, The Future Society. Pour une fois, l’Union européenne (UE) tire la première. En décembre 2023 elle adopte l’IA Act, qui impose aux systèmes d’IA (SIA) des obligations en fonction de leur niveau de risque, pour les rendre dignes de confiance, durables, inclusifs et centrés sur l’humain, tout en préservant la compétitivité et le bon fonctionnement du marché européen. « LEurope est la première à proposer sa vision de la régulation de lIA. Une démarche courageuse, engageante, pionnière, qui porte les valeurs européennes. » se réjouit Alexandra Bensamoun, Professeure de droit à l’Université Paris-Saclay et membre du Comité interministériel de l’IA.

L’UE n’est pourtant pas la seule à s’être penchée sur la question. « La Chine sy intéresse depuis 2017, bien avant les Européens » rappelle Emmie Hine, chercheuse en éthique et gouvernance de l’IA à l’Université de Bologne, qui précise : « Son « Plan de développement de lIA nouvelle génération »affichait alors déjà son ambition de simposer comme un leader mondial. En a résulté une série de règlementations sectorielles visant tant les algorithmes de recommandations des plateformes que les technologies de synthèse de voix et dimages, les IA génératives ou encore plus récemment la reconnaissance faciale. » L’Australie, qui avait proposé dès 2018 un cadre éthique volontaire, annonçait début 2024 vouloir renforcer son arsenal avec des mesures obligatoires. Le Royaume-Uni a lui lancé fin 2023 l’IA Safety Institute qui testera les nouveaux modèles d’IA des entreprises qui seront volontaires. Singapour ou la Corée du Sud ont aussi adopté ce format. Aux Etats-Unis, l’offensive réglementaire a pris la forme d’un Executive Order destiné à « faire en sorte que lAmérique montre la voie en saisissant les opportunités et en gérant les risques de lIA. »1

Le texte européen se distingue, en étant le premier instrument juridique contraignant et global proposant une approche horizontale « par les risques ». Objectif : prévenir et encadrer les risques sans entraver le développement technologique. Une approche partagée par l’Australie notamment, mais aux antipodes de celle de la Chine, où « lhistoire de lencadrement de lIA est celle de la recherche dun équilibre entre développement économique et stabilité sociale… L’IA générative, en particulier, peut être considérée comme potentiellement subversive et comme une menace pour le parti communiste. Malgré cela, la Chine s’efforce de promouvoir le développement de l’IA générative, d’une manière plus contrôlée. » analyse Emmie Hine.

L’ « Effet de Bruxelles » 

« Maintenant que nous sommes lancés, nous ne pouvons plus revenir en arrière. Il faut désormais exporter cet élan le plus rapidement et le mieux possible pour faire jouer l’«effet de Bruxelles ». » encourage Nicolas Miailhe. L’IA Act peut-il être un outil de « soft-power » européen, un instrument de l’influence normative de l’UE comme le RGPD ? « C’est déjà le cas ! » répond Nicolas Miailhe et de poursuivre : « Les premières annonces de régulation européenne ont été accueillies avec scepticisme en 2019, mais ça n’est pas une coïncidence si les autres grandes initiatives de régulation de l’IA se sont concrétisées alors que se cristallisait le débat sur l’IA Act : décret Biden, Safety Summit, accord du G7… ». Mais si l’Europe donne le ton « c’est aussi parce qu’elle a donné à l’IA Act une portée extra-territoriale. Toutes les entreprises qui souhaitent entrer sur le marché européen devront s’y soumettre, or c’est un marché d’une taille critique qu’aucun acteur du secteur ne peut négliger. » rappelle Alexandra Bensamoun. Les géants américains de l’IA ne s’y sont pas trompés, défilant dans les capitales européennes au printemps 2023 pour y exercer un lobbying actif, bien conscients de l’impact du règlement à venir sur leurs activités. Et c’est bien l’effet recherché : « faire peser un cadre sur les comportements de ceux qui développent, qui déploient et qui investissent dans ces technologies. » se félicite Nicolas Miailhe. Mais pour que l’IA Act s’exporte, il faudra aussi gagner la bataille des standards. Celle qui oppose le CEN-CENELEC mandaté pour élaborer les standards qui mettront en œuvre le règlement sur le plan technique, et l’ISO qui mène les travaux sur des standards internationaux pour l’IA. « Il est impératif que les Européens se jettent dans cette bataille car les standards sont d’une puissance phénoménale » insiste Nicolas Miailhe. L’opportunité pour l’UE de façonner des normes conformes à ses intérêts, qui constituent des atouts en termes de compréhension du marché, d’anticipation, d’innovation… et qui lui donnent un avantage concurrentiel à l’export, car « celui qui contrôle les normes contrôle le marché »

Des marchés à saisir

En 2030, l’IA pourrait générer un chiffre d’affaires de près de 200 milliards de dollars.2 Doit-on craindre que l’initiative règlementaire européenne n’empêche l’UE de se tailler une part de ce gâteau ? L’IA Act, avec ses obligations et interdictions, risque-t-il de brider l’innovation ? De freiner le développement d’acteurs européens au profit d’entreprises de pays moins-disants en matière de régulation ? C’est ce que redoutaient en Europe les partisans d’une approche plus souple favorisant l’autorégulation, comme l’Allemagne, l’Italie ou la France. « Nous pouvons réguler beaucoup plus vite que nos compétiteurs, mais il faut être à la bonne vitesse. Si nous perdons des leaders à cause de cela, il faudra revenir dessus », alertait le Président Français, Emmanuel Macron. Pour d’autres au contraire la règlementation est la condition de l’émergence de champions européens, « le gage dun environnement de confiance et dune sécurité juridique sans laquelle ne peut pas aspirer au développement dun écosystème pérenne. » selon Alexandra Bensamoun. La plainte du New York Times contre Microsoft et OpenAI pour infraction au droit d’auteur et concurrence directe et déloyale en est un bon contre-exemple. Et elle n’est que la partie émergée d’un iceberg d’actions contre les acteurs de l’IA, plus déstabilisants que des contraintes juridiques connues et anticipées…

Garantir la solidité et la pérennité de l’écosystème, c’est aussi sécuriser l’environnement concurrentiel. « Car si beaucoup dentreprises travaillent à l’élaboration dIA, seul un petit nombre détient les clés de son industrialisationRéguler lIA doit permettre dassainir certaines pratiques. Le rôle des autorités de régulation est donc essentiel aux côtés du législateur. » souligne Alexandra Bensamoun. En février, l’autorité de la concurrence française s’est auto-saisie sur l’IA générative pour examiner entre autres les prises de participation des grands acteurs du numérique dans des entreprises innovantes du secteur. En décembre dernier, son homologue britannique annonçait analyser le partenariat entre Microsoft et OpenAI pour déterminer s’il s’apparentait à une fusion. La Federal Trade Commission aux Etats-Unis ou la Commission européenne se sont lancées dans la même démarche.

Car garantir un environnement compétitif, respectueux du droit de la concurrence, répond aussi aux valeurs portées par l’IA Act, comme la transparence, l’auditabilité, ou la lutte contre les risques systémiques. Des valeurs qui peuvent représenter un avantage compétitif tant elles répondent aux attentes des consommateurs comme des investisseurs. « Mais cest un horizon de long terme et cela ne se fera pas tout seul. Il faudra financer, subventionner, accompagner Nous avons eu le courage d’établir un cadre réglementaire, de nous entraver, il faut maintenant avoir lintelligence de décupler les efforts de soutien à linnovation. Si on veut faire de lIA Act un avantage compétitif, il faudra une vraie politique industrielle, bien exécutée. Ce qui nécessitera notamment de recruter les meilleurs talents techniques au sein du EU AI Office et de leur donner une place suffisante. » alerte Nicolas Miailhe.

Lindispensable entente

Si la régulation de l’IA est aujourd’hui source de dissensions, elle devra trouver des points d’entente a minima. « On ne peut pas traiter les grandes questions de sûreté de lIA et leur traduction dans les chaînes de valeur critiques, y compris sur le plan militaire, sans sentendre au niveau international, avec la Chine notamment. » averti Nicolas Miailhe. Un pari ambitieux au vu des différences d’approches et de la situation géopolitique et des tensions internationales, qui pèsent sur la capacité à trouver un accord. « Au vu de l’importance stratégique de lIA, de nombreux autres sujets entrent en ligne de compte : semi-conducteurs, 5G et sanctions contre Huawei… » rappelle Emmie Hine. Si le rêve d’une Convention internationale embarquant tous les Etats est illusoire, il faut a minima s’efforcer de « favoriser un minimum de convergence autour dun cadre qui puisse passer au-delà de ces tensions géostratégiques, un cadre même imparfait mais qui permette de se coordonner avec des pays considérés comme plutôt ennemis. Comme un régime hybride de normes contraignantes, codes de conduite, standards, qui forment un faisceau convergeant de points de pression sur les comportements de développement, de déploiement, dinvestissements. » propose Nicolas Miailhe.

« Lobjectif est douvrir et maintenir un dialogue favorisant une meilleure gouvernance globale de lIA. Si l’IA Safety Summit a suscité le scepticisme de certains, il a le mérite davoir réuni tous les acteurs, même sur des sujets aux enjeux limités. » ajoute Emmie Hine. L’accord de novembre 2023 entre la Chine et les Etats-Unis sur l’interdiction de l’utilisation de l’IA dans les armes autonomes ou les efforts de l’UNESCO et du Secrétaire Général de l’ONU pour faire participer les pays en voie de développement à ces réflexions constituent ainsi autant d’éléments de convergence, certes partiels et imparfaits, mais qui pourraient ouvrir la voie à un travail de concert des nations pour une IA transparente, sûre et inclusive.

1 FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House

2 Intelligence artificielle : valeur du marché mondial 2021-2030 | Statista