L’intelligence artificielle : quels apports pour la cybersécurité ?

Auditeur du MBA spécialisé Management de la sécurité, Joël Olivier s’est intéressé à cette question et en a fait le sujet de son mémoire.
Il revient pour S&D Magazine sur les défis de l’intelligence artificielle et de l’Homme…

Par Simon Douaglin

L’Intelligence Artificielle ne cesse d’étonner par ses résultats qualitatifs spectaculaires et en constante progression. Rien de surprenant qu’elle entre en force dans le monde de la cybersécurité en souffrance de talents. L’impact sur les humains de cette réalité est significatif. Pour certains experts, le temps des humains est même compté ; nous serions des dinosaures à la fin du crétacé, prêts à être remplacé par des IA fortes. En effet, s’appuyant toujours plus sur des réseaux de neurones anthropomorphiques, elles permettent de porter la surveillance, la manipulation et l’attaque des humains à des niveaux jamais atteints jusqu’à présent. Elles ouvrent des perspectives impressionnantes pour les activités de changement de comportements de masses. De plus, alors que les automatisations précédentes impactaient des emplois faiblement qualifiés, elles visent désormais des fonctions très complexes, d’ingénieur sécurité à directeur général. A contrario, elles contribuent à une meilleure compréhension de nos mécanismes cognitifs et permettent d’assister de manière efficace les humains en leur donnant un premier niveau autorisé d’analyse.

Allant au-delà d’une simple adaptation par l’usage, les humains ont commencé à les attaquer, de manière efficace et dérangeante. Ce qu’ils sont capables de faire, tromper une reconnaissance de panneau routier par exemple, laisserait présager des actions à venir encore plus impactantes si la cybersécurité d’une organisation leur était confiée. Tout ceci finit par poser la question de l’acceptation de ces IA par les humains, dont la réponse est assez contrastée.

Réussites, limites et enjeux de l’IA

La création de systèmes experts se heurte à plusieurs grands problèmes : l’extraction des connaissances des experts et la difficulté de suivre la manière dont le système expert travaille (« raisonne ») lorsque le nombre de règles devient important. Bien que les systèmes experts s’efforcent de mimer le raisonnement des experts, ces derniers raisonnent différemment. Un humain perçoit le résultat, et vérifie ensuite ses hypothèses en testant si elles sont compatibles avec les faits connus. Enfin, les SE sont pénalisés par leur manque de souplesse. Ce sont notamment ces difficultés qui, face à la simplicité de création des réseaux de neurones, font qu’aujourd’hui ils sont l’approche privilégiée.

Certaines IA se sont illustrées face aux humains. L’IA AlphaStar est ainsi parvenue à battre des joueurs professionnels au jeu StarCraft en décembre 2018. L’exploit réside dans le fait que l’IA s’est adaptée à l’évolution du jeu. Le brouillard de guerre initial ne permettait pourtant pas d’établir une stratégie de départ mais l’IA à su apprendre et adapter son jeu au fur et à mesure. C’est le succès du deep learning contre la force brute.

Cependant, ce deep learning implique que l’on ne contrôle pas tous les paramètres qui régissent une IA. De même on ne peut pas toujours comprendre le fil de pensée qui a permis à une IA d’atteindre telle solution. C’est l’effet « boite noire ». Ces réseaux démontrent que d’une manière ou d’une autre il existe des corrélations là où les humains ne voient aujourd’hui que du bruit. A contrario, l’absence d’explication (ou de raisonnement) sur l’obtention d’un résultat pose de véritables problèmes, voire est bloquante, si les RN doivent être utilisés pour valider un recrutement, proposer un diagnostic médical par exemple ou encore dans le domaine militaire avec l’ouverture du feu.

Ce qui amène un questionnement sur la fiabilité de l’outil et de ses réponses. Doit-on se fier à une solution proposée alors que l’on en comprend pas les ressorts ?

Compte tenu des enjeux, beaucoup de chercheurs travaillent à comprendre ces mécanismes et nombre de résultats apparaissent. Il s’agit même d’un prérequis sur lequel se penche l’Union Européenne depuis 2018 ou encore la DARPA américaine qui a doublé son budget de projets consacrés aux « XIA7 » entre 2017 et 2019.

La suite ?

Face à des réussites de plus en plus étonnantes, nombre de chercheurs, d’auteurs ou encore de personnalités se sont appuyés sur ce concept d’origine mathématique de « singularité technologique » et avancent l’idée qu’un jour l’IA devenue « forte » s’affranchira de son créateur humain et prendra son indépendance.

Les tenants de cette théorie s’appuient sur les résultats spectaculaires de l’auto apprentissage, comme la capacité de générer du texte à partir d’un sujet qui pourraient être utilisée pour propager des documents crédibles propres à tromper un grand nombre de gens, ou encore les travaux autours des robots armés capables de prendre une décision d’ouverture du feu de manière autonome. Les plus optimistes visent la troisième décennie du 21e siècle.

Toutefois, même si les IA de DeepMind ont clairement fait preuve de créativité ou impressionné un certain nombre de grands maîtres internationaux d’échecs, il reste encore beaucoup de travaux à réaliser pour qu’une IA soit suffisamment généraliste pour pouvoir s’adapter aux situations très variées de la vie réelle ou encore capable de synthétiser d’autres réseaux de neurones sur lesquels elle pourrait se baser pour prendre des décisions dans un monde réel.

Apport de l’intelligence artificielle dans la cybersécurité

Alors que le réseau informatique se développe dans tous les domaines, la cybersécurité progresse afin d’assurer un suivi continu des installations. C’est une lutte en continuel mouvement. La cybersécurité se réinvente pour parer aux attaques. Si bien, que l’intelligence artificielle prend toute sa place dans cette lutte constante. Si elle est utilisée comme attaquante, elle est également de plus en plus utilisée pour se défendre.

L’IA possède un temps de réaction qui est de plus en plus court parfaitement adapté pour réagir aux attaques et peut analyser une quantité gigantesque de données en un temps réduit afin de créer des liens entre des éléments. Elle permet ainsi de faire face aux enjeux majeurs en matière de cyber : le temps de réaction face à une attaque, le volume considérable et croissant de données à analyser ou encore la pénurie de ressources compétentes en cybersécurité.

L’IA propose des solutions qui paraissent s’imposer. Toutefois, se trouve une variable inconnue au sein de la nouvelle équation idyllique qui se dessine : l’humain. En effet, comment ces nouveaux systèmes que l’on pare d’attributs anthropomorphiques vont-ils s’imposer à lui ? Comment peut-il réagir ? Peut-il l’accepter, alors qu’il sera primordial pour une bonne adoption dans les organisations ?

L’IA pourrait tout aussi bien permettre de mieux comprendre les humains, les aider et les compléter mais aussi les manipuler… En effet, toutes les études montrent que sans une prise de conscience dont on se demande si elle est réellement à la portée de la population, nous risquons de devenir des marionnettes de systèmes toujours plus sophistiqués à la solde de malfaiteurs, d’entreprises ou même de politiciens…

Inévitablement, la délicate question du remplacement des humains par les IA se pose aussi. Du côté des équipes de cybersécurité, les compétences requises pour les personnels dépassant le niveau d’opérateurs, sont aujourd’hui trop complexes et nécessitent une perception holistique des situations pour être automatisées. Le travail en binôme est aujourd’hui le moyen le plus efficace. De plus, comme le montre l’histoire des technologies, le marché de l’emploi s’adapte et les projections de cabinets d’étude comme le Gartner sont plutôt optimistes. Du côté des attaquants, les choses sont plus nuancées, car comme l’a bien montré le Grand Cyber Challenge de la DARPA ou le harponnage de Twitter, les IA sont en train de monter rapidement en compétence pour détecter des cibles et lancer des attaques automatisées. D’autant plus que les scanners et les bases de vulnérabilité existent depuis déjà longtemps.

Un facteur d’espoir reste la formidable capacité d’adaptation dont disposent les humains avec une imagination et une créativité sans limite.

Reste enfin la problématique de l’acceptation de l’IA par les humains. En effet, qu’on le veuille ou non, les IA sont présentes dans notre quotidien et l’on voit mal ce qui arrêtera cette tendance. Accepter ou non, n’est probablement plus la question, Le génie est sorti de sa lampe et il ne semble pas disposé à y retourner. Nous devons donc apprendre à cohabiter et ainsi se réinventer ou, comme les dinosaures de la fin du crétacé, dépérir.

Il convient toutefois d’être optimistes. Nul doute que l’Homme est armé pour faire face, une nouvelle fois, à un défi existentiel.

Photo Executive Studio