Quand la lutte informationnelle redéfinit le champ de bataille

Aux trois domaines classiques d’affrontement s’ajoutent aujourd’hui le champ cyber et le champ cognitif. Que ce soit sur le terrain ukrainien ou sur le front israélo-palestinien, les belligérants n’hésitent plus à mener une lutte informationnelle destinée à influencer les populations et l’ennemi, modeler les opinions et, in fine, prendre l’ascendant sur l’adversaire Une réalité que les forces armées françaises prennent au sérieux, mais pour laquelle une coopération plus étroite avec les acteurs privés du numérique s’avère indispensable.

Par Alban Wilfert

Opérations d’influence en zones de guerre

Les conflits en cours en Ukraine et dans la bande de Gaza sont marqués par des actes de lutte informationnelle, jouant sur les biais cognitifs de l’ennemi. On parle de multi-domain operations, concept théorisé en 2016 aux Etats-Unis et transposé en « multi-milieux, multi-champs » dans la doctrine d’emploi des forces en France.

Avant même le déclenchement de l’invasion de l’Ukraine par la Russie, TikTok était assailli de vidéos, « présentées comme générées par IA, donnant à voir des hommes russes particulièrement forts physiquement. Derrière le ton burlesque, il s’agissait de créer un ancrage mémoriel chez les populations les plus jeunes de l’étranger et des soutiens de l’Ukraine. Ce rappel laissait penser qu’un combat contre les Russes serait risqué, ces derniers étant perçus comme très puissants. », détaille Christine Dugoin-Clément, chercheuse à l’IAE Paris-Sorbonne, à l’Observatoire de l’Intelligence Artificielle de Paris 1, au CREOGN et au CREC de Saint-Cyr Coëtquidan. Dès le début du conflit, les deux camps ont mené une lutte informationnelle sur les réseaux sociaux. Des contenus authentiques, comme des photos d’appareils SU-57 détruits par l’armée ukrainienne, ont récemment été partagés pour amplifier la portée de ces destructions et ridiculiser l’ennemi. Il y a également eu des contenus inauthentiques, comme une fausse vidéo de Volodymyr Zelensky invitant ses troupes à se rendre. Cette vidéo est un shallowfake, c’est-à-dire une vidéo réalisée à l’aide de l’IA, mais tellement grossièrement réalisée qu’elle n’apparaît pas crédible. Dans les deux cas, souligne David Olivier, directeur cyberdéfense et intelligence chez Sopra Steria, il s’agit de « viser le cerveau de l’ennemi » plutôt que le champ physique.

Le 7 octobre 2023, le Hamas a diffusé, de manière coordonnée, des vidéos de son attaque sur Israël,1 afin d’en multiplier la déflagration. Côté israélien, les images diffusées en direct par les victimes sur les réseaux sociaux ont permis aux pilotes de localiser et de frapper les commandos du groupe terroriste. Des images ayant donc fait l’objet d’une exploitation tactique par Tsahal. Les deux camps ont par la suite fait usage d’images générées par IA pour rallier l’opinion internationale à leur cause. Des internautes pro-palestiniens ont ainsi fait circuler de prétendues images de victimes de bombardements, en réalité également produites par l’intelligence artificielle plus tôt : une photo d’un manifestant égyptien brandissant l’une d’elles s’est ainsi retrouvée en une de Libération le 19 octobre 2023.2 Israël a également utilisé l’IA pour ses propres narratifs, avec la vidéo « Come Visit Beautiful Gaza »,3 montrant ce que serait, selon Israël, Gaza sans le Hamas : un lieu paradisiaque et touristique. Une manière de désigner le groupe islamiste comme le seul responsable de l’état réel du territoire. Cela s’insère dans la hasbara (« explication » en hébreu), visant à justifier les agissements de l’Etat. « Israël a besoin de légitimer son opération militaire contre le Hamas, ne serait-ce que pour s’assurer du soutien américain en termes de munitions. La décision de Joe Biden, début mai 2024, de cesser les livraisons d’armes offensives à Israël en cas d’attaque massive sur Rafah, a bien rappelé le caractère critique de cette légitimation », explique Amélie Ferey, chercheuse à l’Institut français des relations internationales (IFRI).

Se préparer à contrer les narratifs ennemis

Face à ces menaces, l’armée française s’est dotée dès 2021 d’une doctrine de « lutte informatique d’influence (L2I) », relevant du COMCYBER. Celle-ci vise, « dans un cadre limité aux opérations militaires à l’extérieur du territoire national », à « détecter et caractériser les attaques informationnelles adverses, connaître les intentions et les dispositifs militaires adverses, contrer les attaques informationnelles adverses s’opposant à l’action de nos forces pour les faire cesser ou en atténuer les effets, valoriser l’action de nos forces armées dans leur zone d’action et affaiblir la légitimité de nos adversaires ». Par la même occasion, il s’agit de « tarir les recrutements des groupes armés terroristes ».4 Des visées défensives et offensives qui contribuent à la communication stratégique.

Autre signe de la prise en considération de la question par les pouvoirs publics, Emmanuel Macron érigeait en novembre 2022 l’influence au rang des fonctions stratégiques de la défense.5 Une déclaration en cohérence avec l’interdiction, quelques mois plus tôt, des médias RT France et Sputnik.

Il en va de même sur le plan opérationnel, la lutte informationnelle ayant été intégrée à l’exercice ORION 23, lors duquel un environnement numérique et informationnel fictif, incluant réseau social, blogosphère, reportages TV et articles en lien avec le scénario de l’exercice, a été créé de toutes pièces afin de servir de lieu d’affrontement entre la coalition et l’adversaire.6

De nécessaires coopérations avec le secteur privé

Une grande partie des espaces numériques où se joue la lutte informationnelle appartenant à des acteurs privés, la coopération avec ceux-ci s’annonce indispensable. En effet, la doctrine française de L2I le rappelle, les algorithmes des réseaux sociaux notamment « favorisent la création de communautés et orientent la façon dont chacun s’informe », créant ainsi des biais cognitifs.7

L’Etat travaille déjà avec des entreprises françaises du numérique, comme la start-up Storyzy. Celle-ci a conçu le projet Confirma, de contre-argumentation face aux fausses informations.8 Mais pour avoir un impact sur le plus grand nombre, il convient de dénoncer la désinformation directement sur les réseaux sociaux les plus utilisés, au plus près des contenus. « Sur X, les “Notes de la Communauté” permettent à des utilisateurs d’apporter des éléments de factualisation et de contextualisation aux contenus partagés par d’autres. C’est un dispositif intéressant. Il pourrait être imposé et généralisé à l’échelle européenne par exemple, si on le rend plus transparent et ainsi aiderles lecteurs à prendre du recul, et se réapproprier l’espace numérique», suggère David Olivier.

La L2I ne saurait non plus faire l’impasse sur les communautés de renseignement en sources ouvertes (OSINT). Gagnant actuellement en ampleur, elles « posent la question du renouvellement des méthodes des agences de renseignement, celles-ci n’ayant plus le monopole sur l’analyse de la situation et le contrôle de l’information. Il leur faut donc discuter avec les osinters et éventuellement proposer des contre-narratifs, comme lorsque la Direction du Renseignement Militaire a attribué la frappe sur l’hôpital Al-Ahli Arabi de Gaza, le 17 octobre 2023, à un tir raté du Djihad islamique, après une controverse entre osinters », analyse Amélie Ferey.

Alors que l’UE a adopté en mai 2024 l’European Media Freedom Act, entre autres pour lutter contre la désinformation, le dialogue avec les acteurs privés s’annonce comme une nécessité pour la prochaine Commission européenne.

1https://www.lefigaro.fr/international/la-lutte-informatique-d-influence-monte-en-puissance-au-comcyber-francais-20231123

2https://www.lefigaro.fr/conflit-israel-hamas-quand-une-image-generee-par-l-ia-s-invite-en-une-de-liberation-20231020 ; https://www.liberation.fr/checknews/libe-sest-il-rendu-coupable-dune-fake-news-en-publiant-la-vraie-photo-dun-homme-brandissant-une-image-generee-par-ia-20231019_SA45AGWDRNAV5OFSHO2XEHCQ2M/

3https://www.youtube.com/watch?v=dJaxKQrHE6U

4https://www.defense.gouv.fr/sites/default/files/comcyber/doctrine%20de%20lutte%20informatique%20d%27influence.pdf

5https://www.portail-ie.fr/univers/influence-lobbying-et-guerre-de-linformation/2023/le-soldat-francais-un-outil-pour-la-guerre-de-linformation/

6https://www.defense.gouv.fr/operations/actualites/orion-23-lutte-informationnelle-au-coeur-manoeuvre

7https://www.defense.gouv.fr/sites/default/files/comcyber/doctrine%20de%20lutte%20informatique%20d%27influence.pdf

8https://www.portail-ie.fr/univers/influence-lobbying-et-guerre-de-linformation/2022/la-france-est-elle-armee-face-aux-guerres-informationnelles-les-exemples-des-influences-russe-et-chinoise/