L’intelligence économique à l’heure de l’intelligence artificielle 

Dans le monde de l’entreprise, aussi, on apprend à composer avec les outils d’intelligence artificielle. Collecte, diffusion et même analyse des données peuvent déjà être effectuées par l’IA. Des aides à la décision et à l’innovation parfois risquées. Mais certaines entreprises françaises tentent de réduire le risque.  

Par Lola BRETON 

Sur le papier, il suffit de lui soumettre un problème. Elle répond alors, au mieux de ses connaissances. Celles qu’elle a engrangé depuis des années et au fil des demandes toujours plus pointues des utilisateurs. L’intelligence artificielle générative, représentée ces derniers mois par Chat GPT, l’outil de ce type le plus utilisé, est en plein essor. Elle s’est installée dans tous les domaines, et attire l’œil et l’attention de celles et ceux qui imaginent pouvoir y trouver un intérêt. Nombreux sont ceux qui ont déjà passé le pas de l’abonnement à la version la plus aboutie de ChatGPT, 4, à 20 dollars par mois. Sa capacité à générer des textes réalistes est forcément attirante lorsque l’on cherche à se débarrasser de tâches chronophages. Dans ce cadre-là, l’intelligence artificielle telle qu’elle existe déjà aujourd’hui peut aider au travail des dirigeants d’entreprises et autres managers dans le cadre de l’intelligence économique (IE). 

Alors que l’IE est l’agrégation des capacités à « collecter, analyser, valoriser, diffuser et protéger linformation économique stratégique afin de renforcer la compétitivité d’un Etat ou dune entreprise », selon l’Institut des Hautes Etudes de Défense Nationale, les outils d’IA ont l’occasion de prêter main forte à l’humain sur certains de ces points. « Elle va surtout servir sur les étapes de collecte de données et de diffusion dinformations, souligne Joachim Harbulot, coordonnateur du club data intelligence de l’école de guerre économique (EGE). Pour lanalyse, cest plus compliqué parce que lIA sentraîne sur une base de données très large, quil faut réussir à cerner. » Pour son collègue, Ariel Zerah, « les outils dIA actuels sont des moyens d’améliorer la performance en accompagnant lanalyste et en facilitant la gestion des données ». 

Biais et limites des IA en construction

En clair, utiliser une IA pour organiser une veille automatisée sur les technologies concurrentes à celles que l’on développe au sein de notre propre entreprise, ou pour aider au recrutement est déjà possible. Joachim Harbulot explique que les recruteurs peuvent s’aider d’une IA pour faire de la vérification de CV, par exemple. « En allant fouiller sur internet pour récupérer les données sur les candidats en sources ouvertes, on va plus loin avec une IA quen faisant de lOSINT [recherches en renseignements en sources ouvertes, ndlr] de son côté. » Des applications de l’IA qui peuvent alors commencer à poser des questions éthiques. Un employeur potentiel devrait-il pouvoir accès à toutes les interactions que vous avez un jour postées sur Internet ? Y compris celles, peut-être moins glorieuses ou peu professionnelles, que vous aviez réussi à cacher assez loin pour que sa capacité humaine de recherche ne l’atteigne jamais ? Pour Joachim Harbulot, « la questionéthique vient des missions elles-mêmes. ». « L’IA se centre sur la pratique pour chercher plus loin et plus efficacement », souligne-t-il. 

Pour donner tort à ceux qui voient encore trop de limites à l’intelligence artificielle en termes d’analyse au service de l’intelligence économique, une équipe de spécialistes en économie de la donnée a créé, en 2020, GraphMyTech. Cette société propose une « solution danalyse de données pour accompagner les entreprises et les acteurs de linnovation dans leur travail au quotidien en mettant la donnée au centre de laction »dévoile Dr. François-Xavier Meunier, co-fondateur et président de l’entreprise. GraphMyTech s’appuie à la fois sur une intelligence artificielle et sur une technologie de théories des graphes. « Loutil a trois principales fonctionnalités, explique François-Xavier Meunier : collecter linformation pertinente sur une donnée technologique, analyser le contexte technologique – qui sont les acteurs, quels sont les caractéristiques de leur portefeuille dinnovation, quelles sont leurs performances dans le domaine – et recommander des stratégies dinnovation et des actions pour répondre à ces stratégies. » En acquérant les services de GraphMyTech, les entreprises en quête d’innovation accèdent donc à une comparaison de leurs technologies face à celles de la concurrence et aux clés qui leur manquent pour devenir plus compétitives. « Pour fonctionner, il suffit dentrer une description en langage naturel de la technologie sur laquelle on travaille ou de charger des documents qui représentent ce que lon souhaite faire. LIA analyse ce contenu et identifie automatiquement les brevets et publications scientifiques en rapport avec cette technologie »détaille le président de la société. 

Sécuriser les données pour acquérir la confiance des décideurs

Restent quelques bémols et autres freins à l’utilisation par les entreprises d’outils d’intelligence artificielle pour booster leur intelligence économique. « Certains sont réticents face à l’IA parce que les outils les plus optimisés aujourdhui sont américains et donc régis par le droit doutre-Atlantique. Nous ne sommes pas à l’abri que quelquun puisse lutiliser dune mauvaise manière », note Joachim Harbulot. Peut-être que, dans quelques mois, la France réussira à rattraper le retard qu’elle a pris face aux Américains et aux Chinois sur le développement d’outils d’IA. En mai 2023, la start-up Mistral AI a vu le jour dans cette exacte optique. En quelques mois, ses fondateurs, issus de Polytechnique et de l’ENS, ont réussi à lever près de 385 millions d’euros. Ils sont déjà perçus comme des potentiels rivaux à Open AI, compagnie derrière Chat GPT

En attendant, chez GraphMyTech, le sujet de la sécurité des données est prise très au sérieux. Pour l’entreprise française, la souveraineté de ses clients – une quinzaine pour le moment – sur leurs données est essentielle. « Nous ne réutilisons pas la donnée pour entraîner notre IA, assure François-Xavier Meunier. Lintégralité de la donnée du client est cryptée et nous ne la stockons pas à long terme. Nous lutilisons simplement pour la transformer en format mathématique, qui nous permet de faire lanalyse demandée par le client. Ensuite, le document original est détruit sur notre système. Mais le fait de ne rien conserver ne nous empêche pas de continuer à travailler avec loutil puisque la transcription mathématique, elle, est gardée. Ce qui permet, en plus, de ne pas avoir à recharger de document pour une nouvelle analyse. »

Fonds et formation comme nerf de la guerre

D’autres risques accompagnent l’avènement des outils d’IA dans une utilisation professionnelle et stratégique. Il est indéniable que ces intelligences sont dotées de biais, qu’ils soient inhérents à l’apprentissage de la machine ou qu’ils aient été placés là par la main humaine. Des biais et des erreurs qui peuvent mener à de véritables fautes. En juin dernier, Steven Schwartz, avocat new yorkais, a utilisé Chat GPT pour préparer sa plaidoirie devant une cour. Fier d’avoir réussi à agréger autant d’informations jurisprudentielles, il ne s’est pas rendu compte que l’outil d’IA avait tout simplement inventé des procès et des décisions de justice. Me Schwartz a dû en répondre lui-même devant un tribunal. D’autant que les outils d’IA pourraient également avoir une action d’influence, voire d’ingérence sur les activités économiques. Si les IA génératives comme ChatGPTsont capables de générer des contenus crédibles et réalistes à partir de données, plus ou moins véraces, piochées ça-et-là sur le net, elles renferment alors un potentiel de tromperie, voire de propagande énorme.« ChatGPT offre de fait un potentiel dintoxication inextricable : il produit un contenu erroné, que ses utilisateurs sont susceptibles de diffuser en ligne, et que loutil collectera ensuite comme contenu légitime »notent les auteurs d’un article sur le Portail de l’IE. Sans garde-fou, les IA génératives peuvent être manipulées par des acteurs économiques, associatifs ou politiques, afin de leur faire assimiler de fausses notions qu’elle resservira par la suite à des concurrents ou des décideurs. Ces derniers doivent donc, en plus de saisir l’importance de la contextualisation des prompts soumis aux outils d’IA, apprendre à déceler les faussetés et les erreurs de la machine. « Il faut former les gens. Mais pas seulement à l’IA, à la maîtrise dInternet au sens large ! », estime Jérôme Bondu, consultant en intelligence économique et directeur de la société de conseil Inter-Ligere. Mais cela risque de ne pas suffire. En plus d’une formation pour tous sur les enjeux, les forces et les risques de l’intelligence artificielle, la France doit également se doter de lois qui permettront d’avancer sur l’innovation et la recherche en la matière. Cette partie légale aura sûrement lieu dans les prochains mois avec la finalisation du règlementeuropéen sur l’intelligence artificielle, l’AI Act« Au niveau technologique, il nous faut développer des briques qui soient aussi bonnes que celles que font les Américains », souligne Jérôme Bondu notant que les Français sont champions dans ce domaine… à condition qu’ils ne se fassent pas chasser par des entreprises étasuniennes, comme cela a d’ailleurs d’abord été le cas pour les fondateurs de Mistral AI. « La souveraineté numérique est une obligation parce que nous sommes est en train de creuser la tombe des entreprises européennes. La donnée est le pétrole du XXIe siècle. Pourtant, on crée une dépendance informationnelle, qui pour linstant est indolore mais qui ne le sera pas éternellement », alerte le spécialiste. Pour donner l’occasion aux talents français de créer des outils d’IA performants et compétitifs, il faut donc débloquer des fonds. Un élément qui pourrait être acquis à travers une forme de Small Business Act à l’européenne, qui permettrait, selon Jérôme Bondu, et de nombeuxacteurs privés, publics comme politiques, « de voir émerger des champions nationaux ou européens ».