Dans le monde de l’entreprise, aussi, on apprend à composer avec les outils d’intelligence artificielle. Collecte, diffusion et même analyse des données peuvent déjà être effectuées par l’IA. Des aides à la décision et à l’innovation parfois risquées. Mais certaines entreprises françaises tentent de réduire le risque.
Par Lola BRETON
Sur le papier, il suffit de lui soumettre un problème. Elle répond alors, au mieux de ses connaissances. Celles qu’elle a engrangé depuis des années et au fil des demandes toujours plus pointues des utilisateurs. L’intelligence artificielle générative, représentée ces derniers mois par Chat GPT, l’outil de ce type le plus utilisé, est en plein essor. Elle s’est installée dans tous les domaines, et attire l’œil et l’attention de celles et ceux qui imaginent pouvoir y trouver un intérêt. Nombreux sont ceux qui ont déjà passé le pas de l’abonnement à la version la plus aboutie de ChatGPT, 4, à 20 dollars par mois. Sa capacité à générer des textes réalistes est forcément attirante lorsque l’on cherche à se débarrasser de tâches chronophages. Dans ce cadre-là, l’intelligence artificielle telle qu’elle existe déjà aujourd’hui peut aider au travail des dirigeants d’entreprises et autres managers dans le cadre de l’intelligence économique (IE).
Alors que l’IE est l’agrégation des capacités à « collecter, analyser, valoriser, diffuser et protéger l’information économique stratégique afin de renforcer la compétitivité d’un Etat ou d’une entreprise », selon l’Institut des Hautes Etudes de Défense Nationale, les outils d’IA ont l’occasion de prêter main forte à l’humain sur certains de ces points. « Elle va surtout servir sur les étapes de collecte de données et de diffusion d’informations, souligne Joachim Harbulot, coordonnateur du club data intelligence de l’école de guerre économique (EGE). Pour l’analyse, c’est plus compliqué parce que l’IA s’entraîne sur une base de données très large, qu’il faut réussir à cerner. » Pour son collègue, Ariel Zerah, « les outils d’IA actuels sont des moyens d’améliorer la performance en accompagnant l’analyste et en facilitant la gestion des données ».
Biais et limites des IA en construction
En clair, utiliser une IA pour organiser une veille automatisée sur les technologies concurrentes à celles que l’on développe au sein de notre propre entreprise, ou pour aider au recrutement est déjà possible. Joachim Harbulot explique que les recruteurs peuvent s’aider d’une IA pour faire de la vérification de CV, par exemple. « En allant fouiller sur internet pour récupérer les données sur les candidats en sources ouvertes, on va plus loin avec une IA qu’en faisant de l’OSINT [recherches en renseignements en sources ouvertes, ndlr] de son côté. » Des applications de l’IA qui peuvent alors commencer à poser des questions éthiques. Un employeur potentiel devrait-il pouvoir accès à toutes les interactions que vous avez un jour postées sur Internet ? Y compris celles, peut-être moins glorieuses ou peu professionnelles, que vous aviez réussi à cacher assez loin pour que sa capacité humaine de recherche ne l’atteigne jamais ? Pour Joachim Harbulot, « la questionéthique vient des missions elles-mêmes. ». « L’IA se centre sur la pratique pour chercher plus loin et plus efficacement », souligne-t-il.
Pour donner tort à ceux qui voient encore trop de limites à l’intelligence artificielle en termes d’analyse au service de l’intelligence économique, une équipe de spécialistes en économie de la donnée a créé, en 2020, GraphMyTech. Cette société propose une « solution d’analyse de données pour accompagner les entreprises et les acteurs de l’innovation dans leur travail au quotidien en mettant la donnée au centre de l’action », dévoile Dr. François-Xavier Meunier, co-fondateur et président de l’entreprise. GraphMyTech s’appuie à la fois sur une intelligence artificielle et sur une technologie de théories des graphes. « L’outil a trois principales fonctionnalités, explique François-Xavier Meunier : collecter l’information pertinente sur une donnée technologique, analyser le contexte technologique – qui sont les acteurs, quels sont les caractéristiques de leur portefeuille d’innovation, quelles sont leurs performances dans le domaine – et recommander des stratégies d’innovation et des actions pour répondre à ces stratégies. » En acquérant les services de GraphMyTech, les entreprises en quête d’innovation accèdent donc à une comparaison de leurs technologies face à celles de la concurrence et aux clés qui leur manquent pour devenir plus compétitives. « Pour fonctionner, il suffit d’entrer une description en langage naturel de la technologie sur laquelle on travaille ou de charger des documents qui représentent ce que l’on souhaite faire. L’IA analyse ce contenu et identifie automatiquement les brevets et publications scientifiques en rapport avec cette technologie », détaille le président de la société.
Sécuriser les données pour acquérir la confiance des décideurs
Restent quelques bémols et autres freins à l’utilisation par les entreprises d’outils d’intelligence artificielle pour booster leur intelligence économique. « Certains sont réticents face à l’IA parce que les outils les plus optimisés aujourd’hui sont américains et donc régis par le droit d’outre-Atlantique. Nous ne sommes pas à l’abri que quelqu’un puisse l’utiliser d’une mauvaise manière », note Joachim Harbulot. Peut-être que, dans quelques mois, la France réussira à rattraper le retard qu’elle a pris face aux Américains et aux Chinois sur le développement d’outils d’IA. En mai 2023, la start-up Mistral AI a vu le jour dans cette exacte optique. En quelques mois, ses fondateurs, issus de Polytechnique et de l’ENS, ont réussi à lever près de 385 millions d’euros. Ils sont déjà perçus comme des potentiels rivaux à Open AI, compagnie derrière Chat GPT.
En attendant, chez GraphMyTech, le sujet de la sécurité des données est prise très au sérieux. Pour l’entreprise française, la souveraineté de ses clients – une quinzaine pour le moment – sur leurs données est essentielle. « Nous ne réutilisons pas la donnée pour entraîner notre IA, assure François-Xavier Meunier. L’intégralité de la donnée du client est cryptée et nous ne la stockons pas à long terme. Nous l’utilisons simplement pour la transformer en format mathématique, qui nous permet de faire l’analyse demandée par le client. Ensuite, le document original est détruit sur notre système. Mais le fait de ne rien conserver ne nous empêche pas de continuer à travailler avec l’outil puisque la transcription mathématique, elle, est gardée. Ce qui permet, en plus, de ne pas avoir à recharger de document pour une nouvelle analyse. »
Fonds et formation comme nerf de la guerre
D’autres risques accompagnent l’avènement des outils d’IA dans une utilisation professionnelle et stratégique. Il est indéniable que ces intelligences sont dotées de biais, qu’ils soient inhérents à l’apprentissage de la machine ou qu’ils aient été placés là par la main humaine. Des biais et des erreurs qui peuvent mener à de véritables fautes. En juin dernier, Steven Schwartz, avocat new yorkais, a utilisé Chat GPT pour préparer sa plaidoirie devant une cour. Fier d’avoir réussi à agréger autant d’informations jurisprudentielles, il ne s’est pas rendu compte que l’outil d’IA avait tout simplement inventé des procès et des décisions de justice. Me Schwartz a dû en répondre lui-même devant un tribunal. D’autant que les outils d’IA pourraient également avoir une action d’influence, voire d’ingérence sur les activités économiques. Si les IA génératives comme ChatGPTsont capables de générer des contenus crédibles et réalistes à partir de données, plus ou moins véraces, piochées ça-et-là sur le net, elles renferment alors un potentiel de tromperie, voire de propagande énorme.« ChatGPT offre de fait un potentiel d’intoxication inextricable : il produit un contenu erroné, que ses utilisateurs sont susceptibles de diffuser en ligne, et que l’outil collectera ensuite comme contenu légitime »notent les auteurs d’un article sur le Portail de l’IE. Sans garde-fou, les IA génératives peuvent être manipulées par des acteurs économiques, associatifs ou politiques, afin de leur faire assimiler de fausses notions qu’elle resservira par la suite à des concurrents ou des décideurs. Ces derniers doivent donc, en plus de saisir l’importance de la contextualisation des prompts soumis aux outils d’IA, apprendre à déceler les faussetés et les erreurs de la machine. « Il faut former les gens. Mais pas seulement à l’IA, à la maîtrise d’Internet au sens large ! », estime Jérôme Bondu, consultant en intelligence économique et directeur de la société de conseil Inter-Ligere. Mais cela risque de ne pas suffire. En plus d’une formation pour tous sur les enjeux, les forces et les risques de l’intelligence artificielle, la France doit également se doter de lois qui permettront d’avancer sur l’innovation et la recherche en la matière. Cette partie légale aura sûrement lieu dans les prochains mois avec la finalisation du règlementeuropéen sur l’intelligence artificielle, l’AI Act. « Au niveau technologique, il nous faut développer des briques qui soient aussi bonnes que celles que font les Américains », souligne Jérôme Bondu notant que les Français sont champions dans ce domaine… à condition qu’ils ne se fassent pas chasser par des entreprises étasuniennes, comme cela a d’ailleurs d’abord été le cas pour les fondateurs de Mistral AI. « La souveraineté numérique est une obligation parce que nous sommes est en train de creuser la tombe des entreprises européennes. La donnée est le pétrole du XXIe siècle. Pourtant, on crée une dépendance informationnelle, qui pour l’instant est indolore mais qui ne le sera pas éternellement », alerte le spécialiste. Pour donner l’occasion aux talents français de créer des outils d’IA performants et compétitifs, il faut donc débloquer des fonds. Un élément qui pourrait être acquis à travers une forme de Small Business Act à l’européenne, qui permettrait, selon Jérôme Bondu, et de nombeuxacteurs privés, publics comme politiques, « de voir émerger des champions nationaux ou européens ».