Skip to main content

L’intelligence artificielle et le big data occupent une place de choix dans l’actualité. La « célèbre revue scientifique » Paris-Match leur a d’ailleurs consacré 3 articles depuis le début de l’année, c’est dire l’importance mais surtout la démocratisation de ces sujets. Cette discipline touche aujourd’hui la plupart des secteurs d’activité. Éditeur de logiciel et de solutions de veille stratégique, nous travaillons au quotidien sur ces problématiques d’Intelligence Artificielle et de Big Data sans jamais perdre de vue les processus de travail de nos utilisateurs et les attentes de nos clients. Ces problématiques sont aujourd’hui au cœur même de nos réflexions et de nos innovations.

L’intelligence Artificielle et le big data modèlent et dirigent notre réflexion quant aux orientations de notre produit et de notre approche des projets de veille stratégique, elles bouleversent en profondeur tous les aspects de notre métier et de celui de nos clients.

 

L’Intelligence Artificielle, de quoi parle-t-on ?

Intelligence artificielle IADans l’actualité récente, la meilleure illustration des progrès de l’intelligence artificielle est sans doute le programme AlphaGo et ses successeurs. Alpha Go a été développé par Deepmind filiale de Google en 2015 afin de battre les meilleurs joueurs de Go. Le 27 mai 2017 il battra le champion du monde Ke Jie, mettant fin à sa carrière…

Mais une disruption d’ampleur a permis la conception du logiciel AlphaGo Zero, logiciel qui a battu son prédécesseur AlphaGo 100 parties à 0 et ce en ayant bénéficié uniquement d’un auto-apprentissage !

Les algorithmes « intelligents » d’AlphaGo étaient basés sur des techniques d’apprentissage profond combinées à la théorie des graphes et fondées sur l’analyse de quantités importantes de données (ensemble des parties jouées par les grands maîtres).

Les algorithmes avaient ensuite pour tâche d’étudier ces données, pour évaluer une situation tactique d’un point de vue stratégique, et déterminer la valeur d’un coup au regard de la stratégie globale, qu’on peut résumer par « gagner ». Les algorithmes étaient ainsi capables d’examiner les conséquences stratégiques de chaque coup envisageable, sur une profondeur inaccessible à l’esprit humain afin d’arbitrer et choisir le coup tactique le plus à même de les rapprocher de l’objectif. Ce type d’algorithme s’appuie sur des concepts de big data en raison de la masse d’informations existantes manipulées pour gérer une situation et entreprendre des actions.

AlphaGo Zero a changé la donne en mettant en œuvre un système dont la base informationnelle est « vide », constituée uniquement des règles formalisées du jeu de go. Le logiciel a ensuite exploré le jeu de manière autonome, jusqu’à arriver à déterminer lui-même à la fois la stratégie d’ensemble et les coups tactiques permettant de mettre en œuvre cette stratégie. AlphaZero va encore un peu plus loin car il s’agit d’une version générique (Jeu de Go, Shogi, échecs). On parle alors d’algorithme d’apprentissage par renforcement non supervisé. C’est pourquoi nous voyons là un exemple d’Intelligence Artificielle « Forte », se démarquant des approches « classiques » de l’intelligence artificielle, fondées sur des modèles d’apprentissage à base de masses d’informations qualifiées destinées à l’entrainement.

 

L’intelligence Artificielle : quels apports pour la veille stratégique ?

16487-NQNWISDes applications de ces concepts dans le domaine de la veille stratégique reviendraient à analyser des données en nombre, puis d’y rechercher des motifs récurrents, des éléments sémantiquement ou statistiquement signifiants au regard des modèles existants, pour finalement arriver à une conclusion d’identification d’une relation, d’un comportement ou de l’apparition d’un acteur par exemple. Mais tout cela est basé sur des concepts et technologies existant depuis des années, on parle ici de modèle d’apprentissage, d’analyse de « pattern », d’utilisation d’ontologies ou d’analyse de sentiment (liste non exhaustive !). Tout cela repose sur une masse plus ou moins importante de données, que cela soit pour le référentiel initial ou pour les informations à traiter pour repérer des récurrences ou autres.

Dans un projet de veille stratégique, il est nécessaire d’analyser et de qualifier un ensemble d’information souvent hétérogène. Il est difficile de prévoir quelle technologie sera mise au point et commercialisée par un concurrent ou quelle voie stratégique sera choisie par un acteur du marché sans disposer d’une base informationnelle. Pour faire une analogie avec AlphaGo Zero, en formalisant les règles générales du jeu du marché et de l’économie sans autre entrant, une intelligence artificielle serait peut-être capable de déterminer de grandes tendances macro-économiques ou sociétales. Mais sur la base du célèbre et rebattu modèle de Porter, cela ne me serait pas d’une grande utilité pour ma survie au sein de mon environnement, entre mes clients, mes fournisseurs, mes produits, mes concurrents et de nouveaux entrants.

Pour les lecteurs d’Isaac Asimov, la puissance de la psychohistoire du cycle de Fondation tient autant à la compréhension des règles du jeu qu’à la prise en compte de tout l’existant informationnel à un instant t. Et si elle est capable de prédire les grandes tendances et les réactions globales à certains événements, elle s’avoue incapable de prédire les comportements d’individus isolés. Or c’est justement ce que nous intéresse ici. Nous avons besoin de connaitre la tendance (que va devenir ce marché ?) mais aussi les comportements individuels (que va faire mon concurrent ?).

C’est pourquoi, dans le contexte de la veille stratégique, nous accepterons volontiers d’étendre la notion d’Intelligence Artificielle en sortant du nouveau cadre défini par AlphaGo Zero, en y englobant « tout mécanisme, procédé ou fonction permettant de dépasser le cadre des connaissances actuelles pour en créer ou en suggérer de nouvelles ».

Cette définition est d’ailleurs cohérente avec la déclaration de Yann Le Cun, patron de l’Intelligence Artificielle chez Facebook, dans une interview donnée à la célèbre revue Paris Match : « L’Intelligence artificielle vise à démultiplier l’intelligence humaine »

Cela va donc nous permettre de parler d’intelligence artificielle en même temps que d’intelligence économique, de veille stratégique ou d’intelligence technologique. La composante des big data est dans ce contexte au cœur de l’équation.

Cependant un changement d’échelle est nécessaire pour profiter de l’Intelligence Artificielle dans notre domaine.

 

Concrètement en quoi l’Intelligence Artificielle pourrait-elle nous aider ?

IA_intelligence_artificelleLa première application de ces technologies devrait nous permettre en premier lieu d’identifier les « concepts » pertinents au sein d’une masse d’information. Par concept nous entendons d’une manière plus prosaïque les entités nommées, qu’elles représentent des personnes, des pays, des sociétés, des technologies, des matériaux, etc…

Les méthodes et technologies de détection des entités nommées existent depuis de nombreuses années, mais restent confrontées à de nombreux problèmes techniques qui les empêchent de pouvoir être véritablement qualifiées d’intelligence artificielle.

La qualité et fiabilité des données

Le premier problème posé, d’ailleurs identifié dans l’article d’Actulligence, est celui de la qualité des données dans un contexte de données non-structurées. La collecte d’un grand nombre d’informations sur un sujet précis est aisée, mais quid du contenu global et de son exploitabilité en mode automatique. La page d’un article en ligne contient certes le contenu intéressant mais aussi une grande quantité d’information au mieux inutile, au pire erronée. Les éléments de navigation du site vont contenir des mots-clés, potentiellement des noms de société, des pays, de même que les nuages de tags, de même que les news liées ou récemment publiées, qui n’ont pas de rapport direct avec le sujet qui nous occupe. Cela peut être amélioré par des algorithmes utilisant la structure du site pour dépolluer l’information, mais ce n’est pas une solution absolue ; d’ailleurs le contenu signifiant peut lui aussi comporter des signaux contradictoires.

Certaines entités nommées peuvent difficilement être identifiées par les moyens à notre disposition. Par exemple : dans une étude d’influence, déterminer le pays d’origine des informations/publications au sein d’une grande masse documentaire. Il est extrêmement simple d’identifier les pays cités, mais comment identifier le pays dont émane l’information ? La langue peut donner une indication, l’extension du domaine également (bien que de moins en moins) ou l’adresse IP, bien que falsifiable, mais il faut aller au-delà.

Lorsque l’auteur de l’information est identifiable (problématique de l’entité nommée « Auteur », simple dans le contexte de publications structurées, complexe dans tous les autres cas…), il devient possible d’interroger un hypothétique « référentiel de la connaissance existante » dans lequel on dispose de la nationalité de la personne. Encore faut-il disposer de ce référentiel, et que celui-ci soit en perpétuelle évolution. Et bien évidemment, se mettre en conformité avec la Loi Informatique et Libertés et autres encadrements des données collectables et stockables, ce qui peut s’avérer plus bloquant (à juste titre) que les problématiques technologiques.

La détection de concepts

Il en va de même de la détection de concepts plus liés au domaine d’activité, comme des technologies, des composants, des matériaux, etc…

La réponse la plus communément apportée à cette problématique est celle de l’analyse sémantique par le biais entre autres de thésaurus et d’ontologies. Il y a deux principaux écueils à ce type de réponse.

Le premier est qu’il faut disposer d’outils sémantiques ou de modèles d’apprentissage spécialisés dans le domaine traité. Dans la chimie, l’ontologie et les thésaurus contiendront les molécules et leur formulation, les types de réaction, etc… Dans la micro-électronique certains référentiels auront probablement une part de recoupement avec les précédents, mais concernant les technologies ou les composants, la divergence sera énorme. D’où la nécessité de développer et de maintenir ces outils spécialisés avec le (fort) coût technologique et humain associé.

Nous avons déjà eu l’occasion de dire que l’apport tangible de l’intelligence artificielle dans ce domaine serait de fournir au moins une assistance pertinente dans la constitution de ces modules sémantiques. Le problème n’est pas simple, plusieurs projets dont certains au niveau européen se sont penchés sur cette problématique, et les solutions concrètes et opérationnelles n’ont pas encore émergé.

On se trouve ici face à un challenge de l’ordre de celui résolu par AlphaGo Zero, à savoir partir d’une feuille blanche sur un sujet, hormis par exemple les règles de construction de la syntaxe et de la grammaire (les règles du jeu donc), et d’obtenir un système capable d’exploiter un corpus documentaire pour en extraire le thésaurus des termes significatifs du domaine et sa représentation hiérarchique organisée, autrement dit une ontologie.

Le système peut ici difficilement être autonome et apprendre à évaluer seul la valeur de ce qu’il fait. Au mieux, il délivrera une version « brouillon » de la connaissance, qui devra être reprise, corrigée et enrichie par un expert pour arriver à une version fiable.

Cet ensemble d’opérations permettra de constituer à terme un modèle d’apprentissage spécialisé pour le domaine, mais l’intervention d’un analyste reste encore essentielle et centrale, et contribue d’ailleurs à constituer et enrichir le référentiel de « la connaissance existante ».

 

D’autres problématiques quotidiennes auxquelles sont confrontés les professionnels de la veille stratégique peuvent bénéficier des apports de l’intelligence artificielle. Nous poursuivrons cette revue prochainement dans un prochain article.