Explication claire : Procédé technique de l’analyse prédictive sur l’exemple concret du « stockage de la bière »

Lors d’une analyse prédictive, des données actuelles et archivées sont analysées statistiquement afin de prédire des résultats (la plupart du temps dans le futur) à partir des connaissances acquises. Les prévisions sont des statistiques du type suivant: il y a une probabilité de 90% que la consommation de bière augmente début août 2016 de 21% à Rio et de 25% à Berne. Aujourd’hui même l’analyse prédictive est utilisée :

  • Maintenance prédictive: Il est possible de prédire à quel moment une panne peut survenir -> l’entreprise de maintenance peut agir à l’avance
  • Satisfaction de la clientèle : Une entreprise anticipe la satisfaction de la clientèle -> Les problèmes du client sont résolus de façon proactive -> le client reste fidèle
  • Cote de crédit : La banque estime la probabilité qu’un débiteur rembourse son crédit à temps -> Elle décide si le crédit est octroyé ou non
  • Prévision policière : À Zürich, les cambriolages sont anticipés -> Les effectifs de police sont déployés au bon endroit et au bon moment

Un projet d’analyse prédictive fructueux est composé de trois éléments clés. Nous allons nous concentrer dans ce billet de blogue sur la mise en œuvre de ces trois éléments.

  • Accès aux données pertinentes
  • Une question à laquelle on peut répondre avec l’aide des données
  • Une mise en œuvre technique avec des algorithmes et des modèles

Vue d’ensemble du procédé

Procédé technique de l’analyse prédictive

Figure: Procédé d’analyse prédictive des données à travers les processus d’extraction et de sélection des traits caractéristiques.

Il est ici essentiellement question de savoir de quelle façon une certaine information doit être traitée avant d’être utilisée (extraction) et, compte tenu des données existantes, quelles informations doivent être tout particulièrement utilisées (sélection). Les critères ainsi extraits et sélectionnés sont ensuite traités par un algorithme, lui-même entrainé à partir d’anciens résultats. Comme représenté sur la figure, il s’opère ensuite une étape d’optimisation, durant laquelle les meilleurs critères sont mis à disposition tandis que ceux qui ne peuvent pas aider plus l’algorithme sont supprimés. Différents algorithmes sont ainsi testés jusqu’à ce qu’une prédiction satisfaisante émerge. Ensuite, l’algorithme le plus adéquat est mis en service, afin de fournir des prédictions de bonne qualité à partir de nouvelles données. Nous allons maintenant vous présenter de façon plus détaillée les différents points.

Extraction des traits caractéristiques

Il est par exemple possible d’extraire beaucoup d’informations à partir d’une date : on peut savoir quel est le jour de la semaine associé, si elle correspond à une fin de semaine, à une période de vacances scolaires, au déroulement des Jeux olympiques, ou si elle est proche du 1er aout. En fait, toutes ces informations peuvent être pertinentes après réflexion : fin de semaine -> plus de temps pour boire, 1er aout -> plus grand chiffre d’affaire sur la vente au détail le jour précédent, Jeux Olympiques -> plus grande consommation de bière, etc. Ainsi, l’extraction des traits caractéristiques peut contribuer de façon décisive à un algorithme destiné à prédire la demande de bière.

Sélection des traits caractéristiques

La sélection des traits caractéristiques est également importante. Il existe une foison de données différentes. Il serait ainsi mal avisé de mettre à disposition de l’algorithme toutes les données existantes, dans la mesure où cela peut mener à ce qu’on appelle un « overfitting » (littéralement : « surapprentissage » en français). Par exemple, le fait que le Marché aux Oignons de Berne se soit déroulé le 23 novembre 2015 a certes une forte influence sur la consommation de vin chaud, mais ne nous apprend rien concernant la consommation de bière ; cette information risque donc de porter à confusion et l’algorithme doit désormais apprendre qu’il ferait mieux de l’ignorer. Il se peut que l’algorithme accorde trop d’importance à certains traits de données pourtant insignifiants, et fournisse ainsi des prédictions imparfaites.

Une question de quantité de données

On peut totalement déléguer à un ordinateur les tâches d’extraction et de sélection des traits carctéristiques. Ces tâches fonctionnent sans intervention humaine, à condition que les quantités de données soient suffisamment grandes et qu’il existe une capacité de calcul suffisante. Un algorithme découvre ainsi sans problème que les derniers Jeux olympiques d’été à Londres ont relancé la consommation de bière et que ce n’était pas un cas isolé (les Jeux olympiques précédents ont également mené à une augmentation de la consommation de bière).

Ainsi, un ordinateur peut trouver de lui-même et sans intervention humaine le critère « Jeux olympiques ». Cela ne fonctionne évidemment que si les données existent sur la période des derniers Jeux olympiques (15-20 dernières années), ce qui suppose d’une part d’avoir une base de données suffisante (le plus souvent Big Data) et d’autre part d’aller de pair avec de grandes puissances de calcul (jusqu’à présent dans des centres de données comme Google). L’overfitting perd de son ampleur lorsque de grandes quantités de données et des hautes puissances de calcul sont utilisées. Si l’on n’a ni la puissance de calcul ni la quantité de données requises à disposition, il faut au moins qu’une partie du traitement soit faite par des hommes (mais si possible pas le 1er aout).

La visualisation de données est particulièrement adaptée pour juger des bons critères. Les visualisations permettent de mieux discerner et comprendre les données, et peuvent également fournir des indices pour savoir s’il existe une relation entre un trait caractéristique et la prédiction dont on a besoin. On pourrait concrètement confronter un critère possible avec la prédiction souhaitée (par exemple la consommation de bière et la production de bière). On constaterait alors que la production de bière diverge avec un rythme de 7 jours de sa consommation, dans la mesure où la bière est simultanément peu produite et bien plus consommée en fin de semaine. Et c’est ainsi qu’un bon scientifique des données proposerait de choisir la fin de semaine comme trait caractéristique. Pour un projet de taille moyenne, il est plus judicieux de mettre en œuvre une combinaison d’extraction et de sélection humaines et automatiques des traits caractéristiques. En étant capable de distinguer les traits importants, non importants et trompeurs, l’homme simplifie le travail de l’ordinateur. L’algorithme peut désormais reconnaitre de lui-même les traits caractéristiques restants. Avec des traitements automatisés en nombre modéré, le volume de calcul et le danger d’overfitting se réduisent.

Choisir et entrainer des algorithmes d’apprentissage automatique

Les données et traits caractéristiques sélectionnés vont désormais être utilisés à des fins de formation de l’algorithme. L’algorithme apprend désormais à partir de l’expérience acquise, entre autres à quel point les Jeux olympiques d’été ont augmenté la consommation de bière. Les ordinateurs peuvent donc aussi estimer l’influence des Jeux sur la consommation de bière et prédire une augmentation de celle-ci le 10 août 2016, dans la mesure où les Jeux olympiques se dérouleront alors à Rio. Naturellement, cet apprentissage ne se fait pas sur un seul trait isolé (les Jeux Olympiques), mais plutôt avec beaucoup d’autres traits simultanément sélectionnés (Jeux olympiques, fin de semaine, 1er aout, Coupe du monde de football, fête de la bière, prévisions météorologiques, période de l’année, le Gurten Festival, etc.). L’enjeu est désormais de savoir quel algorithme d’apprentissage automatique doit être utilisé. Nous présentons ci-dessous quelques exigences importantes de l’algorithme :

  • Précision requise: Il n’est parfois pas nécessaire d’avoir une prévision très précise. Dans ce cas, des algorithmes relativement imprécis mais aux calculs plus rapides peuvent être mis en œuvre.
  • Quantité de données disponibles : Un algorithme avec peu de paramètres peut être utilisé sur de petites quantités de données. Lorsque la quantité de données à disposition est plus importante, des algorithmes admettant plus de paramètres et ainsi plus complexes, précis et exigeant davantage de calculs sont possibles.
  • Algorithmes explicatifs : il peut arriver que l’on souhaite une explication supplémentaire à propos d’une prévision. L’algorithme doit par exemple signaler que la prévision de la consommation de bière est très haute, car à cette période se déroule les Jeux Olympiques à Rio. Beaucoup d’algorithmes d’apprentissage automatique n’en sont pas capable.
  • Algorithmes individuels : Les algorithmes ne sont pas encore tous programmés dans les librairies et les programmes les plus couramment utilisés. L’investissement nécessaire pour programmer soi-même un algorithme ou utiliser une nouvelle librairie peut être très important. C’est pourquoi il y a un certain attrait à utiliser des algorithmes déjà existants.

Dans la pratique, il arrive qu’aucun algorithme ne remplisse toutes les exigences, en particulier lorsque l’algorithme « parfait » n’est pas implémenté dans les outils utilisés. C’est pourquoi il est raisonnable de commencer avec un algorithme plus simple aux calculs rapides et immédiatement accessible. Si un tel algorithme n’est pas capable de fournir une prévision approximative raisonnable, il est peu probable qu’un algorithme plus raffiné en calcule une meilleure. Dans ce cas, il est plus fructueux d’utiliser par exemple des données supplémentaires et de meilleurs critères. Lorsqu’il est toutefois nécessaire d’améliorer légèrement la qualité de la prédiction d’un algorithme simple, des algorithmes plus raffinés peuvent être d’un grand secours. Ainsi, de meilleurs algorithmes et traits caractéristiques peuvent être recherchés étape par étape.

Tester les algorithmes d’apprentissage automatique

Il n’est pas seulement nécessaire d’utiliser des données pour calibrer un algorithme, mais aussi pour le tester ou, autrement dit, mesurer sa qualité. C’est pourquoi les données existantes sont séparées en deux groupes. L’algorithme est entrainé à l’aide du premier groupe, nommé « données d’entrainement », et testé à l’aide du second, nommé « données de test ». Lors d’un test, l’algorithme sera chargé de fournir une certaine prédiction. Les résultats de cette prédiction seront ensuite comparés avec les mesures réelles des données de test. On peut alors considérer que l’algorithme a bien réussi si les prédictions correspondent aux mesures réelles. Je voudrais dire encore quelques mots au sujet de la répartition des données entre les groupes d’entrainement et de test. La répartition doit s’effectuer aussi réalistement que possible, afin de ne pas induire le test en erreur. Par exemple, un test réaliste sur la demande de bière devrait être réalisé comme si l’on était le mois dernier. On entraine ainsi l’algorithme avec les données existantes du dernier mois. Par la suite, l’algorithme entrainé fournit les prédictions souhaitées dans le futur (donc pour le mois en cours). La prédiction est désormais comparée avec les valeurs mesurées du mois en cours.

Répondre aux questions / faire des prédictions

Désormais, les traits caractéristiques sont choisis et l’algorithme est entrainé, et ainsi les prédictions souhaitées peuvent être fournies mécaniquement. La production sait donc, par exemple, quelle quantité de bière doit être produite. La logistique peut également être optimisée, dans la mesure où l’on sait où et en quelle quantité la bière sera demandée. Les prédictions sont heureusement réalisées automatiquement, et il vous restera donc assez de temps pour regarder les Jeux olympiques avec votre bière favorite en main.

Questions

Écrivez-nous si vous avez des questions ou si vous souhaiter assister à une démonstration en direct (info@leanbi.ch), ou bien appelez-nous au +41 79 247 99 59.

Découvrir la puissance de vos données

Nous ne voulons pas priver les visiteurs de notre Blog de la demi journée d’atelier gratuite à domicile, offre déjà ouverte et proposée lors de notre campagne courriel. Découvrez donc ci-dessous le contenu de cette campagne :

decouvre vos données

Vous souhaitez…

  • Optimiser votre logistique ?
  • Améliorer la qualité de vos produits ?
  • Diminuer les coûts de de développement de produit et de production?
  • Ajouter plus de services supplémentaires à vos produits ?

Nous optimisons vos produits et procédés et mettons la lumière sur les corrélations qui n’avaient jusque-là pas été détectées.

Vous nous fournissez votre montagne de données. Nous vous montrons de nouvelles façons d’améliorer votre logistique et votre développement, vos produits et vos procédés et établissons des pronostics en cas de panne de votre système. Avec notre approche, vous augmentez l’efficacité de vos produits tout en réduisant vos coûts d’entretien. Nos scientifiques analysent vos données avec des algorithmes spécialisés, basés sur des technologies de Big Data en mémoire – sans travail important de programmation, mais plutôt portés sur la visualisation, et qui vous permettent de comprendre et d’exploiter un monde plus étendu. Laissez nous vous convaincre par une démonstration et utilisez le pouvoir de vos données.

Réservez une demi journée d’atelier gratuite à domicile

Contactez-nous par téléphone au numéro +41 79 247 99 59 ou par courriel à info@leanbi.ch.

L’analytique 3.0 et l’industrie 4.0 vont se marier, et l’industrie analytique 4.0 deviendra ainsi la nouvelle star

Analytique 3.0: après l’analyse prédictive, l’analyse prescriptive

analytics1
Abb.1: Die Entwicklung der Analytic nach Davensport

L’analytique 3.0 a la réputation d’être le successeur du Big Data. Ce concept fut développé aux États-Unis par le professeur Thomas Davensport. On ne demande plus seulement « Que va-t-il se passer ? », dans le sens de l’analytique prédictive, mais aussi « Pourquoi est-ce que cela va arriver ? », dans le sens de l’analytique prescriptive. Des questions « quoi » et « pourquoi » émergent de nouvelles relations de cause à effet et de nouvelles perceptions dans la chaine causale.

L’analytique 3.0 comporte de nouvelles technologies du Big Data, en plus des techniques conventionnelles du décisionel, lesquelles rendent possible la communication en direct de grandes quantités de données aux formats différents. L’interprétation des données est effectuée par des infrastructures et des technologies en mémoire, avec l’aide d’algorithmes d’apprentissage automatique et d’exploration de données. À la différence de l’entrepôt de données conventionnel, il n’existe pas de frontière en termes de formats de données, et la modélisation des données est drastiquement simplifiée.

Au centre de l’analytique 3.0 se trouve l’algorithme. Les algorithmes d’apprentissage automatique doivent extraire automatiquement les informations depuis les données. Cela se déroule sans interface homme-machine. Afin de le rendre possible, les algorithmes apprennent et forment des modèles avec de petites quantités de données (fournies par des hommes). Les algorithmes sont également partiellement autodidactes ; c’est pourquoi les modèles et les prévisions s’améliorent au cours du temps.

L’exploration de données a en fait une importance capitale au sein de l’analytique 3.0. Cependant, il existe ici toujours une personne concrète dans le processus de révélation ou de prédiction. La solution d’un problème concret et complexe est typiquement au premier plan. On souhaite par exemple comprendre un évènement complexe sur lequel un grand nombre de facteurs inconnus ont exercé un effet. ’exploration de données se sert de beaucoup d’algorithmes d’appretissage automatique, et inversement.

L’analytique 3.0 est une coopération de technologie et de mathématiques. C’est à la fois la réalité et le futur. L’analytique 3.0 est utilisée depuis plusieurs années, des recherches et des développements y sont consacrés simultanément dans beaucoup d’universités et d’entreprises.

Le nombre d’algorithmes utilisables est de nos jours d’ores et déjà très grand, et le domaine subit beaucoup de changements. Il s’y ajoute chaque jour de nouveaux algorithmes, tandis que ceux existant déjà sont améliorés. Une grande partie des algorithmes est publique et il est possible de se les procurer sous différents paquets de logiciels libres, tels que R, Mahout, Weka, etc. D’autres algorithmes sont des produits commerciaux et sont de ce fait propriétaires.

Afin que les algorithmes fonctionnent de façon optimale (répartition entre le processeur et la mémoire vive) avec les technologies « Big Data », d’autres logiciels sont nécessaires. Ici aussi on trouve des possibilités parmi les logiciels libres ou commerciaux qui sont constamment développés.

Une chose est claire : les possibilités de l’analytique prédictive et prescriptive sont loin d’être épuisées.

Industrie 4.0: l’informatisation de l‘industrie

L’industrie 4.0 en tant que projet allemand et européen comprend l’informatisation des techniques de fabrication. Les techniques d’automatisation nécessaires à l’industrie 4.0 doivent devenir plus intelligentes par l’introduction de procédés d’auto-optimisation, d’auto-configuration, d’auto-diagnostic et de cognition et mieux soutenir les hommes grâce à leur travail toujours plus complexe. Il en résulte ainsi une usine intelligente (Smart Factory), polyvalente et efficace en termes de gestion des ressources, et qui s’intègre parfaitement dans le processus commercial d’une entreprise.

Les idées de l’industrie 4.0 sont omniprésentes dans l’industrie suisse, et pas seulement dans le domaine de la production. Le degré de maturité de l’industrie suisse concernant l’industrie 4.0 est très varié. Par exemple, certains précurseurs installent déjà des systèmes de télémaintenance, afin que partout dans le monde des machines installées fournissent des données au fabricant et que les processus de maintenance puissent être mis en place en temps voulu. D’autres opérateurs connectent toute l’usine ou leurs installations industrielles dispersées sur différents sites de façon si centralisée que les données sont utilisables comme un tout. Mais même cette mise en pratique n’est qu’un premier pas dans un monde de l’industrie 4.0, dans la mesure où le « soi », c’est-à-dire la connexion logique et physique des machines n’est pour l’instant que très ponctuellement en croissance.

Un élément important de l’industrie 4.0 est le développement des capteurs mêmes. Par exemple, les capteurs offrent des possibilités totalement nouvelles en matière de mesure de la qualité en direct dans le domaine de la « Vision Industrielle » – c’est-à-dire le domaine de la capture d’images, également dans les longueurs d’ondes IR et X –, ce qui nécessite cependant un très grand volume de données. La spectroscopie est intégrée de plus en plus directement dans les procédés et fourni une très grande quantité de données. Les capteurs modernes sont tout particulièrement caractérisés par des flux de données toujours plus grands, qui doivent être gérés.

De notre point de vue, on accorde trop peu d’importance à l’analytique dans l’industrie 4.0. L’analytique 3.0 et l’industrie 4.0 sont hélas deux mondes hermétiquement séparés. Pourquoi ? Ces deux mondes sont complexes, et seulement partiellement maitrisables dans un premier temps. L’intersection des deux mondes grandit et il ne manque plus que les compétences nécessaires pour les rapprocher.

Industrie analytique 4.0: une étoile est née

analytics3
Fig. 2: Cap sur l’industrie analytique 4.0 avec le nuage informatique

Lorsque nous considérons désormais l’intersection des deux mondes, il nous convients alors de la désigner comme l’industrie analytique 4.0. Le nuage informatique (cloud) revêt une grande importance pour rassembler ces deux mondes, car cela consiste finalement à réunir les données en un lieu central. L’industrie analytique 4.0 est une branche de l’industrie 4.0 se concentrant sur la partie analytique de cette quatrième révolution industrielle. Quel est le but d’une telle branche ? Revenons pour cela à la définition de l’industrie 4.0 et identifions l’importance de l’analytique :

  • Auto-optimisation : Comparé à l’activité physique d’une machine, l’auto-optimisation du procédé de fabrication est un processus d’optimisation mathématique basé sur des données. Derrière ces processus ne se cachent rien d’autre que les algorithmes de l’analytique 3.0 déjà évoqués.
    L’auto-optimisation revêt deux aspects. D’une part, il s’agit de l’optimisation du procédé de fabrication en lui-même. D’autre part, l’attention est également portée sur le produit fini. On peut qualifier une auto-optimisation du procédé de fabrication comme une optimisation automatisée de la qualité. L’optimisation automatisée de la qualité nécessite alors une grande quantité de données, qui doivent être traitées. Afin de pouvoir traiter à temps des informations durant le processus de production, de grandes et performantes structures analytiques sont nécessaires.
  • Auto-diagnostic : L’auto-diagnostic a comme but de détecter les pannes de machines le plus tôt possible, ce qui passe par la notification de valeurs seuils. La combinaison de données de mesures traitées algorithmiquement, et le rapatriement des informations qui en découlent dans le procédé de fabrication par traitement physique, peut faire office d’auto-diagnostic.
  • La cognition est l’ensemble des activités intellectuelles en rapport avec la pensée, le savoir, la mémoire et la communication. Comme le cerveau humain, l’industrie a également besoin d’un recueil de données en tant que base à partir de laquelle le savoir va être généré. Cette base est constituée par l’infrastructure (le Cloud) de l’analytique 3.0.

Il s’agit donc d’aligner l’analytique 3.0 sur la quatrième révolution industrielle qui est en cours. Ce ne sont pas seulement les techniques de fabrication qui sont concernées, mais aussi les techniques de stockage, l’ingénierie des procédés, les techniques de climatisation et les technologies énergétiques. Non seulement les données, mais également les infrastructures, les algorithmes et les outils sont spécifiques à ces industries et doivent être élaborés. De notre point de vue, la communauté des logiciels libres va y jouer un grand rôle. Nous pensons que le but d’une industrie 4.0 sera atteint plus vite grâce aux projets de logiciels libres existants et à venir dans les domaines de l’analytique et du Big Data. Les initiatives de logiciel libre génèrent de nouveaux produits pour l’industrie analytique 4.0.