BI Trends

Le Big Data se démocratise en entreprise

Usages quotidiens au service des collaborateurs
 

Les entreprises persistent à mal concevoir la portée du big data et à le cantonner aux experts analystes et à la R&D. Pourtant, il n’y a pas plus opérationnel qu’un projet big data. Bien au contraire, la grande étape à franchir maintenant est bien sa désacralisation au profit d’une adoption généreuse, au sein des entreprises, par les utilisateurs, les métiers, le terrain. C’est à eux aussi que le big data s’adresse.

Et parce qu’il s’agit d’abord d’un concept, c’est associé aux technologies de business intelligence et d’analytique qu’il développe son plus grand potentiel. Partage et collaboration, smart & easy data discovery, intelligence artificielle, smart bots, prédictif, temps réel, command center… autant de technologies qui profitent aux utilisateurs.

Partage et collaboration : enrichir sa donnée

Générer des métadonnées qui enrichissent la donnée, c’est en quelques mots le principe même du big data. C’est aussi le principe de Google, dont l’algorithme de scoring s’enrichit et apprend des actions réalisées sur le moteur de recherche. Parce qu’une action génère de la donnée, cette donnée, à son tour, génère des métadonnées.

En entreprise, dans le décisionnel et l’analytique, la clé est bien le partage et la collaboration. D’une part parce qu’ils mettent les utilisateurs en immersion. Or, plus on utilise un outil, plus on en tire de la valeur. D’autre part, les métadonnées générées sont aussi intéressantes voire plus que la donnée recherchée initialement car elles permettent, dans un second temps, de renvoyer une information bien plus ciblée à l’utilisateur qu’aux jours de ses premières utilisations.

Prédictif, temps réel, Intelligence Artificielle : automatiser la qualité de service

La supply chain est certainement l’activité par excellence qui tire une multitude d’avantages des technologies d’analytique et du big data.  La gestion des stocks, pour ne citer qu’elle, s’appuie dorénavant sur une remontée en temps réel de l’état des stocks et les technologies prédictives aident à anticiper les ruptures ou encore les problèmes de qualité. Or seules les architectures big data sont capables d’opérer sur des millions de transactions à la journée et d’offrir une information en temps réel qui ne manquera pas d’intéresser (aussi) les fournisseurs de l’entreprise.

Plus généralement, l’intelligence artificielle est intimement liée au big data et peut opérer un nombre grandissant de services, pour relever le niveau de qualité mais aussi en cyber sécurité pour isoler automatiquement un système corrompu ou détecter rapidement une fraude via la télémétrie.

Smartbot : discuter avec un agent virtuel

Trop d’emails, de coups de fil, de sollicitations, susceptibles d’interrompre une réflexion ou un travail à haute valeur ajoutée en cours, l’intelligence artificielle vient au secours des collaborateurs sur des tâches ponctuelles ou répétitives. Les smartbots par exemple sont capables de fournir l’information désirée, où qu’elle soit, à la demande, sans avoir à assiéger le bureau d’un collègue. Intuitive, l’interaction se fait sous forme de dialogue écrit ou oral.

Smart & easy data discovery : amener la donnée à tous

Il s’agit ici de reconnaître que chacun peut analyser de la donnée et faire des études relativement complexes sans compétences techniques avancées. C’était chose quasiment inaccessible il y a seulement 5 ans.

Pourquoi une évolution aussi rapide ? D’une part, s’il en existe encore, les grands projets de BI destinés à plusieurs milliers de personnes se pratiquent moins. D’autre part, les collaborateurs témoignent du désir de mieux comprendre les enjeux et les objectifs de leur entreprise et d’y prendre part. Les questions chaque jour sont plus nombreuses et les besoins s’individualisent. 

Sous l’impulsion conjuguée de la datavisualisation, qui offre un rendu efficace et adapté à la lecture par tous et des logiciels dont la philosophie est de porter la donnée à tous, les pratiques ont considérablement évolué. Aujourd’hui, les chiffres montrent qu’un tiers à la moitié d’une base utilisateurs (contre moins de 10% il y a quelques années) est en mesure de créer des analyses pour les mettre à disposition du plus grand nombre. Il est ainsi devenu plus facile d’accéder à la donnée, de l’analyser et de la partager.

Command center : globaliser la connaissance

Un command center, ou salle de contrôle globale, est doté d’écrans géants. Il affiche les tableaux de bord renseignés en temps réel sur l’activité de plusieurs sites, en parallèle. La technologie apporte une vue d’ensemble permettant, en flux tendu, d’allouer les ressources là où elles sont réellement nécessaires. Elle concerne de nombreux secteurs et services : war room en aéroport, transport de marchandises, patrouilles de police, sécurité incendies, hôpitaux…

Les technologies support de la démocratisation

Ce bref aperçu serait incomplet sans mentionner certaines technologies qui contribuent très directement à la démocratisation du big data en entreprise, à commencer par les API, capables d’amener l’information puisée dans un système de BI et d’analytique partout où elle sera utile. Écrans de contrôles, push notifications, l’analytique pour tous c’est aussi apporter à l’ensemble de ses collaborateurs une information qui n’était partagée jusqu’ici que par un petit nombre de cadres. Or, l’alignement des équipes sur les objectifs de l’entreprise passe évidemment par le partage des KPI.

Le cloud naturellement a ouvert des opportunités de diffusion massive d’information sans les contraintes de budget attachées aux serveurs d’entreprise. L’accès à la puissance de calcul, modulable à l’envi, n’est plus réservé aux mastodontes du web.

Télémétrie, génération de métadonnées viennent en soutien indéfectible des opérations de gestion et de logistique en entreprise et des analyses de productivité, de conduite du changement ou encore de fraude. Certaines technologies d’identification participent de l’enrichissement de la donnée et nourrissent ainsi l’intelligence artificielle infusée dans le quotidien de l’entreprise.

Enfin, parce que les besoins en performance vont de pair avec l’adoption massive des technologies big data, les traitements massivement parallèles, véritables accélérateurs de transfert et de traitement de la donnée, sont les seuls à répondre à ces nouvelles exigences.

Comments Blog post currently doesn't have any comments.