Du risque de négliger la « petite donnée » face au big data

Difficile aujourd’hui de résister au phénomène big data. D’autant qu’il répond à une attente forte en termes de compétitivité. Mais avant de s’y jeter, les entreprises n’ont-elles pas intérêt à se mettre au clair avec leurs petites données, en utilisant des applications de gestion de données appelées Application Data Management ou ADM.

David Coerchon, big data

David Coerchon – Systems Engineer – Winshuttle

A l’agenda d’un nombre croissant de comités exécutifs, le big data fait toujours couler beaucoup d’encre, car promis à un bel avenir. D’après le cabinet d’études IDC, ce marché devrait en effet connaître une croissance annuelle moyenne de 11,7% jusqu’en 2020.

Nouvel eldorado des entreprises en quête de relais de croissance, le concept de big data, rappelons-le, désigne le traitement en masse, grâce à des algorithmes sophistiqués, de volumes considérables de données, issues de sources diverses (transactions carte bleue, données de navigation, analyse sémantique de messages, remontées de caisses, géolocalisation …), collectées automatiquement.

Pour en faire quoi concrètement ? En s’appuyant sur l’analyse statistique de ces mégadonnées, les métiers de l’entreprise veulent améliorer les prédictions sur les produits, les clients et les fournisseurs. Typiquement, le big data va aider à prévoir le comportement de consommateurs sur un point de vente afin d’optimiser une offre commerciale ou d’améliorer le service.

Dépeint comme un levier de compétitivité, y compris pour les PME, le big data occupe tous les débats, crée de l’engouement et génère nombre de projets pilotes, au point d’occulter les autres données – moins glamour il est vrai – dont dispose l’entreprise et qui pourtant structurent son activité : numéros de comptes, adresses fournisseurs, taille articles, etc. En somme, toutes ces informations gérées au quotidien dans les ERP dédiés aux achats, à la facturation ou encore à la supply chain.

Des petites données de qualité

On peut qualifier ces données de « petites », au sens où elles ne se mesurent pas en pétaoctets, varient moins vite et sont souvent issues de saisies manuelles. Si petites soient-elles, ces données n’en doivent pas moins faire l’objet d’une attention forte car elles sont, elles aussi, un actif essentiel pour accompagner les transformations et prendre les bonnes décisions. A condition d’être exploitables.

Or, leur qualité laisse encore à désirer. Selon une enquête menée en novembre 2016 pour Experian*, neuf entreprises sur dix n’auraient pas confiance dans les données de leur système d’information. En moyenne, 27 % des données sont jugées comme non fiables.

Quel est le risque pour l’entreprise ? Non seulement ces données de base, erronées, incomplètes ou doublonnées, injectées dans le système d’information, génèrent de la non qualité, mais elles nécessitent du temps et des ressources pour les identifier et les corriger. A l’instar d’une pile bouton, capable de polluer à elle seule un cours d’eau pour des années.

Assurer les fondamentaux

Face à des défauts qui perdurent dans les bases internes, ne faudrait-il pas commencer par bien gouverner ses petites données, si l’on veut exploiter le levier du big data ? Il ne s’agit pas de remettre en cause l’intérêt évident des mégadonnées, mais d’organiser les priorités. Connaître les comportements des clients est une force. Mais cela ne sera d’aucune aide si l’entreprise n’assure pas correctement ses fondamentaux : réapprovisionner, fabriquer, livrer, facturer, encaisser.

Du reste, tirer un bénéfice des informations produites n’est pas l’apanage des données en masse, parfois hors de portée car complexes à manipuler : le réservoir de ventes des entreprises dépend aussi de la pertinence et de la justesse des données internes, gérées via les ADM.

A lire aussi sur Alliancy :