Qualité des données : protéger le talon d'Achille de la numérisation
Dans un processus numérisé, la qualité des données influence directement l'efficacité du processus et le succès de l'entreprise. En effet, l'homme en tant que correcteur disparaît. Les experts recommandent donc vivement d'améliorer la qualité des données. Mais cela en vaut-il vraiment la peine et si oui, par où commencer ? Le fabricant d'ERP proALPHA a rassemblé les questions et réponses les plus fréquentes.
Le talon d'Achille d'une numérisation efficace ne réside pas dans la technique. Le point faible décisif, ce sont les données. Si un zéro de trop se glisse dans le processus numérisé ou si des données importantes manquent, le bon sens n'a plus aucune chance d'intervenir. Seul un programme rigoureux de remise en forme des données permet de remédier à cette faiblesse. Voici les dix questions les plus importantes concernant la qualité des données et la manière de la garantir :
1) La qualité des données peut-elle être raisonnablement mesurée et évaluée ?
Les experts décrivent jusqu'à 15 dimensions théoriques de la qualité des données. La pratique est plus simple : les étapes de processus automatisées doivent avant tout travailler avec des données complètes, actuelles et surtout univoques. En effet, les doublons dans la base de données des pièces ou des clients affaiblissent l'efficacité. S'il existe par exemple deux jeux de données pour un client, celui-ci peut être traité comme un client C alors qu'il fait en réalité partie des clients B. Les données de ce client ne sont donc pas toujours fiables.
Dans ce contexte, toutes les informations n'ont pas la même importance. En effet, les différentes façons d'écrire une adresse n'ont pas le même impact sur l'aptitude du processus qu'une liste de conditions manquante pour un fournisseur. C'est pourquoi la mesure de la qualité des données comprend toujours une évaluation des erreurs trouvées. Les cas particulièrement critiques nécessitent en outre un workflow d'escalade afin d'éliminer les erreurs en temps voulu.
2) Est-ce que cela en vaut la peine ? Tout ne sera-t-il pas aussi chaotique qu'avant le nettoyage ?
Ceux qui ont déjà essayé de maîtriser la qualité des données dans le cadre de plusieurs projets se sentiront comme Sisyphe dans la légende grecque. À peine arrivé en haut de la montagne, le rocher dévale à nouveau la pente et les efforts recommencent. En effet, l'expérience montre que l'effet d'un nettoyage projet par projet s'estompe au bout d'un certain temps. Comme pour l'entraînement à la course, il faut s'accrocher et mettre en place un programme de qualité des données.
3) Par où commencer ?
Dans l'idéal, une entreprise commence là où de meilleures données apportent la plus rapide valeur ajoutée. Cela peut être dans les achats, car les adresses des fournisseurs, les conditions et les délais de réapprovisionnement accélèrent sensiblement l'approvisionnement opérationnel. Un démarrage dans la production et la logistique peut également aider à gérer proprement les bases de données de pièces. Les pièces sont alors entièrement affectées à leurs groupes et toutes les données de poids nécessaires sont disponibles pour l'expédition. En fonction du secteur et de l'entreprise, la vente et le service après-vente peuvent également tirer un profit particulièrement important si les données relatives aux adresses et aux contrats sont à jour.
4) Est-il possible de mettre en place un programme de qualité des données sans avoir recours à des gourous de l'analyse ou à des spécialistes d'Excel ?
Les programmes d'analyse modernes se passent aujourd'hui totalement de programmation. La définition des règles n'a rien de sorcier pour un utilisateur qui s'y connaît un peu dans le système. Une fois les règles définies, les collaborateurs du service spécialisé reçoivent une indication sur les nouvelles données à corriger. Dans l'idéal, ils peuvent cliquer directement sur l'enregistrement concerné. Cela permet de gagner du temps. Les corrections à court terme assurent en outre un effet d'apprentissage rapide. La fréquence des erreurs diminue ainsi tout naturellement.
5) Quelle est la rapidité d'adaptation de ces cadres réglementaires aux nouvelles exigences ?
Les changements sont aujourd'hui réalisables à très court terme. En effet, les outils d'analyse modernes ne nécessitent ni la programmation d'un fabricant de logiciels ni celle d'un expert en informatique. Toutefois, les entreprises doivent s'assurer que les modifications de règles ne se contredisent pas ou n'entraînent pas de problèmes ailleurs. Cela ne peut se faire sans une gouvernance des données.
6) Pour un contrôle et un nettoyage continus des données, toutes les données doivent-elles se trouver dans un seul système ?
Celui qui postule cela pense hors du monde. En effet, la plupart des entreprises travaillent aujourd'hui avec plus d'un système. Les logiciels de contrôle, appelés Data Quality Manager, intègrent aujourd'hui sans peine les données de plusieurs sources et les contrôlent ensemble.
7) Comment gérer la question au niveau international ?
La gestion des données de base est incontournable. Des responsabilités claires sont essentielles : qui est responsable de quelles données, qui peut et qui doit modifier quelles données - et où, dans quel système. La gestion des données de base détermine quelles données sont gérées de manière centralisée et quelles données sont gérées localement, et assure la synchronisation nécessaire.
8) Comment peut-on mesurer et documenter les progrès de manière fiable ?
Le reporting des analyses régulières ne doit pas se limiter à l'identification d'erreurs isolées. Il doit également permettre un contrôle au sens d'un "state of the data". Ce rapport d'état montre au service spécialisé ainsi qu'à la direction que le nettoyage des données en vaut la peine et que les efforts portent leurs fruits - et ce de manière durable. Il peut même s'y développer une saine concurrence entre les domaines.
9) Comment se déroule un programme de qualité continue des données ?
Un logiciel Data Quality Manager vérifie les fiches de pièces, les fichiers clients ou d'autres données préalablement extraites par rapport à un ensemble de règles. Par exemple, les codes postaux en Grande-Bretagne sont alphanumériques, alors qu'en Allemagne ou en Autriche, ils ne sont composés que de chiffres. Des contrôles par rapport à des bases de données externes, qui plausibilisent par exemple le code postal et la rue, sont également possibles. En plus de la simple détection d'erreurs, le logiciel détermine s'il s'agit de défauts graves ou de déficits de faible importance. Les erreurs trouvées sont ensuite transmises au système cible, accompagnées d'une évaluation. Dans la plupart des cas, il s'agit d'un système ERP. Les collaborateurs peuvent alors directement corriger les données. Si un cas d'exception est constaté, il est désormais noté dans le système de règles. Tout cela peut être réalisé aujourd'hui sans qu'un collaborateur ou un conseiller n'ait à programmer une ligne de code.
10) À quelle fréquence les bases de données doivent-elles être vérifiées ?
Il n'y a pas de règles précises à ce sujet. La fréquence dépend beaucoup de l'entreprise concernée, de ses processus et de ses bases de données. Comme tout programme de fitness, il est adapté aux objectifs et aux paramètres de performance individuels. L'essentiel est de procéder à des contrôles continus et réguliers et de mesurer les progrès.
La plupart des entreprises sont désormais conscientes de leur talon d'Achille et sont prêtes à agir activement pour la qualité des données. Celles qui ont déjà commencé font état d'un double effet d'entraînement : d'une part, la gestion de la qualité des données assure en interne une plus grande sécurité de la production et des processus - et donc des décisions fondées. De plus, des informations fiables sur les délais de livraison et la disponibilité augmentent la satisfaction des clients et des fournisseurs et accélèrent la collaboration.
Source : proALPHA