L'étude Big Data, Big Failure de Morar Research, réalisée pour Pure Storage, évalue en millions d'euros les pertes liées à une mauvaise gouvernance de l'information. Problèmes de disponibilité et d'accès aux données, manque de compétences et silotage des sources de données sont désignés comme les principaux maux dont souffrent les entreprises européennes qui ont bien voulu se prêter à l'exercice. Un trouble identifié de longue date comme étant le coût de la non qualité.
Un enjeu de la digitalisation est que, pour réduire cette fracture numérique interne à l'entreprise, il faut développer une culture de la donnée qui aille a l'encontre de la manière dont les grandes entreprises se sont historiquement constituées : opérer une transition vers le "crowdata" (SLA, plate-formes d'échange de données, data lakes, etc.) contredit les formats natifs de modèles opérationnels très répandus au sein desquels l'intégration des processus métiers est généralement assez faible, en tout cas trop faible pour faire face aux nouveaux enjeux client.
La rapidité et la pertinence du service offert en réponse à la demande client est effectivement une cause de différentiation majeure : si le service proposé est inapproprié, ou trop lent, le prospect a déjà opté pour une autre proposition lorsque l'offre lui parvient. Pour maintenir la pertinence et la vélocité d'une offre de services, il faut sans cesse réexaminer les modèles opérationnels des processus qui fonctionnent à la lumière :
De plus en plus on considère la relation client comme un risque car ce qui la caractérise, c'est la tolérance zéro : dès lors comment articuler cette exigence avec la maintenance opérationnelle des données ?
Henry Peyret du Forrester indiquait très justement lors de son keynote DEP 2015 que ce qui manque dans les data lake, ce sont des annotations relatives aux différents niveaux de qualité des données qui permettront des usages futurs non connus au moment de la définition de l'architecture : ajouter des fonctionnalités de data cleansing et de data modelling au moment de l'usage de la donnée permet entre autre d'apprendre au SI à générer des cartographies sémantiques, lesquelles permettent un ré-usage augmenté de la donnée requalifiée "bonne" pour cet usage.
Une approche que nous nous proposons de tester est inspirée de l'analyse des risques industriels, qui permet de lier le "risque" client (selon la définition plus haut) au "risque" opérationnel de la non qualité : des outils d'analyse tels que la méthodologie AMDEC, adaptés à cet effet, permettent de schématiser précisément les dimensions qualité de données et les processus opérationnels auxquels elles sont liées en modélisant les familles de données comme des éléments du système d'information, puis en analysant chaque élément selon la fonction qu'il sert (et les processus services associés), les dimensions qualité concernées par cette fonction (fonction des indicateurs), les modes de défaillance de l’élément, leurs causes et leurs effets ainsi que la détection du mode de défaillance et les actions correctives, ici requalifiées en actions de tagging sur la donnée et d'ajustement des indicateurs qualité de données.
La rapidité et la pertinence du service offert en réponse à la demande client est effectivement une cause de différentiation majeure : si le service proposé est inapproprié, ou trop lent, le prospect a déjà opté pour une autre proposition lorsque l'offre lui parvient. Pour maintenir la pertinence et la vélocité d'une offre de services, il faut sans cesse réexaminer les modèles opérationnels des processus qui fonctionnent à la lumière :
- de la connaissance qu'a l'entreprise du client, en intégrant les retours business dans la chaîne d'analyse de la valeur,
- mais surtout de la connaissance qu'a le client du service proposé grâce aux comparatifs en ligne, échanges réseaux, notations web, etc..
De plus en plus on considère la relation client comme un risque car ce qui la caractérise, c'est la tolérance zéro : dès lors comment articuler cette exigence avec la maintenance opérationnelle des données ?
Henry Peyret du Forrester indiquait très justement lors de son keynote DEP 2015 que ce qui manque dans les data lake, ce sont des annotations relatives aux différents niveaux de qualité des données qui permettront des usages futurs non connus au moment de la définition de l'architecture : ajouter des fonctionnalités de data cleansing et de data modelling au moment de l'usage de la donnée permet entre autre d'apprendre au SI à générer des cartographies sémantiques, lesquelles permettent un ré-usage augmenté de la donnée requalifiée "bonne" pour cet usage.
Une approche que nous nous proposons de tester est inspirée de l'analyse des risques industriels, qui permet de lier le "risque" client (selon la définition plus haut) au "risque" opérationnel de la non qualité : des outils d'analyse tels que la méthodologie AMDEC, adaptés à cet effet, permettent de schématiser précisément les dimensions qualité de données et les processus opérationnels auxquels elles sont liées en modélisant les familles de données comme des éléments du système d'information, puis en analysant chaque élément selon la fonction qu'il sert (et les processus services associés), les dimensions qualité concernées par cette fonction (fonction des indicateurs), les modes de défaillance de l’élément, leurs causes et leurs effets ainsi que la détection du mode de défaillance et les actions correctives, ici requalifiées en actions de tagging sur la donnée et d'ajustement des indicateurs qualité de données.
Aucun commentaire:
Enregistrer un commentaire