top of page
Rechercher

La donnée : source d’erreur de ses applicatifs métiers

« Pourquoi mes données sont incorrectes ? »

« D’où provient cet écart ? »

« Pourquoi ces erreurs, maintenant en pleine clôture ? »

« Notre outil de restitution est bancal… »

« Encore un souci lié à l’IT… »

Contrôleur de gestion, responsable financier… ces questions, vous vous les êtes posées un jour.

En tant qu’utilisateur final, vous êtes en droit d’attendre une solution qui vous facilite le travail, et non pas vous ajoute du stress.

Votre outil, Oracle essbase, anaplan, tagetik ou autre, est celui que vous utilisez pour votre analytique.

Que votre SI soit vieillissant ou récent, le choix dudit outil et la conception de l’application tiennent compte des problématiques liées au contexte et environnement de votre entreprise.

En termes de volumétrie de données, de sécurité des données, d’analyse et de visualisation, votre outil doit permettre de répondre à ces enjeux.


Les écarts de résultats

« Si mon outil est paramétré correctement, pourquoi ai-je des incohérences de données, voire des écarts ? »

Il faut évidemment prendre en compte la photo complète de votre écosystème.

Votre application est probablement connectée à d’autres technologies en amont, permettant de travailler et/ou d’enrichir la donnée, avant d’être injectée dans votre outil analytique.

Et celui-ci est également peut être en liaison avec d’autres applications en aval.

Avec ce process en vision, on s’aperçoit que l’erreur peut intervenir à n’importe quelle étape.

Ce peut être une nouvelle règle de calcul à paramétrer dans l’outil d’analyse.

Mais cela peut également être un souci de donnée en amont.



Identifier la provenance de l’incohérence

Mauvaise saisie comptable ?

Nouveau compte à intégrer dans le plan comptable ?

Nouveau mapping analytique ?

Nouvelle règle de retraitement ?

Le fameux adage « sh.. in, sh.. out » prend malheureusement tout son sens…

Nous l’avons identifié chez nombre de nos clients, dans 80% des cas, l’incohérence provient de la donnée en amont.

La solution mise en place, aussi performante et optimisée soit-elle, livrera des analyses incorrectes, si la qualité de la donnée en amont n’est pas au rendez-vous.

Normaliser la saisie des données permettra de standardiser les formats et les définitions des données pour assurer leur cohérence et leur interprétation uniforme.

Former chaque acteur du process sur l'importance de la qualité des données et les bonnes pratiques à suivre pour garantir des données fiables et pertinentes.


Adresser la qualité de données

Une étape primordiale et souvent négligée, le contrôle de la qualité des données ; Mettre en place des processus de contrôle de la qualité pour détecter et corriger les erreurs de données de manière proactive.

Cette étape peut parfois amener des difficultés dans le suivi de la donnée, car elle est nécessaire à chaque niveau de traitement de la donnée : en sortie du dataware, en entrée et sortie de l’ETL, en entrée et sortie de l’outil EPM.

Si les technos sont gérées en silo, cela peut engendrer une difficulté supplémentaire dans l’analyse de l’erreur.

Chez D&Ü, l’expertise est sur la chaîne complète, du dataware jusqu'à la restitution.

Lorsque cela était absent, nous avons mis en place chez certains de nos clients des contrôles de cohérence à chaque niveau de la navigation de la data.

Cela afin de permettre d’isoler plus rapidement l’étape à laquelle la donnée devient erronée, ou manquante.

En effet, il est possible que la donnée soit rejetée à quelque étape que ce soit, si le référentiel ne permet pas de l’accepter.

L’expertise sur la chaîne complète, cela vous permet de ne pas démultiplier les communications ou sollicitations en cas d’anomalie. Un interlocuteur unique, garant de la véracité de la donnée sera un plus pour la maintenance de votre application, et l’accompagnement dans l’analyse en cas d’incohérence.

bottom of page