Le terme « Analyse de données » désigne l’étude de jeux de données en vue d’en tirer des conclusions sur les informations qu’ils contiennent. Les techniques d’analyse des données améliorent la capacité à révéler des tendances à partir de données brutes et à en extraire des informations précieuses.

L’analyse des données est une première étape à ne pas négliger lorsque nous acquérons des données, les convertissons en insights, transformons ces insights en connaissances et exploitons ces connaissances pour aider l’organisation à prendre des décisions plus judicieuses, plus rapides et plus intelligentes. Cet objectif a toujours été important, mais il est monté encore plus haut dans l’ordre des priorités en cette période tumultueuse.

L’analyse des données est loin d’être une pratique nouvelle. Toutefois, avec le volume croissant de données (actuellement mesuré en bronto-octets = 1027) et les avancées technologiques disponibles, il est désormais possible d’obtenir des insights plus approfondis bien plus rapidement qu’auparavant. Que les données soient structurées/non structurées ou internes/externes, les insights générés grâce à ces données et technologies modernes ont considérablement gagné en granularité et en exactitude. En plus d’utiliser les données pour appuyer vos futures décisions, vous pouvez prendre des décisions immédiates grâce aux données actuelles.

Gestion et exploration des données, analyses prédictives, machine learning et intelligence artificielle… Voilà quelques-unes des technologies qui ont considérablement renforcé la puissance de l’analyse de données moderne. Malgré tous les avantages que ce processus offre aux organisations, il ne va pas sans certains défis, en particulier concernant la collecte des données. En effet, les organisations pourraient collecter une pléthore de données, mais elles doivent d’abord établir un ordre des priorités.

Cet enjeu révèle d’ailleurs que nous avons gagné la « guerre d’acquisition des données ». Dans un passé pas si lointain, « On ne sait pas » était une réponse tout à fait acceptable à une question opérationnelle. En effet, les données nécessaires pour y répondre étaient a) physiquement indisponibles, b) trop chères c) immédiatement obsolètes ou d) toutes les réponses ci-dessus.

En 2020, je dirais que les données sont devenues gratuites, illimitées et immédiates. Le défi est désormais de gérer la quantité astronomique de données auxquelles nous avons accès. D’après Gartner, les « dark data » sont des données collectées, traitées et stockées par les organisations au cours de leurs activités normales, mais qu’elles n’utilisent pas dans un autre cadre. Toujours selon Gartner, 80 % de la totalité des données et 93 % des données non structurées seraient des « dark data ».

L’analyse des données pose aussi d’autres difficultés, comme le stockage, la qualité, sans oublier certaines lacunes en matière de savoir-faire et d’outils pour donner du sens aux données et générer les insights nécessaires.

Au cours des projets menés avec mes clients, voici certains des principaux obstacles que je rencontre le plus souvent :

  • Difficultés à extraire les données des systèmes hérités
  • Analyses et visuels en temps réel restreints
  • Peu de rapports en libre-service dans l’entreprise
  • Incapacité à obtenir rapidement des données
  • Problèmes d’exactitude des données
  • Processus d’accès aux données plus longs que la prise de décisions axées sur les données
  • Manque d’intégration de sources de données multiples
  • Compatibilité des données historiques avec les environnements actuels (> 20 ans de données)
  • Ressources internes limitées

Remédier à ces obstacles permettra aux parties prenantes (à la fois en finance/FP&A et parmi vos partenaires opérationnels) de créer :

  • Des rapports et tableaux de bord cohérents
  • Des rapports en libre-service
  • Des capacités « drill down »
  • Des rapports d’exception

Résultat : les utilisateurs de toute l’entreprise devraient gagner à la fois en rapidité, en précision, en cohérence, en temps et en flexibilité. Lorsque que j’étudie de manière plus approfondie les problèmes spécifiques liés aux données, les réponses les plus fréquentes sont :

  • Trop de processus ETL (Extraction, Transformation, Chargement)
  • Délais d’actualisation trop lents
  • Peu de réponses aux requêtes
  • Absence d’insights exploitables
  • Absence de libre-service

Résoudre les problèmes qui ont été exacerbés par la crise mondiale est toutefois assez encourageant, car tous les obstacles relatifs aux données peuvent être surmontés grâce aux technologies existantes, à condition de pouvoir compter sur un personnel, des processus et une culture d’entreprise adéquats. Trop souvent, les secteurs de la Finance et de la FP&A ont été freinés par l’architecture de données mise en place (ou pas) par nos organisations au cours des vingt dernières années.

Généralement, nous appliquons des processus ETL à nos données à partir de nos multiples sources de données. Ces données transformées sont ensuite stockées dans un data warehouse ou un lac de données où elles peuvent être transformées davantage, ou laissées dans un datamart avant d’être importées dans nos outils de reporting, de Business Intelligence et de visualisation des données, selon nos besoins. L’autre flux de donnée commun consiste à prendre nos multiples sources de données et à effectuer immédiatement une « gymnastique de tableurs » complexe pour transformer les données dans nos outils de reporting.

La bonne nouvelle, c’est que le potentiel des technologies actuellement existantes peut nous aider à surmonter très facilement les principaux obstacles et défis – le mappage direct des données.

Pour obtenir plus de conseils de la part de Brian Kalish, nous vous invitons à regarder notre replay de webinar, où nous discutons plus en détails de la Nouvelle normalité pour les FP&A et des leçons tirées de ce processus.