gif;base64,R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw==
Categories: Thought Leadership4.5 Min. Lesedauer

Die neue Normalität für FP&A: Datenanalyse

Der Begriff Datenanalyse bezieht sich auf die statistische Untersuchung von Datensätzen, um Schlussfolgerungen über die darin enthaltenen Informationen zu ziehen. Dabei stehen vor allem verschiedene Methoden im Vordergrund, mit denen Analysten Muster in Rohdaten aufdecken, um daraus wertvolle Erkenntnisse zu ziehen.

Die Datenanalyse ist damit der entscheidende erste Schritt, um Wissen für bessere, schnellere und intelligentere Entscheidungen in Unternehmen zu generieren. Diese Entscheidungsgrundlagen sind zwar immer wichtig, aber haben angesichts der aktuell turbulenten Zeiten eine noch höhere Priorität.

Datenanalyse ist nicht neu. Heutzutage bedeuten jedoch die wachsende Datenmenge (derzeit gemessen in Brontobytes = 1027) und die verfügbaren zukunftszweisenden Technologien, dass Sie deutlich schneller als früher wertvolle Erkenntnisse gewinnen können. Die Informationen, die wir dank der automatisierten Datenanalyse moderner Technologien aus den Daten gewinnen, sind viel genauer und detaillierter, unabhängig davon, ob es sich um strukturierte/unstrukturierte oder interne/externe Daten handelt. Neben der Verwendung von Daten als Grundlage für Ihre zukünftigen Entscheidungen können Sie auch aktuelle Daten nutzen, um zeitkritische Entscheidungen informiert, anstatt aus dem Bauch heraus zu treffen.

Zu den Technologien, die moderne Datenanalyse so viel leistungsfähiger machen, als sie es bisher waren, gehören Datenmanagement, Data Mining, prädiktive Analyse, maschinelles Lernen und künstliche Intelligenz. Obwohl die Datenanalyse den Unternehmen, die sie einsetzen, viele Vorteile bieten kann, treten auch immer wieder Herausforderungen zu Tage, die es zu meistern gilt. Eine der größten Herausforderungen besteht im Sammeln der Daten. Mit der heutigen Datenvielfalt gilt es zu priorisieren, damit ein sinnvolles Ergebnis erreicht werden kann.

Diese Herausforderung unterstreicht die Tatsache, dass wir den „Datenerfassungskrieg“ gewonnen haben. Es ist noch nicht lange her, dass „Wir wissen es nicht!“ eine völlig akzeptable Antwort auf geschäftliche Fragen war. Das liegt daran, dass die zur Beantwortung der Fragen benötigten Daten a) nicht verfügbar waren, b) zu teuer in der Anschaffung waren, c) zum Zeitpunkt der Anschaffung veraltet waren oder d) mehrere oder alle der genannten Punkte zutrafen.

Für das Jahr 2020 und die kommenden Jahre würde ich argumentieren, dass Daten im Grunde kostenlos, unbegrenzt und sofort verfügbar sind. Die Herausforderung ist jetzt, die riesige Datenmenge, zu der wir Zugang haben, zu verwalten. Gartner definiert „dunkle Daten“ als solche, die Unternehmen während der Geschäftsaktivitäten sammeln, verarbeiten und speichern, aber nicht weiterverwenden. Gartner schätzt außerdem, dass 80 % aller Daten „dunkel“ sind, während 93 % der unstrukturierten Daten als „dunkel“ eingeschätzt werden.

Zu den weiteren Herausforderungen der Datenanalyse gehören die Datenspeicherung, die Datenqualität und der Mangel an Wissen und Tools, die erforderlich sind, um die Daten sinnvoll zu nutzen und die entscheidenden Erkenntnisse zu gewinnen.

Bei der Arbeit mit Kunden sind dies einige der häufigsten „Schmerzpunkte“, die ich routinemäßig anspreche:

  • Schwierigkeiten bei der Extraktion von Daten aus veralteten Systemen
  • Eingeschränkte Echtzeit-Analysen und Visualisierungen
  • Eingeschränkte Möglichkeit von Self-Service-Berichten im gesamten Unternehmen
  • Fehlende Möglichkeit Daten schnell zu erhalten
  • Bedenken hinsichtlich der Datengenauigkeit
  • Mehr Zeit für den Datenzugriff gegenüber datengesteuerten Entscheidungen
  • Die fehlende Integration zwischen mehreren Datenquellen
  • Kompatibilität historischer Daten mit der aktuellen Umgebung (über 20 Jahre alte Daten)
  • Begrenzte interne Ressourcen

Das Ziel bei der Auseinandersetzung mit diesen Schmerzpunkten ist es, Ihre Stakeholder (sowohl innerhalb des Finanz-/FP&A-Bereichs als auch Ihre Geschäftspartner) in die Lage zu versetzen, problemlos Informationen zur Verfügung zu stellen, und zwar über:

  • Konsistentes Reporting und Dashboards
  • Self-Service-Berichte
  • Drill-down-Möglichkeiten
  • Exception-Reports

Die erwarteten Ergebnisse sind, dass Anwender im gesamten Unternehmen schneller genauere und konsistentere Informationen liefern und somit Zeit einsparen und flexibler auf aktuelle Anforderungen reagieren können. Wenn ich ein wenig tiefer auf die spezifischen Herausforderungen im Zusammenhang mit Daten eingehe, sind die häufigsten Antworten

  • Zu viel ETL (Extrahieren-Transformieren-Laden)
  • Langsame Aktualisierungszeiten
  • Ungenaue Ergebnisse
  • Keine verwertbaren Erkenntnisse
  • Fehlende Self-Service-Möglichkeiten der Analyseinstrumente

Das Vielversprechende ist: All diese Herausforderungen, die durch die aktuelle Krise abermals verschärft wurden, können durch die Nutzung vorhandener Technologien mit den richtigen Mitarbeitern, Prozessen und der richtigen Unternehmenskultur überwunden werden. Die Zeiten, in denen das Finanzteam durch die Datenarchitektur, die in ihren Unternehmen in den letzten zwanzig Jahren aufgebaut wurden (oder vielleicht auch nicht aufgebaut wurden), eingeschränkt waren, sind vorbei.

Normalerweise nehmen wir unsere verschiedenen Datenquellen und bearbeiten diese entsprechend der ETL-Prozesse. Diese transformierten Daten werden dann in einem Data Warehouse oder Data Lake gespeichert, wo sie weiter transformiert oder in einem Data Mart belassen werden können, um sie bei Bedarf an unsere Tools für Reporting, Business Intelligence und Datenvisualisierung zu liefern. Der andere übliche Datenfluss besteht darin, dass wir unsere verschiedenen Datenquellen nutzen und sofort in die erweiterte „Spreadsheet-Gymnastik“ einsteigen, um die Daten in Berichtstools zu nutzen.

Die gute Nachricht ist, dass wir durch die Möglichkeiten der heute verfügbaren Technologien sehr leicht die häufigsten Schmerzpunkte und Herausforderungen im Zusammenhang mit Daten bewältigen können – Stichwort Direct Data Mapping.

Brian Kalish

Brian Kalish is a former Executive Director with over 20 years of experience in Finance, FP&A, Treasury and Investor Relations. He previously held a number of treasury and finance positions with the FHLB, Washington Mutual/JP Morgan, NRUCFC, Fifth Third and Fannie Mae. He has spoken all over the world to audiences both large and small hosting FP&A Roundtable meetings in North America, Europe, Asia and soon South America. In 2014, Brian Kalish was awarded the Global Certified Corporate FP&A Professional designation.

Ähnliche Artikel

  • autonomous finance overview 1
    Categories: Thought Leadership8.6 Min. Lesedauer
    Mehr Autonomie im Finanzbereich: ein klarer Zukunftstrend
  • top 7 fpa trends overview
    Categories: Thought Leadership5.4 Min. Lesedauer
    7 FP&A-Trends mit denen Sie 2024 die Nase vorn haben
  • leadership ubiquitous ai overview
    Categories: Thought Leadership14.7 Min. Lesedauer
    Führungsqualitäten im Zeitalter allgegenwärtiger KI