Datenanalyse: 7 Tipps für schnellere und bessere Ergebnisse

0

Die Datenanalyse trifft Entscheider in Unternehmen und Organisationen oft auf dem falschen Fuß. Meist ist eine Datenanalyse von Zeitdruck und unklaren Vorgaben begleitet. Beides sind nicht die besten Voraussetzungen für allerbeste Ergebnisse. Doch: Woran liegt das und wie kann man die Datenanalyse zu einem Job machen, der ebenso viel Spaß wie Erfolg bringt? Die folgenden sieben Tipps können helfen, wenn Sie ebenfalls grübelnd vor der Aufgabe der Datenanalyse stehen.

1. Tipp: Nehmen Sie das Thema Datenanalyse ernst und arbeiten Sie professionell

Im digitalen Zeitalter ist Datenanalyse für jedes Unternehmen eine erfolgskritische Aufgabe. Pure Statistik reicht im Zeitalter von Big Data, Datenschutz, Data Mining und Compliance einfach nicht mehr. Die weit verbreitete Excel-basierte Analyse von Daten, mit der sich viele Unternehmen behelfen, weil Excel „eh da“ ist und sich immer einige Excel-Experten im Unternehmen finden, ist wegen des wachsenden Datenvolumens und steigender Nachfrage nach komplexen Ad-hoc-Analysen aus dem Management inzwischen aber nicht mehr zeitgemäß. In ewig langen Excel-Listen haben Anwender keinen Überblick über ihre Datensätze, und viele erforderliche manuelle Bearbeitungsschritte kosten unnötig Zeit und Nerven und sind extrem fehleranfällig. Die Investition in eine moderne, professionelle Systemlösung, die den Umgang mit Daten automatisiert und leistungsfähige Analysefunktionalität bereitstellt, lohnt sich daher definitiv.

Datenanalyse gehört im digitalisierten Business zur erfolgsentscheidenden Standardaufgabe – und wer hier im Wettbewerb mithalten will, sollte sich mit dem passendem Werkzeug und geeigneten digitalen Methoden dafür rüsten.

2. Tipp: Analysieren Sie Ihren Bedarf genau

Am Markt steht inzwischen ein breites Spektrum an IT-Lösungen für die Datenanalyse bereit. Definieren Sie daher Ihren Bedarf an Business Data genau, bevor Sie in die Evaluierung starten. Was erwartet die Fachabteilung, was das Management? Hinterfragen Sie, wie oft und an welcher Stelle Sie auf Drittprodukte wie z.B. Excel zugreifen müssen, weil Standardsysteme nicht die gewünschten flexiblen Datenanalysen hergeben. Für viele Anwendungsbereiche sind beispielsweise mächtige Business-Intelligence-Lösungen, die für das unternehmensweite Controlling konzipiert sind, überdimensioniert oder zu unflexibel. Für Verfahren wie zum Beispiel

  • die Sondierung von Kundendaten im Rahmen gezielter Marketingkampagnen,
  • die Auswertung von Messdaten im Energiesektor,
  • Analysen von Daten des Artikelbestandes und
  • Multi-Channel-Analysen im E-Commerce,
  • Compliance-Audits,
  • Messwert-Analysen in der Forschung oder
  • komplexe Lagerbestandsanalysen

werden Spezialtools benötigt, die dem Anwender viel Freiraum in der branchen- und themenspezifischen Analyse von Massendaten geben. Hier gibt es schlanke, schnelle Lösungen, die keinen großen Investitions- und Projektaufwand erfordern und auch für kleine und mittelständische Unternehmen oder für die einzelne Fachabteilung gut geeignet sind. Die bewusste Sondierung Ihres eigenen Bedarfs, die dann zur genau passenden Lösung führt, ist die einzige Methode für die kosteneffiziente Investition, die schnell den gewünschten Mehrwert bringt.

3. Tipp: Die Datenanalyse-Experten sitzen in Ihren Fachabteilungen

Die Devise für Datenanalyse heißt „Self Service“, denn die fachlich kompetenten Experten, die genau wissen, welche Daten und Auswertungen sie für ihr Business brauchen, sitzen in den jeweiligen Fachbereichen – langwierige Umwege über die IT-Abteilung oder gar externe IT-Spezialisten werden heute im schnellen Tagesgeschäft nicht mehr akzeptiert. Beziehen Sie Ihre Fachbereiche als künftige Anwender daher von Anfang an in die Bedarfsanalyse und Auswahl des benötigten Analyse-Tools mit ein. Die Funktionalität, die ein Fachanwender-taugliches System heute auf jeden Fall mitbringen muss:

  • Intuitive Bedienung, keine Programmierkenntnisse (z.B. SQL) erforderlich
  • Hohe Flexibilität bei der Selektion der Daten
  • Hohe Performance, keine langen Abfragezeiten auch bei großen Datenmengen
  • Gute Visualisierungsmöglichkeiten für verständliche, nachvollziehbare Dateneinblicke
  • Reporting-Funktionalität zur ansprechenden Präsentation der Ergebnisse
  • Einfache Einbindung der zu analysierenden Datenquellen
  • Flexible Kombination von verschiedenen Datenquellen und Vorsystemen

Ganz nebenbei erfüllt eine im eigenen Hause erstellte Analyse der Business Data die Anforderungen von Datenschutz und Compliance wesentlich leichter als ein externer Dienstleister. Auch das Wissen und die gesammelte Erfahrung aus dem Data Mining sollte eher im eigenen Haus aufgebaut werden.

4. Tipp: Prüfen Sie die Datenqualität VOR der Datenanalyse

Der alte Spruch „Garbage in – Garbage out“ gilt natürlich auch im digitalisierten Unternehmen. Wer keine vernünftige Datenbasis hat, kann auch mit modernsten Analysetools keine verlässlichen Auswertungen generieren. Prüfen Sie daher die Qualität Ihres Datenbestands, bevor Sie Data Analysen fahren.

Erstreckt sich Ihre Datenanalyse auf Artikeldaten? Wurden alle Artikelbezeichnungen eindeutig vergeben? Oder wimmelt es von „SK-Schrauben“, „Sechskant-Schrauben“ und „Schrauben mit Sechskantkopf“?

Oftmals ergeben sich Fälle wie der obige im eiligen Tagesgeschäft. Bei der Artikelpflege wird schnell ein Begriff eingepflegt, der bei jedem Mitarbeiter aus einem unterschiedlichen Vokabular entnommen wird. Wenn Sie später die Daten analysieren, wundern Sie sich plötzlich, wenn der Artikel mit dem höchsten erwarteten Umsatz gleich mehrfach auftaucht, jedoch mit wesentlich geringeren Umsätzen und mit unterschiedlichen Schreibweisen.

Solche Fälle von schlechter Datenqualität sind nicht selten. Wenn Sie ein Tool nutzen, mit dem festgestellte Datenfehler dieser Art gleich aufdeckt und genau identifiziert, gewinnt Ihre Datenanalyse sogleich an Ergebniswert.

Infografik Datenanalyse: Dimensionen Datenqualität(DQ) (#2)

Infografik Datenanalyse: Dimensionen Datenqualität (DQ) (#2)

Was genau sollten Sie vor der Datenanalyse prüfen?

  • Sind in alle Datenfelder gefüllt?
    Fehlende Werte verzerren das Ergebnis Ihrer Datenanalyse und beeinträchtigen den Aktionsspielraum auf Basis Ihrer Daten. Moderne Marketing- oder Vertriebskampagnen beispielsweise sind kaum möglich, wenn Sie bei der Lückenprüfung feststellen, dass im CRM-Datenbestand Ihrer Bestandskunden ein Großteil der der E-Mail-Adressen fehlt oder fehlerhaft ist.
  • Differieren Schreibweisen?
    Klassischer Fall ist die Schreibweise des Städtenamens „Frankfurt am Main“. Hier findet sich zur gleichen Postleitzahl eine ganze Bandbreite von Werten von „Frankfurt/M.“ bis „Frankfurt a. Main“.
  • Liegen Zahlendreher vor?
    Auch hier ist die Postleitzahl sehr anfällig. Eine automatisierte Prüfung gegen ein Verzeichnis aller gültigen Postleitzahlen filtert fehlerhafte Werte aus.
  • Sind alle Dubletten entfernt?
    Durch verbindliche Vorgaben zur Datenpflege können Dubletten in relevanten Daten vermieden werden. Hier ein Beispiel aus der Artikelpflege: Wird ein gesuchter Artikel nicht auf Anhieb im Artikelstamm gefunden, besteht die Gefahr, dass dieser als Dublette neu angelegt wird. Eindeutige Merkmale, Produktbezeichnungen und zutreffende Bezeichnungen beim Einpflegen der Artikel minimieren dieses Risiko. Auch doppelt gepflegte Kundendaten führen häufig zu Verärgerung, da der Kunde beispielsweise das gleiche Schreiben mehrfach erhält.
  • Haben alle relevanten Datensätze das passende Datenformat?
    Bei der Auswertung von Belegdaten kommt es beispielsweise vor, dass das Datumsformat nicht einheitlich ist. Bei der Analyse treten Fehler auf. Die korrekte und einheitliche Festlegung des Datenformats ist daher eine Grundlage für valide Ergebnisse.
Infografik Datenanalyse: Auswirkung von Dubletten (#1)

Infografik Datenanalyse: Auswirkung von Dubletten (#1)

5. Tipp: Prüfen Sie die Plausibilität des Datenbestandes

Wenn Sie für Ihre Datenanalyse Daten aus dem ERP-System gezogen haben, lassen Sie von Ihrer Software einen leicht prüfbaren Wert ermitteln, etwa die Monatsumsätze overall. Vergleichen Sie den Wert mit den im ERP-System vorliegenden aggregierten Zahlen. Differieren die Werte, spiegelt der extrahierte Datenbestand möglicherweise nicht den Originaldatenbestand im ERP-System wider.

Automatisierte Plausibilitäts- und Vollständigkeitsprüfungen unterstützen den Anwender bereits bei der fehlerfreien Dateneingabe. Über Warnfunktionen sollten Systeme den Anwender direkt auf Fehleingaben hinweisen und informieren – zum Beispiel mit Hinweisen wie »Das eingegebene Belegdatum liegt nicht im Bereich der Buchungsperiode! Möchten Sie das Belegdatum wirklich bearbeiten? Insbesondere bei Serienbriefen können fehlerhafte oder fehlende Adress-Einträge zu Verärgerung beim Kunden führen. Hier helfen Eingabehilfen wie „Wählen Sie eine Anrede (Frau/Herr) aus“ bzw. Warnhinweise bei Fehleinträgen, die Qualität der Adressdaten von Anfang an sicherzustellen.

Infografik Datenanalyse: Folgen mangelnder Datenqualität (DQ) (#3)

Infografik Datenanalyse: Folgen mangelnder Datenqualität (DQ) (#3)

Ein wichtiger Anlass zur Überprüfung von Datenqualität und Plausibilität sind Datenintegrations- und Migrationsprojekte. Die Zusammenführung von Daten aus verschiedenen IT-Systemen mit unterschiedlichen Datenstrukturen in ein neues Zielsystem stellt Unternehmen immer vor große Herausforderungen. Qualität, Konsistenz und Transparenz der entstehenden Datenbasis im Zielsystem sind dabei entscheidende Erfolgsfaktoren für gelungene Migrationsprojekte, denn auch hier gilt: Wenn diese Faktoren nicht erfüllt sind, wird die Auswertung des integrierten Datenbestands nicht reibungslos verlaufen bzw. die Datenanalyse keine tragfähigen Ergebnisse erbringen und damit der erwünschte Mehrwert einer neuen Applikation nicht erreicht. Bevor die Quelldaten in ein neues System übertragen werden, müssen sie daher unbedingt bereinigt werden. Das Entfernen fehlerhafte Daten, Datenleichen und Dubletten sowie die Harmonisierung der Datenstruktur – das alles sind wesentliche Aufgaben von Integrations- und Migrationsprojekten.

6. Tipp: Etablieren Sie Methoden und Routinen

Business Intelligence beginnt mit den ganz kleinen Dingen. Wenn Sie Ihre ideale Softwarelösung gefunden haben, schaffen Sie den organisatorischen Rahmen für die damit verbundenen Informationsprozesse. Regelmäßige Datenanalysen können als automatisierte, hoch effiziente Routinen etabliert werden. Für die Datenpflege und Auswertungen sollten außerdem klare Zuständigkeiten geregelt werden, z.B. fachlich kompetente „Data Owner“, die sich verbindlich um die Datenqualität kümmern und „Power User“, die sich mit dem System auskennen und auch die zeitliche Kapazität mitbringen, jederzeit bei Bedarf zeitnah Ad-hoc-Analysen zu erstellen. In vielen Unternehmen ist die Datenanalyse inzwischen als zentraler „Shared Service“ angesiedelt. Ein Verfahren, von dem alle Abteilungen durch die bewährten Vorteile der Arbeitsteilung profitieren.

7. Tipp: Bleiben Sie in der Datenanalyse flexibel

Unternehmen und Märkte verändern sich heute schneller als je zuvor. Achten Sie bei der Auswahl Ihres Analysetools darauf, dass es sich einfach an wechselnde Anforderungen anpassen lässt und in der Anwendung skalierbar ist. Ideal ist es, wenn sie mit einer dringend benötigten Anwendung in einem Fachbereich starten und diese nach und nach erweitern und vertiefen und auch für andere Fachbereiche ausbauen können – das steigert den Mehrwert Ihrer IT-Investition und vermeidet Insellösungen im Unternehmen. Auch hinsichtlich der eingeführten Informationsprozesse sollten Sie offen bleiben. Wie alle Geschäftsprozesse müssen diese ständig optimiert und an neue fachliche Anforderungen oder organisatorische Rahmenbedingungen angepasst werden.

Infografik Zusammenhang Datenqualität (DQ-und-Entscheidungen (#4)

Infografik Zusammenhang Datenqualität (DQ-und-Entscheidungen (#4)

Fazit

Unternehmensdaten analysieren, aufbereiten, Entscheidungsgrundlagen herausfiltern – das gehört inzwischen in jedem Fachbereich zum Tagesgeschäft. Die Unabhängigkeit in der Datenanalyse ist dabei eine zentrale Anforderung. Fachanwender wollen schnell auf neue und spontane Fragestellungen reagieren und ihre dafür benötigten Ad-hoc-Analysen und -Reports selbst nach Bedarf erstellen; der Umweg über die IT-Abteilung oder Spezialisten ist zeit- und kostenintensiv und daher nicht mehr akzeptabel. Entscheider aller Fachbereiche brauchen schnelle Antworten auf ihre Fragen und daher auch eigenständigen Zugriff auf ihr Datenmaterial. Auch vorgefertigte Reports in Branchen- oder ERP-Lösungen oder BI-Tools sind in ihren Analysepfaden oft zu weit vordefiniert, um alle neu aufkommenden Fragen zeitnah zu beantworten. Für viele Anwendungsbereiche sind daher einfach bedienbare Tools für die hoch flexible Self-Service Datenanalyse und Datenvisualisierung die passende Lösung.

Grundsätzlich spielt für die erfolgreiche Datenanalyse auch das Thema Datenqualität eine entscheidende Rolle, denn Ad-hoc-Analysen liefern nur dann hilfreiche Ergebnisse und dienen als sinnvolle Entscheidungsgrundlage, wenn die Qualität der Datenbasis transparent und stimmig ist.


Bildnachweis: © humanIT #1 + #2 + #3 + #4, shutterstock – Titelbild NicoElNino

Über 

Ingo Lenzen studierte als IBM-Student an der BA Mannheim (heute Duale Hochschule BW) „Betriebswirtschaftslehre mit Fachrichtung Wirtschaftsinformatik“.

Client-Server-Architekturen und DB-Programmierungen waren die Grundlage der folgenden Aufgaben. Er leitete mehrere Jahre als Systemanbieter die Sicherstellung der IT-Kommunikation und -Verarbeitung in einer großen Bank.
Es folgte ein Wechsel ins Consulting, wo die Datenanalyse und -Qualitätsprüfung zunehmend Schwerpunkte der Tätigkeiten ausmachten. Heute begleitet Ingo Lenzen zahlreiche Stammdatenprojekte und führt Seminare und Workshops im Bereich der Datenanalyse durch.

Ingo Lenzen ist Produktmanager und Teamleiter der Consulting-Abteilung der humanIT Software GmbH und Mitglied im Prüfungsausschuss der Dualen Hochschule Baden-Württemberg (Mannheim).

Share.

Leave A Reply