Datenmanagement als kritischer Erfolgsfaktor

0

Das Datenmanagement sichert den Unternehmenserfolg, denn die Bedeutung von Daten als Erfolgsfaktor für die Unternehmensentwicklung steigt exponentiell an.

Datenmanagement wird zum kritischen Erfolgsfaktor

Die Zukunft der Unternehmensführung basiert auf dem Vorhandensein und adäquaten Handling von Stamm- und Bewegungsdaten. Zum einen wachsen die Datenmengen, die auf die Firmen einströmen, rasant und zum anderen ermöglichen komplexe IT-Lösungen bzw Business Analytics Tools aus der Datenflut handlungsrelevante Informationen zu extrahieren.

Damit Daten ihre Funktion als Entscheidungsgrundlage erfüllen können, muss die Qualität bestimmten Kriterien entsprechen. Ein integriertes Datenqualitätsmanagement sorgt unternehmensweit und über alle Ebenen hinweg dafür, dass eine hohe Datenqualität erreicht wird.

Video: Die Grundlagen des Datenmanagement

Warum ist das Datenmanagement ein zentraler Erfolgsfaktor?

Die Datenqualität ist ein mehrdimensionales Maß, das die Eignung der Daten beurteilt, den Zweck zu erfüllen, der mit ihrer Generierung beabsichtigt wird. Der Datenbestand soll Entscheidungen im operativen und analytischen Bereich unterstützen und für alle Aufgaben der Unternehmensplanung sinnvoll einsetzbar sein. Im Laufe der Zeit müssen immer wieder die Voraussetzungen und Ziele, die mit der Datenerhebung in einer dynamischen Umwelt verbunden sind, kritisch hinterfragt und gegebenenfalls angepasst werden.

Eine mangelhafte Informationsqualität ist auf allen Unternehmensebenen und in jedem Prozess problematisch. Nur mit verlässlichen, validen Datenbeständen ist der Einsatz von Business Intelligence Tools sinnvoll. Die IT-Lösungen in einem Unternehmen können ihren intendierten Nutzen entfalten, wenn die Datenbestände, die der Input dieser Systeme sind, korrekt sind. Das auf den Datenhaushalten basierende Reporting kann ebenfalls nur so gut sein, wie das Datenmaterial es erlaubt. Cloud-Computing und Dashboards sind weitere Themen, die ahnen lassen, wie wichtig ein ausgezeichnetes Datenqualitätsmanagement ist.

Einen Mangel an Daten wird kein Unternehmen beklagen, wenn das Thema Datenqualität diskutiert wird. Ganz im Gegenteil, aktuell muss davon ausgegangen werden, dass sich das Datenvolumen alle zwei Jahre verdoppelt und diese Zuwachsraten wahrscheinlich weiter steigen werden. Aus unzähligen strukturierten und unstrukturierten Quellen ergießt sich eine wahre Datenflut in die IT-Systeme der Unternehmen.

Die Daten sind dabei selten kompatibel. Leider wird dem Thema Datenqualitätsmanagement oft nicht die gebotene Aufmerksamkeit entgegengebracht. Das Hauptaugenmerk der Unternehmen liegt meist auf der Implementierung innovativer Business Intelligence Tools und komplexer IT-Systeme. Damit diese ihre Leistungsfähigkeit entfalten können, ist es unverzichtbar, dem Datenqualitätsmanagement eine hohe Beachtung zu schenken.

Welche Probleme verursacht eine mangelhafte Datenqualität?

Die Datenbasis ist der Produktionsfaktor der Zukunft, denn der Weg hin zur Informationsgesellschaft und der Realisierung einer datengestützten Unternehmensführung ist unumkehrbar. Demzufolge hängt der Unternehmenserfolg ganz entscheidend davon ab, dass das Management die richtigen Informationen, zur richtigen Zeit und in optimaler Qualität zur Verfügung hat. Das Datenqualitätsmanagement sollte somit als ein elementarer Bestandteil in das allgemeine Qualitätsmanagement integriert werden.

Was sind die Folgen einer schlechten Informationsqualität? Prozesse laufen im Unternehmen langsamer und mit Reibungsverlusten ab, wodurch sich wiederum die Durchlaufzeiten verlängern. Kosten steigen und die Zufriedenheit der Mitarbeiter sinkt. Marketingkampagnen und die allgemeine Kundenansprache sind nur suboptimal möglich, wodurch auch die Kundenzufriedenheit sinkt. Unzufriedene Kunden sind Multiplikatoren in den Sozialen Netzwerken und dies hat sinkende Umsätze und Gewinne zur Folge.

Eine mangelhafte Datenqualität ist ein Problem für das Management. Werden Entscheidungen auf einer fehlerhaften oder veralteten Datenbasis getroffen, steigen die Risiken von Projekten und führen Fehlentscheidungen im schlimmsten Fall dazu, dass ein Unternehmen Chancen nicht ergreift und Risiken nicht rechtzeitig erkennt. In Krisensituationen geht so wertvolle Reaktionszeit verloren und das Unternehmen gerät in ernsthafte Schwierigkeiten. Der gesamte Bereich der Unternehmenssteuerung ist auf eine zuverlässige Datenbasis angewiesen.

Darüber hinaus verlangen regulatorische Vorgaben wie Basel-II die Umsetzung von Standards und deswegen ein konsequentes Datenqualitätsmanagement. Letztlich sind es auch die IT-Innovationen selbst, die an die Informationsqualität erhöhte Anforderungen stellen. Außerdem entfallen mit zunehmender Automatisierung Möglichkeiten, dass Mitarbeiter Fehler einfach „per Hand“ korrigieren können. Es ist in jedem Fall sinnvoll, von vornherein auf eine hohe Datenqualität zu achten. Wird eine Datenbereinigung nötig, ist diese fünf- bis zehnmal teurer als die Maßnahmen des Qualitätsmanagements, mit denen die Informationsqualität gesichert wird.

Video: Der Wert der Datenqualität

Was sind die Gründe einer mangelhaften Datenqualität?

Eine der wichtigsten Ursachen für eine unzureichende Datenbasis liegt in der fehlenden Einsicht, dass ein Master Data Management dringend erforderlich ist. Deshalb müssen IT-Spezialisten mit der wichtigen Aufgabe betraut werden, die Qualität der Datenbestände sicherzustellen. Eine Umfrage der Deutschen Gesellschaft für Informations- und Datenqualität (DGIQ e.V.) hat ergeben, dass 90 Prozent der Befragten hochwertige Daten als wichtigen Erfolgsfaktor betrachten. Für mehr als 40 Prozent hat die Datenqualität sogar eine sehr große Bedeutung. Dieser Widerspruch zeigt, dass ein enormer Handlungsbedarf besteht. Es ist erforderlich, dass für das Thema Data Quality ein Datenbeauftragter in Vollzeit abgestellt wird.

Auch eine Studie des Datenbank-Spezialisten Omikron zeigt ähnliche Ergebnisse und kommt zum Ergebnis, dass es letztlich an Sensibilität für das Thema Datenqualitätsmanagement fehlt. In 50 Prozent aller teilnehmenden Firmen beträgt die Fehlerquote in der Kundendatenbank mindestens 20 Prozent und jedes sechste Unternehmen gab sogar an, dass der Datenbestand zu mehr als 30 Prozent fehlerhaft sei. Die Adressdaten sind bei vielen Probanden nicht aktuell oder schlichtweg falsch. Direktmarketing-Aktionen sind damit von Anfang an zum Scheitern verurteilt.

Letztlich werden in den Unternehmen zu wenig Ressourcen eingesetzt, die sich um das Thema Data Quality kümmern. Dabei fehlen zentrale Verantwortlichkeiten und Lösungen, um die Vielzahl an Datenquellen automatisiert zu pflegen. Es ist sinnvoll, ein Master Data Management aufzubauen, dass im Sinne eines Regelkreises kontinuierlich die Datenqualität überwacht, aber auch veränderte Anforderungen an die Informationsqualität aufnimmt und berücksichtigt. Eine Datenanalyse im Hinblick auf festgelegte Qualitätskriterien und darauf aufbauend Maßnahmen zur Datenbereinigung sichern die nötige Datenqualität und liefern dem Management die Informationen, die es für seine unternehmerischen Entscheidungen benötigt.

Welche Kriterien sind bei der Beurteilung der Datenqualität relevant?

Basis für die Beurteilung der Daten ist deren Glaubwürdigkeit. Diese ist gegeben, wenn der Datenbestand korrekt, zuverlässig und konsistent ist. Die Werte müssen somit nachvollziehbar sowie aktuell sein und dürfen keine Widersprüche aufweisen. Außerdem sollen nur Daten aufgenommen werden, die für das Management nützlich sind. Die Informationen müssen eine Relevanz besitzen und den Anwendern einen Erkenntnisgewinn bieten. Darüber hinaus ist es wichtig, dass der Datenbestand aktuell, genau und vollständig ist. Eine Dublettenprüfung sorgt dafür, dass keine Dopplungen das System verlangsamen.

Weitere Anforderungen ergeben sich aus der beabsichtigten Nutzung der Datenbasis. Die Datensätze sollten in einem einheitlichen Format vorliegen, für den Nutzer verständlich sein und hinsichtlich der Interpretation keine Spielräume erlauben. Innerhalb der Business Intelligence Anwendungen gibt es mehrere Ansatzpunkte, an denen die Datenqualität anhand der genannten Kriterien gemessen werden kann. Am sinnvollsten und auch am wenigsten aufwendig ist die Sicherstellung der Datenqualität direkt bei der Datengenerierung. Auf diese Weise wird eine spätere, mühsame Fehlersuche und komplizierte Datenbereinigung vermieden.

Video: Oracle Comic – Data Quality Management

Wie kann ein System zum Datenmanagement implementiert werden?

Die Themen Big Data und Industrie 4.0 erfordern die aktive Auseinandersetzung mit dem Bereich der Datenqualität. Wünschenswert und effizient ist die Vorgehensweise, ein integriertes System zum Datenqualitätsmanagement zu implementieren und damit der Tatsache Rechnung zu tragen, dass dies eine Daueraufgabe des Managements ist. Das Kundenmanagement, die Dokumentationspflichten gegenüber Behörden und Kunden, Aspekte des Datenschutzes und der Geschäftsprozessoptimierung rücken die Relevanz einer hohen Datenqualität zunehmend in den Mittelpunkt zukunftsgerichteter Unternehmensführung.

Data Governance ist der Oberbegriff für alle Elemente des Datenqualitätsmanagements. Darunter fallen die Mitarbeiter, die mit dieser wichtigen Management-Aufgabe betraut werden sowie die Verfahren und Prozesse des Datenqualitätsmanagements. Von zentraler Bedeutung ist die unternehmensweite Festlegung von Kriterien und Standards für das Datenqualitätsmanagement. Besonders entlang der kritischen Prozesse muss eine fortlaufende Datenkontrolle stattfinden, um Probleme frühzeitig zu erkennen und zu beheben.

Es ist sinnvoll, bei der Implementierung des Quality Managements schrittweise vorzugehen. Zunächst wird mit einem Projekt, das drei bis sechs Monate dauert, ein Bereich im Hinblick auf die Qualität der Datenbasis optimiert. Sinnvollerweise sollte dafür ein Bereich, in dem die Datenbestände bereits merkliche Probleme verursachen, ausgewählt werden. Auf diese Weise lassen sich die positiven Effekte des Datenqualitätsmanagements am besten demonstrieren. Dadurch werden erste Erfahrungen gesammelt und relativ schnell Verbesserungen erreicht, die eine Effektivität der Anstrengungen unterstreichen.

Maßnahmen zur Einführung eines Datenmanagements

Automatisierte Prozesse und effiziente Technologien sind die Themen unserer Zeit und eröffnen dem Management große Potentiale. Auf der anderen Seite wird gerade durch die Automatisierung deutlich, wie wichtig der Bereich Database Quality ist, denn nur wenn der Input an Informationen in die IT-Systeme stimmt, werden die Effizienzerwartungen erfüllt. Eine unzureichende Datenbasis, die nicht erkannt wird, liefert falsche Ergebnisse und Entscheidungsgrundlagen und führt dazu, dass das Management falsche, vielleicht sogar die Existenz des Unternehmens bedrohende, Entscheidungen trifft.

Das Datenqualitätsmanagement gehört als integraler Bestandteil zum allgemeinen Qualitätsmanagement und sollte deshalb gleiche Standards erfüllen. Basisstandards sind die Norm DIN EN ISO 9001 und die Datenqualitätsnorm ISO 8000. Auch Best-Practise-Beispiele können wichtige Anhaltspunkte für die Implementierung des Qualitätsmanagements liefern. Ziel ist eine Erhöhung der Prozesseffizienz und Servicequalität sowie eine Senkung der Kosten. Im Data Governance werden zunächst die genauen Anforderungen definiert und danach strukturierte Prozesse abgeleitet, mit denen der Datenbestand einer Firma in handlungsrelevante Informationen transformiert werden kann. Zum Data Governance gehören auch die Mitarbeiter, die für die Umsetzung der Qualitätskriterien verantwortlich sind.

Im Zentrum des Interesses steht die kontinuierliche Pflege des Datenbestandes und die kritische Beantwortung der Frage, welche der unzähligen Datenquellen zu diesem Bestand gehören sollten. Die Data Governance sollte in alle Prozesse des Unternehmens integriert werden und dafür sorgen, dass unternehmensweit eine Sensibilität für die Notwendigkeit der Datenbereinigung und Datenpflege erreicht wird. Damit kann umgesetzt werden, was von der modernen Unternehmensführung verlangt wird: Die Erreichung eines umfassenden Verständnisses der Kundenbedürfnisse und dadurch eine Sicherung und Verbesserung der eigenen Wettbewerbsposition.

Was sind die Folgen einer schlechten Informationsqualität? Prozesse laufen im Unternehmen langsamer und mit Reibungsverlusten ab, wodurch sich wiederum die Durchlaufzeiten verlängern. Kosten steigen und die Zufriedenheit der Mitarbeiter sinkt. (#01)

Was sind die Folgen einer schlechten Informationsqualität? Prozesse laufen im Unternehmen langsamer und mit Reibungsverlusten ab, wodurch sich wiederum die Durchlaufzeiten verlängern. Kosten steigen und die Zufriedenheit der Mitarbeiter sinkt. (#01)

Wie wird eine verbesserte Qualität der Datenbasis erreicht?

Das Team der Data Governance legt zunächst Regeln fest, die zur Beurteilung der Datenbestände angewendet werden. Ein Verantwortlicher (Owner) wird benannt, der im Austausch mit dem Team steht und für die Einhaltung der Regeln verantwortlich ist. Die Anwender (User) profitieren von der Arbeit des Teams und definieren ihrerseits Anforderungen an die Informationsqualität. Die Notwendigkeit und erfolgskritische Wirkung der Datenbereinigung sollte nachhaltig unternehmensweit kommuniziert werden.

Das Qualitätsmanagement des Datenbestands umfasst folgende Aufgaben:

  • Datenanalyse
  • Definition eines optimalen Datensatzes
  • Fehlerquellen bei Datenerfassung ausschalten
  • Dublettenprüfung zur Vermeidung von Dopplungen
  • Automatisierung der Datenerfassung zur Fehlerreduktion

Am Anfang stehen die Datenanalyse und die Festlegung eines Modell-Datensatzes

Mit Hilfe von Analysetools wird der Datenbestand kritisch analysiert und die Ergebnisse, die sich daraus ergeben, sorgfältig dokumentiert. Die Dokumentation ist wichtig, denn sie stellt sicher, dass die Maßnahmen zur Datenbereinigung nachvollziehbar sind. Nicht mehr benötigte Datenbestände sollten deshalb auch archiviert werden. Die Software zur Datenanalyse erkennt Redundanzen und Fehler in den Datenbeständen. Auch unvollständige oder widersprüchliche Datensätze werden herausgefiltert. Die Einigung auf einen modellhaften Datensatz ist Grundlage für die Datenanalyse und Festlegung gewünschter Sollzustände. Letztlich muss die Frage beantwortet werden, welche Informationen für die Unternehmensführung wichtig sind.

Einfache, benutzerfreundliche Eingabemasken verhindern schon beim Prozess der Dateneingabe Flüchtigkeitsfehler, die später kaum noch zu finden sind. Moderne ERP-Systeme führen eigenständig Plausibilitätsprüfungen durch, erkennen fehlerhafte Datensätze und warnen den Nutzer, der zeitnah seine Eingabe korrigieren kann. (#02)

Einfache, benutzerfreundliche Eingabemasken verhindern schon beim Prozess der Dateneingabe Flüchtigkeitsfehler, die später kaum noch zu finden sind. Moderne ERP-Systeme führen eigenständig Plausibilitätsprüfungen durch, erkennen fehlerhafte Datensätze und warnen den Nutzer, der zeitnah seine Eingabe korrigieren kann. (#02)

Fehlerquellen und Dopplungen bei der Datenerfassung vermeiden

Einfache, benutzerfreundliche Eingabemasken verhindern schon beim Prozess der Dateneingabe Flüchtigkeitsfehler, die später kaum noch zu finden sind. Moderne ERP-Systeme führen eigenständig Plausibilitätsprüfungen durch, erkennen fehlerhafte Datensätze und warnen den Nutzer, der zeitnah seine Eingabe korrigieren kann. Mit eindeutigen Artikelbezeichnungen werden Dopplungen vermieden. Die Dublettenprüfung identifiziert die Dopplungen und eliminiert diese umgehend.

Automatisierung der Datenerfassung

Themen wie Industrie 4.0 deuten an, wohin der Weg in den Firmen führen wird. Mit zunehmender Automatisierung der Datenerfassung werden Fehlerquellen ausgeschaltet. Lagerbestände und Bestellmengen werden automatisch verwaltet, sodass auch hier Fehler vermieden werden. Ein perfekt durchdachter Prozess, der dann automatisch IT-gestützt abläuft, verringert das Risiko falscher Eingaben und erhöht die Produktivität der Mitarbeiter. Resultat sind niedrigere Kosten, eine höhere Kundenzufriedenheit und dadurch auch höhere Einnahmen. Letztlich wird so die Gewinnsituation und die Entwicklung des Unternehmens positiv beeinflusst.

Video: Datenqualität: Gespräch zwischen zetVisions und Lünendonk

Datenmanagement ist eine Daueraufgabe

Es ist nicht ausreichend, einmal einen gewünschten Zustand zu definieren und dann Abweichungen zu identifizieren und zu beseitigen. Datenqualitätsmanagement ist eine Daueraufgabe, die im Sinne eines Regelkreises immer wieder durchgeführt werden muss. Dabei müssen auch die Grundannahmen immer wieder kritisch hinterfragt werden, um den dynamischen Umweltbedingungen gerecht zu werden. Eine wichtige begleitende Maßnahme ist das direkte Zuweisen der Kompetenzen. Das Qualitätsmanagement kann nur dann intentionsgemäß erfolgen, wenn Verantwortliche benannt und mit den entsprechenden Kompetenzen ausgestattet werden.

Außerdem ist es wichtig, dafür zu sorgen, dass die Mitarbeiter auch über die notwendigen Qualifikationen verfügen. Regelmäßige Mitarbeiterschulungen sind eine gute Möglichkeit sicherzustellen, dass die Verantwortlichen im Bereich des Datenqualitätsmanagements und auch die User technisch auf dem neuesten Stand sind. Schließlich ist auch ein System zur Datenarchivierung notwendig, um immer wieder den Datenbestand zu begrenzen. Werden nicht mehr aktive Datensätze archiviert, kann mit einer schlankeren Datenbank gearbeitet und auf diese Weise die Informationsqualität erhöht werden.

Datenmanagement ist eine Herausforderung und Chance

Für die Zukunft einer Firma ist es von entscheidender Bedeutung, wie der Datenbestand gemanagt wird. Immer mehr Informationen aus zahllosen Quellen stehen der Unternehmensführung zur Verfügung. Zu erkennen, welche Stamm- und Bewegungsdaten wichtig sind und diese dann in erforderlicher Qualität zu erheben und korrekt auszuwerten, kann über die Zukunftsfähigkeit entscheiden. Wird das Datenqualitätsmanagement jedoch als wichtige Managementaufgabe verstanden, ergeben sich durch die innovativen Business Intelligence Anwendungen sehr gute Möglichkeiten, Chancen schneller als die Konkurrenz zu erkennen und Risiken rechtzeitig auszuschalten.

Die Investition in geeignete Master Data Management Systeme zahlt sich schnell aus, denn ohne diese strukturellen und prozessualen Maßnahmen kann ein Datenqualitätsmanagement nicht erfolgreich implementiert werden. Das Qualitätsmanagement ermöglicht die Senkung von Kosten und die Erhöhung von Einnahmen und bietet damit eine effektive Chance der Gewinnmaximierung.


Bildnachweis:©Shutterstock-Titelbild: Zapp2Photo-#01: Mikhail St -#02: Mikhail St

Über 

Marius Beilhammer, Jahrgang 1969, studierte Journalismus in Bamberg. Er schreibt bereits viele Jahre für technische Fachmagazine, außerdem als freier Autor zu verschiedensten Markt- und Businessthemen. Als fränkische Frohnatur findet er bei seiner Arbeit stets die Balance zwischen Leichtigkeit und umfassendem Know-how durch seine ausgeprägte Affinität zur Technik.

Comments are closed.