Methoden der Datenanalyse für Großunternehmen

0

Auf dem Weg hin zu Industrie 4.0 und dem Internet of Things (IoT) suchen Unternehmen nach immer besseren Möglichkeiten des Datenmanagements. Es gibt verschiedene Methoden der Datenanalyse, mit denen die Unternehmen aus zunächst unstrukturierten Datenbeständen entscheidungsrelevante Informationen gewinnen können.

Datenanalyse: Gewinnung von Informationen aus numerischen Daten

Bei der Datenanalyse werden mit Hilfe von statistischen Methoden aus zuvor erhobenen numerischen Daten Informationen abgeleitet. Im Anschluss daran werden die gewonnenen Informationen in Tabellen oder Grafiken zusammengestellt und dienen dann als Entscheidungshilfe für die verschiedenen Bereiche der Unternehmensführung. Es gibt verschiedene Methoden der Datenanalyse.

Deskriptive Datenanalyse

Die deskriptive Datenanalyse hat ausschließlich beschreibenden Charakter. Zu diesem Zweck verdichtet sie die Informationen, die in den einzelnen Datensätze vorhanden sind. Zur Beschreibung werden dann Tabellen, Grafiken oder Maßzahlen verwendet.

Inferenzielle Datenanalyse

Mit der inferenziellen Datenanalyse sollen die Aussagen einer Stichprobe mit einem statistischen Modell auf die Grundgesamtheit übertragen werden. Wichtige Verfahren der inferenziellen Datenanalyse sind Intervallschätzungen und Hypothesenprüfungen, die sogenannten statistischen Testverfahren.

Wichtige Verfahren der inferenziellen Datenanalyse sind Intervallschätzungen und Hypothesenprüfungen, die sogenannten statistischen Testverfahren. (#01)

Wichtige Verfahren der inferenziellen Datenanalyse sind Intervallschätzungen und Hypothesenprüfungen, die sogenannten statistischen Testverfahren. (#01)

Explorative und konfirmatorische Datenanalyse

Die explorative Datenanalyse hat das Ziel, in den Daten verborgene Strukturen, Muster und Zusammenhänge zu identifizieren. Im Gegensatz dazu sollen bei der konfirmatorischen Datenanalyse eben diese Zusammenhänge verifiziert werden, wozu Regressions- und Kausalanalysen verwendet werden.

Univariate, bivariate und multivariate Datenanalyse

Die Methoden der Datenanalyse werden dahingehend unterschieden, dass entweder ein-, zwei- oder mehrdimensionale Merkmale untersucht werden. Je nachdem, wie viele Variablen in die Analyse einbezogen werden, wird das Verfahren gewählt.

Datenanalyse: Welche Phasen werden durchlaufen?

Während des Prozesses der Datenanalyse werden die Daten unter Anwendung verschiedener Techniken strukturiert, geordnet und schließlich in einer Form dargestellt, die als Entscheidungshilfe geeignet ist. Dabei werden unterschiedliche Phasen durchlaufen und es sind immer wieder Rückkoppelungen notwendig.

  • Definition des Ziels
  • Beschaffung der Daten
  • Aufbereitung der Daten
  • Auswertung der Daten
  • Interpretation der Ergebnisse

Video: Datenanalysen: 7 Tipps für bessere und schnellere Ergebnisse

Zu Beginn des Prozesses muss zunächst eine Zielsetzung definiert werden. Vor diesem Hintergrund werden dann die fachlichen Fragestellungen definiert. Die Beantwortung der Fragen soll letztlich dazu führen, Entscheidungen zu treffen oder Probleme zu lösen. Im nächsten Schritt wird entschieden, welche Daten aus welchen Quellsystemen benötigt werden.

An diesem Punkt sollten auch die auszugebenden Formate festgelegt werden. Im Rahmen der Datenaufbereitung werden nun die Strukturen beleuchtet, um eine zielführende Datenauswertung zu ermöglichen. Es ist wichtig, dabei das Datenmodell, die Kausalitäten zwischen den Daten und die Besonderheiten des ERP-Systems zu berücksichtigen.

Bei der Auswertung der Daten werden verschiedene Techniken wie Gruppierung, Verdichten, grafisches Aufbereiten oder Filtern eingesetzt, um letztlich aus den Daten Informationen zu gewinnen. Mit diesen Informationen kann man Aussagen hinsichtlich bestimmter Wirkungsweisen und Zusammenhänge machen.

Die Präsentation der Ergebnisse bildet den Abschluss des Prozesses. Aus den Informationen werden erklärende Aussagen formuliert oder Kennzahlen erstellt, die der Problemlösung dienen. Es wurde also neues Wissen generiert. Mit diesem Wissen werden in einer späteren Datenanalyse Probleme bewältigt. Durch die Wiederholung der Datenanalyse werden schon gewonnene Erkenntnisse zur Steigerung der Qualität genutzt.

Die Präsentation der Ergebnisse bildet den Abschluss des Prozesses. Aus den Informationen werden erklärende Aussagen formuliert oder Kennzahlen erstellt, die der Problemlösung dienen. (#02)

Die Präsentation der Ergebnisse bildet den Abschluss des Prozesses. Aus den Informationen werden erklärende Aussagen formuliert oder Kennzahlen erstellt, die der Problemlösung dienen. (#02)

Datenanalyse: Herausforderung und Chance für Großunternehmen

Für Großunternehmen ist es unerlässlich, sich professionell mit dem Thema Datenanalyse auseinanderzusetzen. Wer im globalisierten Wettbewerb bestehen will, muss die Datenflut, die auf jedes Unternehmen einstürmt, möglichst optimal zu einem Erkenntnisgewinn umwandeln und das ist nur mit der Datenanalyse möglich. Oft fehlen allerdings in den Unternehmen Experten, die sich diesem Thema annehmen können und außerdem ein strategischer Ansatz.

Die meisten Unternehmen nutzen jedoch bereits für das Fällen von Entscheidungen die Analyse ihrer Unternehmens- und Kundendaten. Da jedoch zunehmend neue Datenquellen berücksichtigt werden müssen und diese oft unstrukturiert oder polystrukturiert sind, wachsen die Anforderungen an die Datenanalyse enorm. Demgegenüber steht die Tatsache, dass eine Datenanalyse häufig noch mit relativ simplen Methoden wie Tabellenkalkulationen durchgeführt wird, die nicht geeignet sind, Datensätze aus den Sozialen Netzwerken, Sensordaten oder Geodaten in den Analyseprozess aufzunehmen.

Diese einfachen Methoden sind eigentlich nur dafür geeignet, den Ist-Zustand zu beschreiben. Dynamische Umweltbedingungen und immer kürzere Innovationszyklen zwingen die Unternehmen, sich mit zukunftsgerichteten Analysen für verschiedene Szenarien zu wappnen.

Ziel ist es, rechtzeitig Entwicklungen zu antizipieren, um dann schnell reagieren zu können. Es ist wichtig, Kundenbedürfnisse möglichst schneller als die Konkurrenz zu erkennen und dann eine kundenindividuelle Marketingstrategie auszuarbeiten. Ansonsten besteht die Gefahr, Wettbewerbsnachteile zu erleiden und letztlich die Existenz des Unternehmens aufs Spiel zu setzen.

Predictive Analytics: Erstellung von Prognosen auf Basis der Datenanalyse

Daten sind Produktionsfaktoren, die einen erheblichen Wert für das Unternehmen darstellen. Es stellt sich somit die Frage, wie man das Wissen, das in diesen Daten vorhanden ist, extrahieren und nutzen kann. Um das Potenzial des Datenbestands optimal auszuschöpfen und zu greifbaren Insights umzuwandeln, ist es nötig, Predictive Analytics Tools einzusetzen.

Mit diesen innovativen Business Intelligence Anwendungen gelingt es, die Perspektive zu erweitern und nicht nur die Vergangenheit und die Gegenwart zu betrachten, sondern einen datenbasierten Blick in die Zukunft zu werfen. Big-Data-Analytics-Lösungen sind über alle Branchen hinweg weltweit zum wichtigsten Bereich der digitalen Transformation geworden.

Um das Potenzial des Datenbestands optimal auszuschöpfen und zu greifbaren Insights umzuwandeln, ist es nötig, Predictive Analytics Tools einzusetzen. (#03)

Um das Potenzial des Datenbestands optimal auszuschöpfen und zu greifbaren Insights umzuwandeln, ist es nötig, Predictive Analytics Tools einzusetzen. (#03)

Methoden der Datenanalyse

Schnelle und komplexe Methoden machen es möglich, dass die Entscheider neue Entwicklungen sofort aufgreifen und Chancen und Risiken erkennen. Mit verschiedenen Methoden kann die Datenanalyse in den Unternehmen noch effizienter eingesetzt werden.

Bereinigung und Bearbeitung nicht regelkonformer Daten

Damit die Datenanalyse den gewünschten Effekt erzielen kann, ist es wichtig, eine hohe Datenqualität sicherzustellen. Es ist nicht möglich, die Datenflut zu bewältigen, ohne zunächst durch eine Bereinigung der Daten eine einheitliche Formatierung herzustellen. Nur wenn die Datenbasis korrekt und konsistent ist, kann sie als Input für die Business Intelligence Anwendungen dienen. Ansonsten fällt oft erst während er eigentlichen Datenanalyse auf, dass Korrekturen notwendig wären.

Diese Korrekturen im Nachhinein vorzunehmen, ist viel aufwendiger, als direkt auf eine ausreichende Datenqualität zu achten. Außerdem verzögern notwendige Korrekturen die Datenanalyse und wirken somit direkt kontraproduktiv dem Ziel einer schnellen Reaktion auf Entwicklungen entgegen. In diesem Zusammenhang ist es sehr wichtig, zeitbasierte Daten zu erkennen, denn deren Bereinigung ist eine Grundprämisse für die Datenanalyse. Die Mängel an der Datenbasis können mit visuellen Analysen identifiziert werden. Auf diese Weise können dann sofort nichtregelkonforme Daten bereinigt werden.

Es ist nicht möglich, die Datenflut zu bewältigen, ohne zunächst durch eine Bereinigung der Daten eine einheitliche Formatierung herzustellen. (#04)

Es ist nicht möglich, die Datenflut zu bewältigen, ohne zunächst durch eine Bereinigung der Daten eine einheitliche Formatierung herzustellen. (#04)

Erkenntnisfortschritt durch innovative Visualisierungsmethoden

Auf Basis von Best Practises stehen Visualisierungsoptionen zur Verfügung, die eine beschleunigte Nutzung der Geschäftsdaten ermöglichen. Geografische Informationen können anschaulich mittels Kartenvisualisierung dargestellt werden. Sollen zeitliche Entwicklungen näher analysiert werden, eignen sich demgegenüber besonders Liniendiagramme.

Mit den Vorlagen kann eine Entscheidung für die optimale Darstellungsform erleichtert werden. Letztlich muss der User nur noch aus den Grafiken die passenden auswählen und kann sofort mit der Visualisierung beginnen. Auch damit wird die Datenanalyse beschleunigt.

Schnellere Einblicke durch eine umfassende Datenexploration

Es ist nicht selten der Fall, dass es während der Datenanalyse auf einmal neue Fragen oder auch neue Analyseansätze erforderlich machen, eine andere Perspektive zu wählen. Aus diesem Grund muss darauf geachtet werden, dass das System der Datenanalyse nicht starr und kompliziert ist, sondern immer noch Raum und Flexibilität für intuitive Analyseschritte lässt.

Ganz besonders wichtig ist in diesem Zusammenhang, dass dieses System ermöglicht, verschiedene Datensegmente schnell zu kombinieren. Vielleicht eröffnet es ja dem Unternehmen völlig neue Perspektiven, wenn die Kundendaten mit geografischen Daten in Beziehung gesetzt werden.

Praktische Hilfen sind hierfür neben Datenfiltern auch Raster und farbliche Markierungen. Damit kann der Anwender seinen Fokus genau auf die Aspekte der Datenauswertung lenken, die seiner Ansicht nach im Vordergrund stehen sollten. Auch die Kombination von Informationen ist auf diese Weise ganz einfach möglich. Alles, was einfach und unkompliziert ist, erleichtert die Datenanalyse.

Ganz besonders wichtig ist in diesem Zusammenhang, dass dieses System ermöglicht, verschiedene Datensegmente schnell zu kombinieren. (#05)

Ganz besonders wichtig ist in diesem Zusammenhang, dass dieses System ermöglicht, verschiedene Datensegmente schnell zu kombinieren. (#05)

Intensivere Nutzung von Standortdaten

Meist werden Standortdaten nur für eine Standardkartenvisualisierung genutzt. Das ist schade, denn gerade Standortdaten können den Unternehmen viele nützliche Informationen liefern. Die gängigen Analyse-Tools ermöglichen jedoch nur eine Kartenvisualisierung auf einer Ebene. In jeder Visualisierung werden nur einzelne Aspekte abgedeckt und es sind unnötig viele Darstellungen nötig, damit alle Informationen genutzt werden können. Karten mit mehreren Ebenen können diese Eindimensionalität aufheben. Damit erlangen die User ein viel besseres Verständnis von den Geodaten, die jetzt auf einen Blick verfügbar sind.

Optimierung von R-Skripts

Für statistisches Rechnen ist „R“ auf der ganzen Welt die beliebteste Programmiersprache. Ihre Open Source Engine verursacht jedoch Probleme, wenn es darum geht, eine Integration in die Anwendungen des Unternehmens vorzunehmen. Darüber hinaus sind bei steigenden Datenmengen Leistungsprobleme der R-Engine zu beobachten. Das wiederum erfordert ein umständliches Umschreiben und birgt somit die Anfälligkeit für Fehler.

Aus diesen Gründen ist es wichtig, dafür zu sorgen, dass eine reibungslose Integration der R-Skripts in die Datenanalysesoftware gewährleistet ist. Dann wird es möglich, dass die R-Skripts gespeichert, angepasst und mit anderen Usern geteilt werden. Auf diese Weise können auch Mitarbeiter, die über keine vertieften IT-Kenntnisse verfügen, in den Prozess einbezogen werden und Analysen eigenständig durchführen.

Die Vorreiterrolle großer Unternehmen im Bereich der Datenanalyse

Da die Implementation eines Systems der Datenanalyse mit erheblichem Aufwand und Kosten verbunden ist, ist es nicht verwunderlich, dass vor allem große Unternehmen ab einer Mitarbeiterzahl von 2.000 Vorreiter auf diesem Gebiet sind. In diesen Unternehmen hat sich größtenteils die Erkenntnis durchgesetzt, dass eine Big Data Strategie nötig ist. Besonders die Versicherungsbranche, der Handel und die Pharmaindustrie unternehmen intensive Anstrengungen, Datenanalyse-Strategien umzusetzen. Meist werden Bedenken im Bereich Datenschutz, das Fehlen von Experten und natürlich Budgetrestriktionen angegeben, wenn es darum geht, ein mangelndes Engagement zu begründen.

Welche Hindernisse sind auf dem Weg zur professionellen Datenanalyse zu überwinden?

Eine immer schnellere Entwicklung neuer Informationstechnologien, die zunehmende Vernetzung im Web und die Globalisierung stellen die Unternehmen vor große Herausforderungen, eröffnen auf der anderen Seite aber auch große Chancen. Cloud-Lösungen ermöglichen beispielsweise das Einbinden neuer Datenquellen.

In vielen Fällen kann eine Best-of-Breed-Lösung das Mittel der Wahl sein. Dabei wird auf eine Komplettlösung verzichtet und stattdessen für die verschiedenen Anwendungsbereiche die jeweils beste Lösung erstellt. Des Weiteren ist auf eine möglichst zeitnahe Umsetzung zu achten, da ansonsten die Analyse auf veralteten Daten beruht. Aus diesem Grund sind einfach zu bedienende, flexible Lösungen vorzuziehen.

Es liegt oft an nicht geklärten Zuständigkeiten und mangelhaft definierten Prozessen, dass die Einführung eines Datenanalysesystems nicht reibungslos gelingt. Neben den Investitionen in die Technologie muss auch parallel eine Qualifikation der Mitarbeiter erfolgen. Um eine möglichst hohe Akzeptanz zu schaffen, ist ein Support, an den sich die Mitarbeiter bei Problemen wenden können, sehr wichtig.

Datenanalyse im Unternehmen: Es gibt auch Erfolgsstorys

Trotz aller Probleme eröffnet die Datenanalyse mit modernen BI Tools den Unternehmen auch riesige Chancen. Ein Beispiel für das erfolgreiche Implementieren eines Datenanalysesystems ist der Healthcare-Konzern Merck. Dieser kreierte ein eigenes Data-Warehousing-System. Das System beinhaltet Open Source Tools sowie In-Memory-Datenbanken und kann Daten aus strukturierten und unstrukturierten Quellen erfassen.

Eine Visualisierungssoftware erleichtert den Analysten, die oft nicht technisch versiert sind, die Einsicht in die Daten. Über Simulationen und Modelling-Tools greifen die Data Scientists auf die Daten zu. Merck taufte dieses System MANTIS (Manufacturing and Analytics Intelligence) und es half dabei, die Kosten für Analytics-Projekte nahezu zu halbieren. Außerdem sanken Bearbeitungszeiten um 30 Prozent und Lagerkosten um 50 Prozent.

Datenanalyse im Unternehmen: Wohin führt der Weg?

Durch die ständig wachsenden Datenmengen und die digitale Transformation werden Unternehmen vor die Aufgabe gestellt, Datenanalyse als einen erfolgskritischen Prozess zu begreifen. Dementsprechend müssen sie durch die Investition in die Analytics Tools und die Qualifikation der Mitarbeiter sowie die datenzentrierte Gestaltung der Wertschöpfungskette dafür sorgen, dass die Potentiale der Daten genutzt und in brauchbares Wissen umgewandelt werden. Das ist vielleicht die zentrale Qualifikation, die künftig erfolgreiche von weniger erfolgreichen Unternehmen unterscheiden wird.


Bildnachweis:© Shutterstock – Titelbild: Pressmaster – #01: Rawpixel.com – #02: ESB Professional – #03: LeoWolfert – #04: igor kisselev – #05: Africa Studio

Über 

Marius Beilhammer, Jahrgang 1969, studierte Journalismus in Bamberg. Er schreibt bereits viele Jahre für technische Fachmagazine, außerdem als freier Autor zu verschiedensten Markt- und Businessthemen. Als fränkische Frohnatur findet er bei seiner Arbeit stets die Balance zwischen Leichtigkeit und umfassendem Know-how durch seine ausgeprägte Affinität zur Technik.

Share.

Leave A Reply