Mit Bauchgefühl durch Big Data navigieren

0

In der Business Intelligence (BI) ist – ganz logisch – die Berechnung zuhause. Besonders in Zeiten, in denen jeder Mensch, aber noch mehr jede Maschine, ständig riesige Mengen an Daten erzeugt, die nicht zu Brachland werden sollten. Aber auch nicht zum Big Problem, hervorgerufen durch falsche Nutzung. Die Gegenwelt zu Brachland und Big Problem sind schlaue und intuitive Datenanalysen.

BI-Zeitalter gen 2020

Besonders smart im BI-Zeitalter gen 2020: Auch kleine und mittlere Unternehmen (KMUs), die nicht zwangsläufig IT-Abteilungen und –Experten im Haus haben, können ohne große Verrenkungen mit tief schürfender Datenanalyse arbeiten. So entdecken sie oft ganz neue Welten, erfahren, welche Zusammenhänge bestehen und wie sie weiter vorgehen sollten.

Martin Blumenau, Gründer und Geschäftsführer des Berliner Startups datapine: „Es ist noch gar nicht so lange her, da war Datenanalyse ausschließlich in den IT-Abteilungen der Unternehmen angesiedelt, weil klassische Datenanalysesoftware spezielle IT-Kenntnisse benötigt. Zum Teil ist das sogar heute noch der Fall. Damit geht das Problem einher, dass die Fachabteilungen auf den Support der IT-Abteilungen angewiesen sind, um wichtige Informationen aus den Daten zu extrahieren.“ Ein großes Problem fürs alltägliche Arbeiten. Blumenau: „In der Konsequenz fehlen dann oftmals wichtige Erkenntnisse für die Entscheidungsfindung.“

 

Oft fehlen Zeit und Geld, um sich Ausstattung und Wissen mit großem Aufwand ins Haus zu holen. Schließlich will man sich mit seiner eigentlichen Arbeit beschäftigen. Intuitive Lösungen, wie die des Berliner Startups, sind eine zukunftsträchtige Alternative. (#01)

Oft fehlen Zeit und Geld, um sich Ausstattung und Wissen mit großem Aufwand ins Haus zu holen. Schließlich will man sich mit seiner eigentlichen Arbeit beschäftigen. Intuitive Lösungen, wie die des Berliner Startups, sind eine zukunftsträchtige Alternative. (#01)

Erste selbstgemachte Analysen nach wenigen Minuten

Oft fehlen Zeit und Geld, um sich Ausstattung und Wissen mit großem Aufwand ins Haus zu holen. Schließlich will man sich mit seiner eigentlichen Arbeit beschäftigen. Intuitive Lösungen, wie die des Berliner Startups, sind eine zukunftsträchtige Alternative. Denn hier können auch die Nutzer innerhalb weniger Stunden oder Tage mit der Datenanalyse richtig durchstarten, nicht erst nach Monaten. datapine ist ein Tool, dass auch von Mitarbeitern genutzt werden kann, die nicht über spezifische IT-Kenntnisse verfügen. Der datapine-Chef: „Sofern die Anwender Vorkenntnisse mit Office-Programmen wie Excel und Powerpoint mitbringen, werden sie keine Problem haben, unsere Software zu verwenden. Durch einen sehr ausgebauten Onboarding-Prozess mit interaktiven Tutorials und einer sehr visuellen Oberfläche können auch Einsteiger innerhalb weniger Minuten erste Analysen erstellen.“

Ziel für datapine ist es, Marketing- , Vertriebs-, Finanz- und „Human-Ressources“ (HR) genannte Personal-Abteilungen in die Lage zu versetzen, eigenständig und unabhängig die für sie notwendigen Erkenntnisse aus den Daten zu generieren. Der junge Gründer: „Das gleiche gilt für den Bereich Marktforschung – da hat man es ja auch mit der Auswertung von Daten zu tun. Wir haben für die unterschiedlichen Abteilungen spezifische Dashboards entwickelt. So kann ein Marketingmanager über unser Tool den Erfolg einer Kampagne eruieren, während ein Vertriebsmitarbeiter beispielsweise aus den Daten filtern kann, welche Vertriebsaktivitäten am erfolgreichsten waren und wann er sich gegebenenfalls bei einem Kunden oder Neukunden wieder melden muss.“

Da die Daten aus der Vergangenheit fortschreibbar sind, erlaube das sogar einen Blick in die Zukunft. Konkret darauf, wie sich beispielsweise Umsätze entwickeln werden. Auf diese Weise könnten Abteilungen effizienter agieren und Entscheidungen auf valider Datenbasis treffen. Mit datapine wird im Browser gearbeitet, mit Abos ab 219 Euro monatlich. Blumenau: „Unser Tool gibt es als cloudbasierte Lösung, weshalb die Software immer auf dem neusten Stand ist. Somit entfallen aufwändige Wartung und Updates, sowie die damit verbundenen Kosten.“

Denkmodelle wie Tabellenkalkulationen

Das datapine-Tool lasse sich sehr schnell an die vorhandenen Datenbanken anschließen und habe beispielsweise Connectoren zu allen gänigen Social-Media-Plattformen, die vielen Unternehmen Daten quasi frei Haus liefern. Ganz wichtig auch: Die Daten müssen nicht aufwändig restrukturiert werden. Der Berliner Gründer: „Das passiert bei unserem Tool semi-automatisiert.“

Auch Matthias Thurner, Mitbegründer, Chief Technology Officer (CTO) und Vorstandsmitglied von prevero, einem Münchner Unternehmen mit Niederlassungen auf der ganzen Welt und über 4500 Kunden, ist ein Fan der neuen Einfachheit in der Business Intelligence: „Man muss unterscheiden zwischen Endanwendern und sogenannten Power Usern. Die Endanwender – also diejenigen, die eine fertige Applikation benutzen – brauchen überhaupt keine Vorkenntnisse zu haben. Sie können sofort mit der Software arbeiten.“ Früher habe man oftmals Schulungen benötigt, um eine neue Software bedienen zu können, „das ist hier eindeutig nicht der Fall“.

Bei prevero sei es sehr einfach, mit Applikationen zu arbeiten. Diese könnten intuitiv benutzt werden. Der prevero-CTO: „Der Endanwender kann sich auch sehr schnell eigene Analysen zusammenstellen oder Dashboards anfertigen. Auch dafür sind keine Vorkenntnisse erforderlich. Dem Power User hingegen helfen Vorkenntnisse. Power-User sind üblicherweise Mitarbeiter, die sich gut mit Excel auskennen. Und prevero setzt bewusst auf einige Denkmodelle, die den Tabellenkalkulationen ähnlich und den Anwendern dadurch vertraut sind.“
In der Praxis läuft das dann so, dass die Mitarbeiter des Kunden nach dem ersten Projekt, das gemeinsam mit den prevero-Beratern und den Power Usern beim Kunden durchgeführt wird, eigenständig eine Applikation erstellen. Das bedeutet, dass die Power User im Schnitt nach 30 – 50 Tagen fast alle Dinge selbständig erledigen.

Zurück zu datapine: Dort schwärmen die IT-Visionäre vom Trend zur „Entdeckung der Daten“. Auf ihrer Entdeckungstour können die Anwender auch bei datapine als Individualreisende unterwegs sein, oder sich vom All-Inclusive-Paket verwöhnen lassen. Blumenau: „Generell bieten wir zwei Möglichkeiten. Entweder kann der Endanwender eigenständig seine Analysen durchführen und die Kennzahlen berechnen, die er benötigt, oder er kann durch die Software automatische Analysen durchführen lassen.“

Knopfdruck zur KI statt wochenlanger Analyse

Die datapine-Software analysiert Datensets vollautomatisch und generiert sowohl tiefgreifende Insights, als auch Zusammenhänge, die sonst im Verborgenen bleiben. Und zwar durch Verwendung der KI-Engine, also durch sich selbst anlernende, Künstliche Intelligenz. Der Startup-Gründer beschreibt die Vorteile einer solchen modernen, schlauen, intuitiven IT: „Die Software deckt somit Trends in dem jeweiligen Datenset auf, welche sonst entweder gar nicht erkannt worden wären oder nur durch sehr erfahrene Data Scientists, welche in den meisten Unternehmen leider bislang Mangelware sind.

In diesem Bereich stellen wir für den Endanwender drei Vorteile dar:

  • Big Data to Smart Data: Was aus meinem Datenset hat überhaupt eine Relevanz?,
  • Time to Insights: Knopfdruck versus wochenlange Analyse,
  • Oualität der Analyse: Standardanalysen versus Anwendung von Machine Learning Algorithmen.“datapine interpretiert Nutzer-Interaktionen und erstellt im Hintergrund automatisch die jeweiligen Abfragen, ohne dass der Nutzer die hierfür benötigten, strukturierten Datenabfrage (SQL)-Kenntnisse mitbringen muss. Das passiert einfach via Drag&Drop.

Die Berliner Software ist quasi ein leicht bedienbares Werkzeug zur Visualisierung und Auswertung von Daten. Sie zeigt immer den aktuellen Status von Metriken und Leistungskennzahlen (KPIs), wodurch Nutzer einen aktuellen Überblick über geschäftliche Entwicklungen zu jeder Zeit erhalten sollen. Die datapine-Dashboards sind interaktiv und geben dem Nutzer auch die Möglichkeit, Reports nach ihren Vorstellungen grafisch aufzubereiten und diese intern oder gar extern mit Kunden und Partnern zu teilen, um so teils auch Daten zu monetarisieren.

Nach Unternehmensangaben funktioniert die intuitive Datenanalyse von Logistik, Medien, Produktion, Konsumgüterindustrie und Hotellerie bis hin zur Marktforschung oder Agenturen. Blumenau: „Fast noch wichtiger als die jeweilige Branche sind für uns allerdings die Abteilungen, welche von der klassischen IT/BI abgetrennt sind. Wie Marketing, Finanzen, Human Ressources, Service und Vertrieb, die von der Verwendung unserer Endanwender-fokussierten Lösung am meisten profitieren.“

Knopfdruck zur KI statt wochenlanger Analyse (#02)

Knopfdruck zur KI statt wochenlanger Analyse (#02)

Starke Schnittstellen zu unterschiedlichsten Datenquellen

Bei prevero können Anwender ihre eigenen Software-Applikationen für den Performance-Management-Bereich, etwa Budgetierung, Planung, Analyse, Berichtswesen und Risiko-Management modellieren, ohne irgendwelche technische Fähigkeiten und Vorkenntnisse zu haben. Auch hier erledigt die Software im Hintergrund alles Erforderliche, um am Ende nur noch die Daten einzuspielen. Analysiert wird konkret für integrierte Finanzplanung und Budgetierung, Fachbereichscontrolling, strategisches Controlling, Beteiligungscontrolling, Konsolidierung, (Multi-)Projekt- und Personalcontrolling, Risiko-Management und individuelle BI.

IT-technisch funktioniert das, dem Unternehmen zufolge, über sehr leistungsstarke Schnittstellen zu vielen verschiedenen Quellsystemen. Es gibt Standard SAP-Schnittstellen, Standard-Schnittstellen zu vielen Unit4-Systemen und zu vielen anderen Datenquellen, wie zum Beispiel zu relationalen Datenbanken, XML und Webservices. Doch es gibt ja auch noch Extract, Transform, Load (ETL), einen Prozess, bei dem Daten aus mehreren gegebenenfalls unterschiedlich strukturierten Datenquellen in einer Zieldatenbank vereinigt werden.

Der Technische Direktor von prevero, Matthias Thurner: „prevero hat ein eigenes ETL-Tool, das sehr einfach zu bedienen ist und eine visuelle Oberfläche besitzt. ETL-Jobs können ohne Programmierung konfiguriert werden.“ Zudem stünden Live-Schnittstellen ins SAP Business Information Warehouse (BW) und zu den Microsoft Analysis Services zur Verfügung, so dass die Daten auch per Online-Zugriff in prevero integrierbar seien. Thurner: „Wichtig ist, dass auch die prevero-eigene In-Memory Datenbank genutzt werden kann. Man ist von SAP BW oder von Microsoft Analysis Services also nicht abhängig.“

Beim Performance-Management auf Daten bauen

Die Datenanalyse hat bei prevero einen sehr „geerdeten“ Bezug, wie der CTO in einem Anwendungsbeispiel zeigt: „Alles, was mit Zement, Baurohstoffen oder Fertigteilen zu tun hat, kann in Bezug auf Umsatz, Kosten, Margen und anderes mit der prevero-Software ohne Einschränkung bearbeitet werden. Ein Unternehmen kann zum Beispiel pro Produkt und pro Region überlegen, welcher Umsatz mit welchem Produkt in welchem Zeitraum erzielen werden soll. Es kann eine treiberbasierte Planung in Bezug auf Umsätze und Kosten für Zement, Fertigteile oder auch Rohstoffe erstellen. Diese Zahlen können dann in die Gewinn- und Verlustrechnung integriert werden.

Man kann Simulationen und Soll-/Ist-Abgleiche durchführen und somit ein umfassendes Performance-Management betreiben.“
prevero sei, wie das Beispiel zeigt, nicht nur ein reines Finanzplanungs- oder ein Finanzreporting-Tool. Betrachtet würden auch die Produkte und die Strukturen der jeweiligen Unternehmen. Es entstehe somit ein treiberbasiertes Performance-Management, wo die Unternehmens-Performance anhand der verkauften und produzierten Mengen geplant und optimiert wird. Thurner: „Auch hier wird die große Flexibilität der Software deutlich: Sollte es für bestimmte Bereiche noch keine Standard-Applikation geben, kann man diese Branchenspezifika selbst in die Applikation mit einbeziehen.“

Selbstbedienung bei der Datenanalyse

Individualität boomt. Die Self-Service-Tools von Tableau für die Datenanalyse sollen für Unternehmen aller Größen und Branchen geeignet sein. Der Visual-Analytics-Anbieter Tableau hat nach eigenen Angaben insgesamt 61.000 Kunden aus allen erdenklichen Bereichen. Auch die Einsatzgebiete seien vielfältig.

Ob Einkauf, Vertrieb oder Marketing – überall würden heute Daten anfallen, deren professionelle Auswertung wertvolle Erkenntnisse liefere. „Die Notwendigkeit, Daten sichtbar und verständlich zu machen, ist größer als je zuvor“, sagt Andrew Beers, Chief Development Officer bei Tableau Software. „Die Verbesserungen in Tableau 10.2 vereinfachen und beschleunigen fortgeschrittene Analysen und ermöglichen eine größere Skalierung. Wir haben neue Funktionen zur Nutzung von räumlichen Daten, zur Datenvorbereitung und zur Verwaltung von Tableau-Bereitstellungen in Unternehmen hinzugefügt.”

Mit Self-Service-Analytics sind laut Tableau Lösungen gemeint, die so einfach und intuitiv zu bedienen sind, dass praktisch jeder Anwender damit Daten auf einfache Weise analysieren, Dashboards und Visualisierungen erstellen und diese mit anderen Usern teilen kann. Ohne spezielle Vorkenntnisse und ohne Programmieraufwand.

Ein Vorteil der Vorkenntnis-freien Analyse: Die Daten werden direkt von Mitarbeitern ausgewertet, die mit der analysierten Materie vertraut sind. (#03)

Ein Vorteil der Vorkenntnis-freien Analyse: Die Daten werden direkt von Mitarbeitern ausgewertet, die mit der analysierten Materie vertraut sind. (#03)

Geodaten-Analyse als Big-Data-Trend

Tableau 10.2 enthält speziell erweiterte Kartenerstellungsfunktionen, die die komplexe Geodatenanalyse vereinfachen sollen. Diese erleichtert nach Unternehmensangaben die Datenvorbereitung mit neuen Möglichkeiten zum Kombinieren und Bereinigen von Daten und bietet Unternehmen zusätzliche Tools für die Bereitstellung von Self-Service-Analysen im großen Maßstab.

Für die visuelle Anzeige von Geodaten aus Geodateien benötigen Unternehmen normalerweise spezielle Kartenprogramme. Der noch relativ neue Connector für Dateien mit räumlichen Daten baut auf den starken Kartenerstellungsfunktionen von Tableau auf. Mit ihm sollen Kunden Geodaten direkt in Tableau nutzen, um einfach Geodatenanalysen zu erstellen. Tableau stellt eine Verbindung mit ESRI-Shapefiles, KML-, GeoJSON- und MapInfo-Dateitypen her.

Zielgerichtete Angebote nach Analyse von Leistungs-Feedback

„Der Connector für Dateien mit räumlichen Daten öffnet für uns neue Analysemöglichkeiten“, sagt Freddy Colina, Manager of Planning and Analytics bei Lasik MD, dem führenden Anbieter von Laser-Sehkorrekturen in Kanada. „Bisher war es schwierig, eine Kartenzuordnung mit einer benutzerdefinierten Shape-Datei vorzunehmen. Jetzt sind wir in der Lage, mit wenigen Klicks direkt eine Verbindung mit einer von uns beauftragten Clustering-Studie von Kunden und einigen Volkszählungsdaten von „Statistics Canada“ herzustellen. Wir können dann sofort mit der Analyse beginnen.”

Viele Unternehmen nutzen Tableau zufolge Visual Analytics als Service, den sie in ihr eigenes Angebot integrieren und dieses damit aufwerten. Ein Beispiel ist die Firma MapCase, die Apps für Skifahrer, Bergwanderer und Mountainbiker entwickelt, die damit ihre Leistungen tracken und sich mit anderen Sportlern vergleichen können. Das Feedback der User analysiert MapCase mithilfe von Tableau, um es in sozialen Medien, Hotelbewertungen, Umfragen und andere Touchpoints einzubinden.

Auf Basis der Vorlieben und Gewohnheiten der User kann die Sport- und Tourismusbranche zielgerichtete Angebote konzipieren. Bislang seien vor allem Werbeagenturen, Beratungsfirmen und Anbieter von mobilen Apps auf diesen Zug aufgesprungen. Die Reisebranche, Versicherungen und Immobilienunternehmen zögen nach.

Ein Vorteil der Vorkenntnis-freien Analyse: Die Daten werden direkt von Mitarbeitern ausgewertet, die mit der analysierten Materie vertraut sind.

Branchenlösung für Automobilzulieferer

Eine clevere Vertriebsplanungs- und Analysesoftware, die „weitestgehend selbsterklärend und intuitiv anwendbar“ ist, so Geschäftsführer Christian Maier, kommt von der antares Informationssysteme GmbH. Ihre Mission ist es, den Vertriebsplanungs- und Auswerteprozess der Tier1- und Tier2-Automobilzulieferer optimal zu unterstützen, also die direkten Zulieferer mit größeren Baugruppen und Systemen, sowie die Lieferanten für Unterbaugruppen und einzelne Bauteile. Durch die webfähige HTML5-Oberfläche soll jeder User des Systems über seinen Browser weltweit auf seine Daten zugreifen und am Prozess teilnehmen können. Diese Option wird durch eine benutzerfreundliche Softwarelösung erleichtert, die einfach zu bedienen, mehrsprachig einsetzbar und webbasiert sein soll, zudem individuell zusammenstellbare Analysen, Berichte und Cockpit-Darstellungen beinhaltet.

„Hierbei werden Produktions-, Vertriebs- und externe Marktdaten, und andere Informationen vom OEM oder Daten aus Marktforschungsinstituten als Basis für die strategische Vertriebsplanung herangezogen“, erklärt Maier. „Außerdem passen wir die Softwarelösung auf individuelle Anforderungen an.“ In zehn bis 15 Projekttagen sei die Software betriebsbereit, da sie schnell an die vorhandene IT-Umgebung angebunden werde. Sobald die Daten aus dem Unternehmen an ein fertiges Analysemodul mit über 80 vorkonfigurierten Auswertungen und Berichten angedockt seien, würden Analyseergebnisse geliefert.

Auslöser für die Entwicklung der antares-Software waren die Zunahme der Datenvielfalt und die stärker werdende Abhängigkeit vom Erstausrüster (OEM). Deshalb passte antares im Rahmen von individuellen Projekten diverse Softwaremodule für die ZF TRW Automotive Electronics & Components GmbH an und implementierte diese. Weil man bei antares ein besonderes Augenmerk auf die Vertriebsplanung im Unternehmen legte, wurde das Potenzial für eine eigene Softwarelösung schnell erkannt. Aus dieser Zusammenarbeit entstand die branchenspezifische Softwarelösung AutomotiveBI, ausgerichtet auf die Bedürfnisse der Automobilzulieferer. Maier: „Ihr Ziel ist es, den spezifischen Prozess der strategischen Vertriebsplanung optimal abzubilden, den Handlungsbedarf zur Prozessoptimierung aufzuzeigen und ein Höchstmaß an Daten und Erfahrungswerten zu integrieren.“ Dadurch würden relevante Geschäftsfelder und Märkte schneller identifiziert und dabei potenzielle Chancen und Risiken aus unterschiedlichsten Blickwinkeln hinterfragt.

Aufgrund der engen Zusammenarbeit mit ZF TRW habe antares die Softwarelösung den Bedürfnissen von Automobilzulieferern optimal angepasst. Der Geschäftsführer: „Wir kennen die Automobilbranche und integrieren bedeutende Einflussfaktoren der Vertriebs- und Prozessplanung in unsere Softwarelösung, wie zum Beispiel die Abhängigkeit von Automobilherstellern, die fixen Absatzzahlvorgaben und die vorgegebenen Produktionszeiträume.“

Die antares-Software liefere die Informationsbasis, um auf bedeutende strategische Fragen zu antworten (#04)

Die antares-Software liefere die Informationsbasis, um auf bedeutende strategische Fragen zu antworten (#04)

Die antares-Software liefere die Informationsbasis, um auf bedeutende strategische Fragen zu antworten:

  • Wie entwickeln sich einzelne Fahrzeuge / Plattformen meiner Kunden in den nächsten Jahren?
  • Wo sind meine Kosten- und Erlöspositionen?
  • Wie entwickelt sich mein Umsatz, wenn sich Währungskurse in unterschiedliche Richtungen bewegen?
  • Welches meiner Produkte ist inwieweit rentabel?
  • Wie entwickelt sich mein Produkt auf dem Markt?
  • Eigenfertigung, Offshoring oder Outsourcing?

Christian Maier: „Das integrierte Analysemodul kann von den unterschiedlichsten Fachbereichen und Abteilungen in den Unternehmen eingesetzt werden. Das beginnt bei der Geschäftsleitung, dem Controlling, Rechnungswesen, Vertrieb, Einkauf, Lager, Logistik, Qualitätssicherung bis hin zur Produktion, wo Kennzahlen zu einzelnen Betriebsaufträgen visualisiert werden können.“ Beispielsweise lassen sich mit einem Berichtswesen auf Knopfdruck individuelle Reports erstellen und mit den Ansprechpartnern teilen. Einsatzgebiete des Vertriebsplanungstools seien naturgemäß vor allem Vertrieb beziehungsweise Vertriebscontrolling.

Aufgrund eines regelmäßigen Datenimports aus vorhandenen, unterschiedlichen Datenquellen wie ERP-Systemen und Buchhaltungslösungen werde eine zuverlässige Informationsbasis für die strategische Vertriebsplanung und die umfangreiche Analyseplattform geschaffen.

Maier betont besonders die Flexibilität in der Planung, generiert aus der Datenanalyse: „Die sich verändernden Marktbedingungen, die Abhängigkeit vom OEM mit Blick auf Mengen- oder Qualitätsvorgaben, sowie die Szenario-Technik, ermöglichen eine schnelle Reaktion auf Marktveränderungen.“

Das Beste aus dem (Big-)Data Warehouse herausholen

Mit der Pentaho Business Analytics-Plattform sollen Anwender sofort Nutzen aus ihren Daten ziehen. Integrierte Berichterstellung, Dashboards, Datenermittlung und prognostische Analysen sollen, nach Unternehmensangaben, den schnellsten und kostengünstigsten Weg ebnen.

Pentaho hat dafür das Auslagern von Daten nach Hadoop erleichtert und dafür gesorgt, dass die Entwicklung und Bereitstellung im Vergleich zu manuellen Programmiertätigkeiten 15 Mal schneller ist. Hochentwickelte, visuelle Integrationstools sollen bewirken, dass die manuelle SQL-Programmierung oder die auf Java basierten MapReduce-Aufgaben der Vergangenheit angehören.

Der beabsichtigte Effekt liegt darin, dass Pentaho die Belastung des Data Warehouses reduziert, indem der Anwender weniger genutzte Daten und entsprechende Transformations-Workloads nach Hadoop auslagert. Ohne Programmierung oder die Verwendung von Legacy-Skripts. Ohne von ETL-Produktbeschränkungen abhängig zu sein.

Ziele sind, Datenkosten zu sparen und Analyseleistung zu steigern. Zum Zug kommen bei der Entlastung des Data Warehouses eine intuitive, grafische Big-Data-Integration ohne Programmierung, ein Zugriff auf alle Datenquellen – von operativen und relationalen bis hin zu NoSQL-Technologien, die Unterstützung für alle wichtigen Hadoop-Distributionen mit einem zukunftsfähigen adaptiven Big Data-Layer, das Erzielen einer höheren Verarbeitungsleistung mit Pentaho MapReduce bei Ausführung in einem Cluster, sowie 100 Prozent Java, nach Unternehmensangaben „schnell und effizient“.

Fazit: Intuitiv durch Big Data navigieren – Brachland können die Nutzer mit der für sie passenden Lösung links liegen lassen und ganz schnell zu gut verwendbaren und visualisierbaren Datenanalysen kommen.


Bildnachweis:©Shutterstock-Titelbild: Rawpixel.com  -#01: Ditty_about_summer -#02: Rawpixel.com-#03: Rawpixel.com-#04: Rawpixel.com

Über 

Annegret Handel-Kempf, M. A., arbeitet als freie Journalistin, Redakteurin und Autorin in München. Ihre Themen sind unter anderem IT, Künstliche Intelligenz sowie digitale Lebensart und digitale Arbeitswelt. Nach Politik-Studium, Tageszeitungs-Volontariat und Stationen als Redakteurin bei der Abendzeitung München und bei der Motorpresse Stuttgart machte sich die leidenschaftliche Journalistin und Multi-Taskerin mit einem Redaktionsbüro selbstständig.

Share.

Leave A Reply