Data Analytics
Nutzen Sie die Vorteile Ihrer Daten

Mit Data Analytics können Sie wichtige Informationen gewinnen – eine entscheidende Grundlage, um z. B. Ihre Kunden besser zu betreuen, Kosten zu sparen oder Produktion und Prozesse zu optimieren.

Die Möglichkeiten sind vielfältig. Sie reichen von erweiterten Reportings mit einfachen Analysen bis hin zu komplexen Simulationen von Zukunftsmodellen und lassen sich schrittweise aufbauen. Das bedeutet auch: Data Analytics muss nicht immer aufwendig sein und mit Big Data zusammenhängen.

Wir helfen Ihnen bei der Abfrage vergangenheitsbezogener Analysen genauso wie bei der Modellierung von „predictive“ und „prescriptive“ Ansätzen mit Zukunftsbezug.

Wir unterstützen Sie in allen Schritten von Data Analytics

Datenintegration und -aufbereitung, Visualisierung, Testing und Support. Lernen Sie hier wichtige Elemente von Data Analytics kennen und erfahren Sie, wie wir Sie in jeder Phase unterstützen.

Zulieferer und Geschäftspartner, Social Media, Wetterdaten, Kundenbefragungen: Die Kombination Ihrer unternehmenseigenen Daten mit externen Daten in einer gemeinsamen Data Analytics-Plattform hat viele Vorteile. Sie können Korrelationen erkennen, Modelle bilden und Schlussfolgerungen ziehen. Was Sie dazu brauchen: eine geschickte Datenintegration – vor allem bei Fällen, die von einer Analyse in Quasi-Echtzeit profitieren.

Gemeinsam mit Ihnen finden wir die passende Lösung. Diese muss in unseren Augen nicht immer aufwendig und teuer sein. Oft können wir schon durch die Analyse Ihrer Datenbanken mit relativ einfachen Mitteln gute Ergebnisse erzielen.

Unsere Tools stimmen wir auf Ihre Infrastruktur ab. Wir arbeiten z. B. mit Oracle Data Integration, Microsoft SQL Server Integration Services (SSIS), Integrationstools des Cloudera Hadoop Ökosystems wie Spark Streaming oder dem herstellerunabhängigen Tool Talend.

Die nächsten wichtigen Schritte nach der Datenintegration sind die Datenaufbereitung und das Qualitätsmanagement. Denn wie für alle Systeme gilt gerade auch für Data Analytics Projekte: je besser die zugrunde liegende Datenqualität, desto besser die Ergebnisse und desto höher die Aussagekraft der Datenanalyse.

In der Datenaufbereitung werden außerdem Meta-Daten ergänzt – um sicherzustellen, dass sie wichtigen Datenschutzbestimmungen entsprechen. Und um ihre Integrität zu prüfen.

Welche Datenaufbereitung für Ihren Anwendungsfall sinnvoll ist, erarbeiten wir gemeinsam mit Ihnen im Projektverlauf.

Gemeinsam mit Ihnen erarbeiten wir die entsprechenden Abfragen und Analysen. Dabei entwickeln und testen wir die Abfragelogik bzw. den Algorithmus iterativ. Wichtig ist in dieser Phase der Input Ihrer Experten: Fachliche Zusammenhänge, betriebliche Erfahrungen und Besonderheiten Ihrer Branche müssen wir gemeinsam beleuchten. Ein Mitwirken Ihrer Experten stellt auch eine hohe Akzeptanz im Betrieb sicher.

Die Ergebnisse Ihrer Datenanalyse gut zu visualisieren, ist in vielen Fällen ebenso wichtig wie die Analysealgorithmen. Oft bieten sich dazu Cockpits oder Dashboards an, mit denen sich die Daten auch auswerten lassen. Einige Analysen setzen auf der Visualisierung der Daten auf.

Wir helfen Ihnen, das optimale Standardprodukt für die Visualisierung Ihrer Daten und Analysen zu finden – z. B. Tableau oder Microsoft BI. Natürlich entwickeln wir für Sie auch ein Cockpit, das genau zu Ihrem Anwendungsfall passt.

Auch hier ist das Angebot an offenen Bibliotheken und Frameworks breit und geht von diversen Java-Bibliotheken bis zur Shiny für die Programmiersprache R. Wir gestalten die Dashboards nach Ihrem Bedarf, gerne auch als App für mobile Endgeräte.

Die Testing- und Erprobungsphase ist zentraler Bestandteil eines Data Analytics-Projekts. In der Regel durchläuft eine Lösung dabei mehrere Wiederholungen der Phasen „Test“, „Measure“ und „Improve“: Ihre Annahmen, Algorithmen und Modelle werden geprüft, getestet und erprobt, die Ergebnisse immer wieder verifiziert, die Modelle angepasst und optimiert.

Erst wenn die Ergebnisse sehr gut sind, kann die Lösung in den Echtbetrieb übernommen werden.

Nachdem ihre Qualität gesichert ist und die Ergebnisse verifiziert sind, kann die Data Analytics-Lösung in den Echtbetrieb übernommen werden. Dabei ist eine gute Vorbereitung und strukturierte Übergabe genauso wichtig wie eine saubere Dokumentation.

Unsere Empfehlung für Data Analytics-Projekte: das Motto „Think big, start small and learn fast.” Beginnen Sie mit einfachen Anwendungen und erweitern Sie diese in kurzen Entwicklungszyklen. Mit zu viel Komplexität am Anfang laufen Sie Gefahr, zu keinen schnellen Ergebnissen zu kommen.

Die Rahmenbedingungen und die Umwelt ändern sich permanent. Das bedeutet für Ihre Data Analytics-Konzepte: Sie müssen regelmäßig geprüft und bei Bedarf angepasst werden. Als Beispiel ist eine ständige Optimierung der Analysen durch lernende Algorithmen oder regelmäßige Anpassung sehr wichtig.

Daher unterstützen wir Sie nicht nur in der Umsetzungsphase, sondern gerne auch während des Betriebs mit unserem Support. So können wir Ihre Data Analytics-Lösung durchgängig warten, verifizieren und optimieren und damit sicherstellen, dass sie ihnen dauerhaft einen Mehrwert bietet – gerade bei komplexen Fällen.

Gerade bei Big Data gehört auch die erweitere Suche in den Bereich der Data Analytics. Eine sehr gute Möglichkeit ist z. B. das umfassende Tool Cloudera Search. Es baut auf Apache Solr auf und ermöglicht sehr gut skalierbare, zuverlässige Abfragen. Weitere Optionen sind die Open Source Produkte Elasticsearch und die Tools gängiger Hersteller wie Oracle und Microsoft.

Wir helfen Ihnen, eine performante und zuverlässige Plattform zu gestalten, mit der Sie Ihre Daten in Echtzeit suchen und analysieren können.

Unser Vorgehen: CRISP-DM

Bei Data Analytics Projekten arbeiten wir häufig mit dem Cross Industry Standard Process for Data Mining, kurz CRISP-DM. Das Vorgehensmodell baut gleich zu Beginn auf dem Business Understanding und Data Understanding auf. Es ist sehr praktikabel, pragmatisch und unterstützt dank seiner iterativen Eigenschaften ein agiles Arbeiten. Für schnelle Ergebnisse.

Wir arbeiten mit zahlreichen Technologien

Damit wir für Sie eine Technologie finden können, die optimal zu Ihrer Infrastruktur und Ihrem Use Case passt, arbeiten wir mit einer Vielzahl an Lösungen – über Open Source Programmierung mit Python oder R, Oracle Data Analytics oder unsere Partnerschaften mit Talend, Cloudera und Amazon Web Services.

R ist eine Open Source-Programmiersprache, mit der sich statistische Datenanalysen und Grafiken erstellen lassen. Aufgrund ihrer Flexibilität, Herstellerunabhängigkeit, großen Fangemeinde und einfachen Handhabung ist R eine sehr verbreitete Lösung für Data Analytics-Projekte. Allerdings kann R gerade bei großen Datenmengen und komplexen Abfragen an ihre Grenzen kommen.

Die Programmiersprache Python ist einfach zu verstehen und zu lernen. Dennoch können mit ihr auch große und komplexe Aufgaben strukturiert gelöst werden. Python ist seit einigen Jahren gerade bei Data Scientist sehr beliebt. Dementsprechend sind schon viele nützliche Bibliotheken und Frameworks für Data Anayltics entstand, die permanent weiterentwickelt werden.

Von Business Analytics bis hin zu Advanced Analytics: Oracle bietet für seine verschiedenen Produkte etliche Lösungen für Data Analytics – darunter z. B. Oracle R Enterprise und Oracle Data Mining.

Oracle R Enterprise nutzt die Open Source-Sprache R, um Datenanalysen zu erstellen. Die Lösung ist zugleich auf Performance optimiert, da die Gesamtlösung von Oracle mit dem Fokus auf Unternehmenskunden aufgesetzt wurde.

Oracle Data Mining ermöglicht umfangreiche Analyse-Algorithmen, die als SQL in der Datenbank laufen. Sie können dadurch unterschiedliche „predictive analytics“ Methoden aufbauen, bewerten und nutzen.

Gerade wenn keine komplexen Algorithmen nötig sind, führen häufig auch gute SQL-Abfragen zum Ziel. Die Voraussetzung dafür: umfangreiches Know-how in SQL (Structured Query Language) und Data Science.

SQL wird zur Kommunikation mit relationalen Datenbanken genutzt – z. B., um Daten abzufragen, zusammenzuführen (join) oder relativ einfache Analysen durchzuführen. Auch einige Big Data Frameworks wie Spark und Hive unterstützen SQL. Aus diesem Grund spielt SQL in jedem Daten-Projekt eine gewisse Rolle – ob Big Data oder Data Analytics.

Daher kümmern wir uns in Ihren Data Analytics-Projekten nicht nur um die Programmierung, sondern analysieren und optimieren auch Ihre bestehende SQL-Abfrage.

Im Hadoop-Ökosystem gibt es zahlreiche Lösungen für Data Analytics-Anwendungsfälle:

Die Cloudera Data Science Workbench bietet umfangreiche Möglichkeiten, diverse Data-Analyse Tools zu nutzen – mit einer klaren Governance und Security Standards.

Dabei ist sie selbst keine Data Analytics-Plattform mit verschiedenen Algorithmen und Analysen. Sie hilft vielmehr, verschiedene Open Source-Lösungen aus dem Hadoop-Ökosystem zu nutzen, z. B. Spark, Impala, Kudu, Spark MLlib, Mahout, Pig, Solr.

Spark MLib, eine Open Source Machine Learning Library für Spark und Hadoop, bietet umfangreiche Algorithmen mit hoher Performance. Impala ist eine sehr performante Lösung, um BI-Abfragen und Datenanalysen in Hadoop durchzuführen. Da Impala SQL unterstützt, ist es relativ einfach einsetzbar und mit unterschiedlichen anderen Lösungen kompatibel.

Aber auch Data Science-Plattformen außerhalb des Hadoop-Ökosystems wie Tensorflow, R oder Python können einfach integriert werden. Der Vorteil: Sie können die Daten in Hadoop direkt nutzen, ohne diese auf das Notebook des Data Scientist oder in die Cloud zu kopieren. Das vermeidet unter anderem Probleme bei der Daten-Synchronisation oder der IT-Security.

Das Talend Open Studio und die Talend Platform für Big Data machen es einfacher, Jobs für die Verarbeitung und Analyse von Daten zu erstellen: egal, ob Datenintegration oder -analyse. Die Lösungen des Hadoop Ökosystems lassen sich einfach nutzen. Mit Hilfe von Hadoop Hive oder Pig können Sie zum Beispiel Data Analytics-Aufgaben auch ohne die entsprechenden Programmierkenntnisse lösen, da Talend den Code im Hintergrund erzeugt.

Permanent entstehen neue Open Source Data Science und Machine Learning Bibliotheken und Frameworks. Bestehende werden weiterentwickelt. Neben den oben beschriebenen Lösungen beschäftigen wir uns auch mit H2O (www.h2o.ai) und Tensorflow.

Use Cases

Mit Hilfe von sinnvollen Anwendungsfällen können Sie in einfachen Data Analytics-Projekten die Transparenz und Effizienz steigern, Entscheidungen optimieren und einen Mehrwert für Ihr Unternehmen generieren – über Ihren gesamten Wertschöpfungsprozess. Vom Marketing bis zur Kundenbetreuung und der Vertriebsstrategie. Vom Einkauf über die Produktion bis zu Verwaltung, Wartung und Support.

Im Folgenden haben wir für Sie eine Auswahl interessanter Use Cases zusammengefasst. Wir helfen Ihnen gerne, den passenden Anwendungsfall zu identifizieren, Ihre Vorteile zu bewerten und eine Strategie für die Umsetzung zu entwickeln.

Customer Churn bezeichnet das Abwandern von Kunden. In einigen Branchen wechseln Kunden regelmäßig die Anbieter – z. B. in den Bereichen Telekommunikation und Energie. Dieser Kundenwechsel ist mit hohen Kosten verbunden: Scheidet ein Bestandskunde aus, verursacht das Aufwand. Zugleich müssen Sie in Marketing und Vertrieb investieren, um neue Kunden zu gewinnen.

Dementsprechend ist es deutlich günstiger, Bestandskunden zu binden.

Mit Data Analytics-Anwendungen können Sie Ihre Kundenwechselrate senken. Nachdem Sie die passenden Indikatoren identifiziert haben, können Sie wechselwillige Kunden frühzeitig erkennen und rechtzeitig gegensteuern. Für eine bessere Kundenbindung und geringere Kosten.

In vielen Unternehmen gibt es kein ganzheitliches Bild der Kunden, obwohl viele Daten verfügbar sind. Das Problem: Die Daten werden häufig weder in ein System zusammengeführt, noch analysiert und genutzt. Sie liegen in den unterschiedlichsten Systemen der verschiedenen Abteilungen und Fachbereiche – z. B. in Vertriebssystemen, Service-Anwendungen und Kundenportalen.

Indem Sie Ihre Daten strukturiert zusammenführen, analysieren und nutzen, können Sie Ihre Kunden besser kennenlernen. Auf dieser Basis ist es natürlich wesentlich einfacher, das passende Angebot zu unterbreiten. Kundentransparenz hilft Ihnen also, Ihren Umsatz zu steigern und gleichzeitig Ihren Vertriebsaufwand zu reduzieren.

Ein hoher Image-Schaden oder Strafzahlungen infolge eines Compliance-Skandals oder finanzielle Verluste durch eine Betrugsmasche – unrechtmäßiges Handeln bis hin zum Betrug kann für Ihr Unternehmen sehr teuer werden. Das Problem: Gerade bei Anwendungen mit sehr vielen kleinen Transaktionen ist es kaum möglich, jede Aktion manuell zu prüfen. Eine hohe Prüfabdeckung durch umfangreiche Stichproben ist häufig zu aufwendig und zu teuer.

Mit Data Analytics können Sie Transaktionen ohne große Aufwände automatisiert analysieren, in Quasi-Echtzeit prüfen, einen Betrug frühzeitig erkennen und damit oft noch verhindern. Das reduziert die Risiken für Ihr Unternehmen deutlich, vermeidet Schäden und spart Kosten.

Ein gutes Partnernetzwerk mit einer vertrauensvollen Zusammenarbeit wird in der digitalisierten Wirtschaft immer wichtiger. Alte Einkaufsstrategien können das Funktionieren eines solchen Ökosystems erschweren. Sinnvolles Sparen hat daher einen hohen Stellenwert.

Durch geschickte Kombination von externen Prognosen oder Daten wie Marktpreisen, Börsen- oder Wetterdaten mit internen Daten wie Produktionsplanung, Lagerbeständen oder Lagerkosten, entsteht eine wichtige Datenbasis. Auf dieser Grundlage können Sie auch schon mit einfachen Analysen deutliche sparen.

Wenn Sie Ihre Prozesse transparent vor Augen haben, können Sie überprüfen, wie effizient diese tatsächlich umgesetzt werden. Daten zu diesen Prozessen gibt es in Ihrem Unternehmen zahlreiche – wahrscheinlich sogar mehr als Ihnen bewusst ist. Viele Prozesse werden mittlerweile durch Software unterstützt und dokumentiert. Anwendungen wie CRM, SCM oder ERP schreiben Unmengen an Logfiles. Häufig werden diese Informationen allerdings nur von der IT genutzt, um technische Fehler zu analysieren.

Durch eine systematische Analyse dieser Daten können Sie erkennen, ob Ihre Prozesse in der richtigen Reihenfolge umgesetzt wurden und wie die Durchlaufzeiten sind – eine wichtige Basis, um Optimierungspotenziale zu identifizieren.

Gerade für größere Produktionsanlagen gilt: Fällt eine zentrale Maschine oder Komponente aus, ist die Produktion unterbrochen. Hohe Kosten entstehen.

Eine Analyse der Maschinen- und bestimmter Sensordaten kann helfen, Wartungsfenster sinnvoll zu nutzen und so Ausfälle zu vermeiden. Denn an den Daten lassen sich Muster erkennen, Schwellenwerte überwachen und letztlich die Ausfallwahrscheinlichkeit berechnen. Komponenten, die eine hohe Ausfallwahrscheinlichkeit erreicht haben, können Sie so im nächsten geplanten Wartungsfenster erneuern, austauschen oder warten.

Algorithmen

Auch, wenn es in den Medien meist um komplexe Vorhersage-Algorithmen geht: Häufig können Sie in Ihrem Data Analytics-Projekt auch schon mit einfachen Algorithmen einen Mehrwert schaffen, wenn Sie die richtigen Daten analysieren. Hier finden Sie eine Übersicht an Analysezielen – mit beispielhaften Use Cases.

Bei der Klassifikation werden Objekte auf Basis ihrer Eigenschaften oder ihres Verhaltens bestimmten Klassen oder Kategorien zugeordnet. Ein einfaches Beispiel hierfür ist die Unterteilung in „kreditwürdig“ und „nicht kreditwürdig“ durch Merkmale wie Alter, Einkommen oder Festanstellung.

Bei der Segmentierung werden Objekte mit ähnlichen Merkmalen oder ähnlichem Verhalten in Gruppen geclustert. Die Gruppen müssen im Vorfeld nicht bekannt oder definiert sein und können sich aus der Analyse ergeben.

Verwendet wird eine Segmentierung häufig im Marketing, um Zielgruppen zu untergliedern und gezielt anzusprechen.

Bei der Abhängigkeitsanalyse geht es darum, Daten zu analysieren, um Beziehungen und Abhängigkeiten zwischen einzelnen Objekten oder deren Merkmale zu identifizieren. Genutzt wird sie z. B. im Zuge der Warenkorbanalyse. Erkennt man, welche Produkte voneinander abhängen, kann man die Vertriebsstrategie auf diesem Wissen aufbauen.

Das Ziel der Abweichungsanalyse ist es, signifikante Abweichungen zu erkennen – also Ausreißer, die sich in ihren Eigenschaften deutlich von den restlichen Objekten unterscheiden. Diese Art der Analyse wird in der Produktion häufig für die Qualitätskontrolle genutzt. Hat man eine Abweichung identifiziert, kann man mögliche Ursachen wie Materialmängel einer bestimmten Lieferung prüfen und beheben.

Für eine Prognose oder Vorhersage berechnet man mit unterschiedlichen Modellen Werte für eine oder mehrere Variablen für einen Zeitpunkt in der Zukunft.

In manchen Fällen kann man dazu eine einfache Extrapolation nutzen, bei der man Zukunftswerte auf Basis von Werten aus der Vergangenheit hochrechnet.

Andere Fälle erfordern komplexe Modellierungen und Simulationen – vor allem, wenn die Rahmenbedingungen nicht konstant sind oder ein einfaches Hochrechnen zu schlechten Ergebnissen führt. Oft beginnt man auch mit einer einfachen Modellierung, prüft die Ergebnisse und passt dann die Modellierung iterativ an, bis die Prognose die gewünschte Qualität hat.

Ein sehr häufiger Anwendungsfall ist die Absatzprognose als wichtige Information für die Produktion.

Auch für Themen wie Text- oder Bilderkennung und Sprachverarbeitung gibt es Analyseverfahren. Mit ihrer Hilfe lassen sich Muster oder Eigenschaften erkennen und Daten oder Gegenstände zuordnen. Für sie spielen also verschiedene der oben beschriebenen Verfahren eine Rolle. Je nach Bedarf kommen unterschiedliche Berechnungs- und Modellierungsmethoden zum Einsatz – oft auch in Kombination. Beispiele sind Diskriminanzanalysen, Nächste-Nachbar-Klassifikationen, Cluster-Verfahren, Entscheidungsbäume oder künstliche neuronale Netze.