Leitfaden für Big Data Projekte (3) – Wertschöpfungsfelder

Leitfaden für Big Data Projekte (3) – Wertschöpfungsfelder

Nachdem wir uns im letzten Beitrag der Frage gewidmet haben, wer Big Data nutzt und welche die Gründe und Treiber für Big Data Projekte in Unternehmen sind, geht es im heutigen Beitrag um die unterschiedlichen Wertschöpfungsfelder in Big Data Projekten. Jedes einzelne dieser Wertschöpfungsfelder bietet für sich genommen eine Fülle von Möglichkeiten – Business Opportunities. Gleichzeitig haben sich in kurzer Zeit Spezialisten in allen Feldern etabliert, so dass die Anspruchshaltung von Partnern, Kunden und Endnutzern sehr hoch ist.

In welchen Bereichen entstehen während eines Big Data Projekts Werte?

– Daten erzeugen / sammeln
…Web-Analytics, Social Media, Produktionsdaten, IoT, Shop-Daten, Email, etc.

– Daten speichern, wiederfinden, vorbereiten
…Hadoop, Data Management

– Daten analysieren
…Modelle, Real Time Analytics, Machine Learning

– Daten interpretieren
…Beratung

– Daten visualisieren
…Dashboards

Daten erzeugen und sammeln

Warum in die Ferne schweifen, wenn das Gute doch so nah? Dieses Sprichwort trifft beim Thema Datenerzeugung vollständig zu: Daten werden heutzutage von Nutzern freiwillig in Hülle und Fülle produziert – zumeist online, in Sozialen Netzwerken.  Hier ist Social Media Analyse das perfekte Tool für qualitative Marktforschung, Trendforschung und Zielgruppenforschung (Personas). Außerdem liefern Netpromoter Scores und ähnliche Metriken gute KPIs zur Kampagnenkontrolle. Für Content-Marketing ist Social Media Analyse unverzichtbare Grundlage. Ein ideales Spielfeld für die Haus- und Hofagentur, könnte man meinen – aber: Agenturen haben oft keinen guten Footprint im Bereich Social Media. Die notwendigen Leistungen kaufen Agenturen von externen Dienstleistern zu. Damit stehen sie in Konkurrenz zu jedem anderen Berater, der die Daten ebenso erwerben kann. Während Social Media Analytics eine hervorragende Grundlage für die gesamte, strategische Kommunikation (inkl. PR und CRM) bietet, sprechen Mediaagenturen meist nur mit den Werbe-Media- Abteilungen.

Daten spreichern, wiederfinden, vorbereiten

Wie schon im ersten Teil unseres Leitfadens angesprochen, werden bereits hier schwerwiegende Fehler gemacht, indem Daten nicht – so, wie sie ankommen  abgespeichert, sondern aggregiert oder gar vernichtet werden, weil man der Auffassung ist, dass nur ausgewählte, bestimmte Hypothesen erfüllende Daten es wert seien, gespeichert zu werden. Oft geht eine traditionelle IT-Struktur im Unternehmen Hand in Hand mit dieser archaischen Datenperspektive: bevor sich IT-Verantwortliche mit Diskussionen über neue Datenarchitekturen gänzlich neue Baustellen eröffnen, werden eher alte Strukturen ausgebaut und damit verfestigt.  Trotz dieses Widerstands innerhalb vieler IT-Abteilungen hat sich eine Vielzahl an Unternehmen etabliert, die neuartige Strukturen für die Big Data gerechte Sammlung von Daten anbieten, wie Hadoop Distributoren, Anbieter von Management-Lösungen und Datenbanken, wie beispielsweise MongoDB , Couchbase, CouchDB, Collibra, ParStream, Talend, Amazon, Rackspace, etc. Alle diese Anbieter suchen nach Kunden Cases und sind offen gegenüber partnerschaftlichen Entwicklungen.

Daten analysieren

Data Analytics schließt direkt an die Hadoop-Distributoren an. In der Regel gibt es keine Lösungen von der Stange, sondern Berater der Analytics-Anbieter entwickeln beim Kunden maßgeschneiderte Lösungen. Diese Projekte lösen die Data Warehouses und andere überholte Infrastrukturen „aus den 90ern“ ab, die noch auf RDMSs beruhen. Neben aktuellen Verfahren der Mustererkennung (insb. in Anomalie-Erkennung, Fraud Detection, etc.), sind es vor allem Modelings, Simulations- und Planungsmodule die von Data Analytics Firmen für Kunden implementiert werden. Typisch sind grafische Benutzeroberflächen zur einfachen Modellentwicklung und Simulations-Dashboards.. Häufig werden unterschiedliche Datenquellen in das Analytics-System eingebunden.

Daten interpretieren

Die klassischen Strategieberater haben schnell Big Data als Geschäftsfeld besetzt. Da Big Data als Querschnittsaufgabe durch das gesamte Unternehmen läuft, sind Berater, die direkt am Konzernvorstand aufgehängt sind, sehr gut in der Lage, die Silos der Fachabteilungen aufzubrechen. Daten aus dem Marketing, der Buchhaltung, Personal und anderen Bereichen können von ihnen nicht nur technisch (wie früher durch die IT), sondern auch inhaltlich zusammengelegt werden. Klingt logisch und einfach – entscheidend ist hierbei allerdings die Einleitung: Beratung muss in der Unternehmenshierarchie auf der Stufe der Entscheidet erfolgen, da oft nicht nur technische Fragen geklärt, sondern auch Budgetentscheidungen getroffen werden müssen, die die bestehenden – aus der traditionellen Perspektive definierten – Budgets übersteigen: etwa bei der Implementierung einer neuen Dateninfrastruktur.

Daten visualisieren

Der gerne als eher nachrangig verstandene Aspekt der Datenvisualisierung ist unserer Erfahrung nach oft ein entscheidender im gesamten Big Data Projekt – wie in anderen Lebensbereichen gilt: was ich auf einen Blick in einem Bild sehe, verstehe ich besser als durch die Lektüre eines elaborierten Texts – oder gar – wie im Falle von Big Data – durch Zahlenreihen, Tabellen und Algorithmen. Dies bezieht sich überhaupt nicht auf den vermeintlichen Unterschied zwischen Wissenden (Isler, Data Scientists, Nerds, etc.) und Unwissenden (Chefs, Marketing-Menschen, etc.) sondern gilt in allen Situationen: eine gute Visualisierung ist das A&O einer jeden Entscheidung im Unternehmen. Anbieter von Dashboards und Visualisierung sind sozusagen die Oberfläche für die Data Analytics. Insbesondere wenn bereits eine hohe Datenkultur im Unternehmen besteht, können Lösungen wie beispielsweise „Tableau“ leicht implementiert werden.

In unserer nächsten Folge widmen wir uns daher dem Thema Datenanalyse: welche Voraussetzungen müssen gegeben sein, um ein Big Data Projekt sauber durchzuführen?

Bisher in dieser Reihe erschienen:
Leitfaden für Big Data Projekte (1) – Der Paradigmenwechsel in der Datenverarbeitung
Leitfaden für Big Data Projekte (2) – Gründe und Treiber für Datenprojekte in Unternehmen

Share this Post: Facebook Twitter Pinterest Google Plus StumbleUpon Reddit RSS Email

Leave a Comment