Big Data – Vorsprung durch Wissen
Mit neuen Technologien zum datengestützten „Tante-Emma-Laden“

Noch nie standen die Chancen besser, um als Unternehmen oder Kunde auf vielfältige Weise von der „Datenexplosion“ zu profitieren. „Tante Emmas“ Erben haben gelernt, dass es nicht nur auf eine effiziente Wertschöpfung ankommt, sondern dass man auch im E-Commerce-Zeitalter ein offenes Ohr für die Bedürfnisse der Kunden braucht. Der entscheidende Unterschied: Waren es früher wenige hundert Kunden, sind es heute Millionen Stimmen, die tagtäglich direkt oder indirekt mit den Unternehmen kommunizieren. Zusammen mit den innerbetrieblichen Daten aus den Wertschöpfungsprozessen liefert dies die Ausgangsbasis für innovative Veränderungen, wie intelligente Produkte, individualisierte Angebote und effizient ausgerichtete Prozesse.
Jeder ging gern zu ihr in den Laden, denn „Tante Emma“ kannte ihre Kunden genau. Seit damals hat sich viel verändert, doch dieses natürliche Gespür und Fingerspitzengefühl für die Bedürfnisse und Interessen wollen Handelsunternehmen für ihre Kunden auch im Internet abbilden. Denn kaum eine Branche ist stärker darauf angewiesen, ihre Kunden besser zu verstehen und ihre Dienstleistungen sowie Angebote auf die jeweiligen Kundenbedürfnisse auszurichten, als der E-Commerce. Dies ist ein Grund, weshalb der IT-Branchenverband BITKOM den E-Commerce in einer Vorreiterrolle beim Einsatz von Big-Data-Technologien in Deutschland sieht.
In Big Data steckt die Kraft innovativer Veränderung für einen besseren Kundenservice, individuellere Angebote und effizientere Prozesse in einem dynamischeren Marktumfeld. Den Wissensvorsprung, um den Markt zu gestalten, generieren die Unternehmen nicht mehr nur aus einzelnen Datenbeständen und manuellen Auswertungen. Vielmehr steckt das Potenzial in der automatisierten Echtzeit-Analyse verknüpfter Daten aus verschiedenen Quellen über die Grenzen eines Unternehmens hinweg.
Ein Meilenstein für die datengetriebene Entwicklung ist die Vernetzung unseres Alltages. Smartphones, Tablets und zukünftig sogar Datenbrillen lassen die Grenzen zwischen digitaler und physischer Einkaufswelt verschwinden. Gleichzeitig erzeugen sie zusammen mit den klassischen Datenquellen entlang der Wertschöpfungsprozesse einen multidimensionalen Datenpool.
Darin liegen wegweisende Herausforderungen für Unternehmen. So sehen wir beispielsweise eine zunehmende Emanzipation des Kunden, der sich fragt: „Wirklich (m)ein Angebot oder doch nur (t)eure Restposten?“ Der vernetzte Kunde validiert, evaluiert und vergleicht, und wird dabei zunehmend von Sensoren und Apps unterstützt. In der Folge wandeln sich seine Erwartungen und sein Verhalten und es steigen die Anforderungen an Unternehmen, ihre Angebote an den individuellen Bedürfnissen ihrer Kunden auszurichten. Dafür müssen die Unternehmen in den massiven Datenströmen lesen und die Daten vor allem im Kontext verstehen können. So hat Google gerade erst seinen Nutzeranalysedienst Universal Analytics als Nachfolger von Google Analytics lanciert und trägt dem veränderten Nutzerverhalten durch ein geräteübergreifendes Tracking Rechnung.
Big Data – groß, unterschiedlich, rasant
Insgesamt steht das Phänomen Big Data heute erst am Anfang. Weltweit gehen die Schätzungen weit auseinander, wie tief der „Datenozean“ ist und wie schnell er sich weiter füllt. Unterm Strich wird man sich schnell einig, dass es so viele Daten sind, dass traditionelle Analysewerkzeuge an ihre Grenzen stoßen. Dabei sind es nicht nur die Datenvolumen allein, die Big Data ausmachen.
Kennzeichnend für Big Data sind im Kern drei Ei- genschaften, die auch als „3 V’s“ bezeichnet wer- den: Volume, Variety, Velocity. Volume steht für die große Menge der zu analysierenden Daten; Variety für deren Verschiedenartigkeit in Bezug auf Daten- typ und Ursprung. Velocity beschreibt die hohe Geschwindigkeit der Datengenerierung und damit auch wie groß der Datenstrom ist, den es in Echtzeit zu analysieren gilt. Wobei man sich nicht einzelne Dateninseln wie etwa aus dem Kundenservice oder Warensystem ansieht, sondern möglichst alle rele- vanten Daten ganzheitlich betrachtet und analysiert. Das Potenzial von Big Data entfaltet sich somit erst durch die Verknüpfung der Datenbestände über Grenzen hinweg.
Big-Data-Anwendungen
In diesen Datenozeanen liegen wahre Schätze. So erklären es Big-Data-Experten und verweisen auf erfolgreiche Geschäftsanwendungen. Dabei sind es nicht mehr nur die Namen der Big 5 der Internetbranche – Yahoo, Google, Amazon, Facebook, Twitter – die genannt werden. Es sind Banken, Versicherungen, Pharmaunternehmen, Telekommunikations- und Industrieunternehmen, die Big-Data-Anwendungen aktiv für ihr Geschäft nutzen.
Wissenschaftler des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS haben weltweit 50 Big Data Anwendungen systematisch aufbereitet und dabei charakteristische Unternehmensbereiche je nach Branche identifiziert (siehe Abb. 1). Für den Handel zeigt sich der Schwerpunkt im Bereich „Marketing, Vertrieb und Kundenbetreuung“. Unternehmen starten mit ersten Big-Data-Anwendungen im Bereich der Absatzprognose, des Marktmonitoring oder Kundenfeedbackanalyse.
Wegbereiter wie Google, Yahoo oder Amazon zeigen, welcher Mehrwert in Big Data auch für den E-Commerce steckt. Wer sich anschaut, wie Google die verschiedensten Facetten des Internets in Millisekunden durchforstet oder das Nutzungsverhalten zu nutzerzentrierten Landkarten verdichtet, will auch selbst von derartigen Techniken profitieren, um die eigenen Daten zu analysieren und visuell zu explorieren.
eCom-Roadmap Big Data
Wo der Mehrwert für E-Commerce und für den Versandhandel liegt und welche Herausforderungen und Probleme gesehen werden, wurde von Branchenvertretern und Teilnehmern eines Zukunftsworkshops Big Data am Fraunhofer IAIS diskutiert. Das Ergebnis wurde aufbereitet, gebündelt und zu einer branchenspezifischen Roadmap speziell für den Online- und Versandhandel verdichtet.
Die Möglichkeiten, Big Data im E-Commerce zu nutzen, sind ähnlich vielfältig wie der Variety-Aspekt bei Big Data. So wünschen sich Entscheider ganzheitliche Lagebilder zur aktuellen Geschäftslage mit allen Einflussfaktoren und Abhängigkeiten, ergänzt um Trendprognosen und Konsummuster vieler Millionen Menschen.
Der gleichzeitige Blick auf Wettbewerb, Warenbestände, Bestellungen, Kunden und soziale Trends ist für die E-Commerce-Branche von großer Bedeutung. Die Unternehmen versprechen sich gesteigerte Reaktionsfähigkeit und datengestützte Entscheidungen mit Weitblick. Kurzfristig unterstützen sollen u. a. Echtzeit-Monitoring über die Verfügbarkeit bestimmter Artikel bei verschiedenen Händlern. Auch der Bereich SaaS/Outsourcing und Kernkompetenzorientierung bleiben diskutierte Themen. Langfristig führt die rasante Vernetzung und Dynamisierung der Prozesse dazu, dass selbstoptimierende Verfahren nicht nur bei der Prozesssteuerung und Qualitätssicherung entscheidend mitwirken, sondern auch im Bereich Sicherheit und Kundenservice.
Insbesondere im Kundendialog entstehen viele unstrukturierte Daten. So ist in den E-Mail-Rückfragen, Supportanfragen oder Beschwerden wie auch in den sozialen Medien, Blogs und Produkttests wertvolles Feedback zu den eigenen Angeboten und der Unternehmenswahrnehmung kodiert. Wozu Big Data im Stande ist, zeigt das Fraunhofer IAIS mit seiner Emotions-Monitoring-Infrastruktur (siehe Abb. 2)
Mit intelligenten Verfahren aus dem Technologiestack „Smart Semantics“ können Emotionen zu verschiedenen Produkten bzw. Produkteigenschaften identifiziert werden. Dafür wurden im genannten Anwendungsfall über 30 Millionen Postings eines Community-Forums in kurzer Zeit ausgewertet. Wobei nicht einfach auf positiv oder negativ aufgeladene Worte geachtet, sondern der komplexe Sinnzusammenhang jedes Nutzerbeitrages beachtet wurde. Mit entsprechender Visualisierung ist das Resultat für jeden anschaulich nutzbar.
Damit sind die Stimmungen und Meinungen der Kunden nicht nur für den Kundenservice, die Produktentwicklung oder das Qualitätsmanagement verwendbar. Auch das Online-Marketing profitiert vom Monitoren der Stimmungslage. Insbesondere im Online-Marketing sehen Branchenvertreter gegenwärtig den individualisierten Transport von Markenkern-Botschaften im Fokus. Am Ende steht ein „Social Context Aware Advertising“, das dezent begleitet und vor allem punktgenau ins Bewusstsein des Konsumenten rückt.
Über den Erfolg entscheidet am Ende, wer weiterhin verkauft. So werden die Produktpräsentationen in Online-Shops zunehmend komplexer und beziehen den Konsumenten mit ein. Die Möglichkeit, ein Foto des Kunden einzufügen, um „anzuprobieren“, die neue Schrankwand virtuell schon im eigenen Zimmer zu bewundern oder die Information zum Wein im Brillenglas zu lesen – dieses „Augmented Shopping“ erfordert Werkzeuge für das Verarbeiten und Auswerten großer Datenmengen in Echtzeit.
Best Practice: Roadmap Big Data
Big Data Excellence erreichen Unternehmen in der Praxis über ein agiles, iteratives Vorgehen. Das Fundament bildet das Wissen um Big Data und eine unternehmenseigene Big-Data-Strategie. Aus der strategischen Bedeutung heraus ergibt sich die Notwendigkeit der Unterstützung durch das Management. Für eine zentrale Fragestellung kann eine vorgelagerte Pilotstudie erste Antworten liefern und Risiken, Mehrwerte und Kosten besser abschätzen lassen. Über die Definition konkreter Use Cases erarbeitet ein interdisziplinäres Projektteam einen Proof-of-Concept. Auf Grundlage der ersten Erkenntnisse ist das weitere Vorgehen zu strukturieren und messbare Erfolgskriterien für die Fortführung des Dachprojektes zu bestimmen. Am Ende wird Big Data Excellence erreicht, wenn ein kontinuierlicher, datengestützter Verbesserungsprozess in der Wertschöpfung etabliert ist.

Big-Data-Werkzeuge
Eine Vielzahl verschiedener Big-Data-Werkzeuge und -Technologien steht bereit, die alle auf den Wissensvorsprung in Echtzeit abzielen.
Smart Semantics ist ein Technologiebündel, um Social Data zu analysieren. Es kombiniert statistische und linguistische Verfahren, um Inhalte, Meinungen und implizite Beziehungen in geschriebenen Aussagen aufzudecken. Ein Anwendungsbeispiel ist die Verbindung von Kundenfrustration mit CRM und Qualitätsmanagement.
Mobile Analytics erschließt das Verhalten der Nutzer und liefert Customer Insights. Eingesetzt werden Methoden zur Mustererkennung, regelbasierten Beschreibung von Verhaltensweisen oder Besucherstromanalysen. Die Außenwerbung nutzt Mobile Analytics.
Visual Analytics setzt den Entscheider ans Steuer. Interaktive Visualisierungstechniken zur Darstellung komplexer Resultate und Echtzeit-Dashboards werden kombiniert mit Ad-hoc-Analysefunktionalität (z. B. Clustering).
Den Grundstein für Big Data Analytics legt eine flexible und skalierbare Architektur. Beispiele wie die Lambda-Architektur von Nathan Marz (siehe Abb. 3) kombinieren die schnelle Analyse einkommender Daten mit komplexeren, weniger zeitkritischen Analysen im Batch. Wie die Architektur mit Softwareprodukten – gleich ob kostengünstige Open-Source oder kommerzielle Lösungen – instanziiert wird, hängt vom konkreten Setting ab.
Dies birgt allerdings auch Gefahren. Alle Entscheidungen im Kontext von Big Data setzen ein umfassendes Verständnis der Konzepte und Technologien voraus. Nicht jede – wenn auch frei nutzbare – Lösung ist für den jeweiligen Zweck geeignet. Es überrascht nicht, dass erste Unternehmen enttäuscht von ihren ersten Gehversuchen mit Big Data zurückkehren. Laut einer Innovationspotenzialanalyse (www.bigdata-studie.de) wünschen sich 95% der Unternehmen gezielte Förderung in Form von Best Practices und Trainings, gefolgt von Anbieter- und Lösungsübersichten.

Data Scientists – die Architekten von Big Data
Die Architekten des Erfolgs sind Data Scientists. Eine Berufsgruppe mit Zukunft. US-Marktforscher Gartner schätzt den Bedarf an Data Scientists weltweit auf über vier Millionen. Schulungsangebote zum Data Scientist werden deshalb zunehmend angeboten. Für den Einstieg in Big Data ist es jedoch wichtig, erst einmal von Einzeltechnologien zu abstrahieren und sich modular einzelnen Aspekten wie Big-Data-Architekturen, Big Data Analytics oder Visual Analytics zu widmen. Anwendungsorientierte Angebote arbeiten direkt in einem Living Lab Big Data, um Technologien und Lösungsansätze anhand praktischer Anwendung „anfassbar“ zu machen und Best Practices zu vermitteln.
Vertrauen in Daten
Weitere Hindernisse für den Einsatz von Big Data sieht jedes zweite Unternehmen im Bereich Datenschutz & Datensicherheit und dem Setzen der richtigen Prioritäten. Dabei sind der Schutz der Privatsphäre und das Extrahieren relevanter Informationen für individuelle Angebote längst kein Widerspruch mehr. Viele Bedenken bei den Kunden sind ursächlich meist auf negative Vorfälle oder fehlenden Transparenz zurückzuführen. Offenheit im Umgang mit Big Data und gleichzeitig ein striktes Umsetzen des „Privacy by Design“-Konzeptes machen Datenschutz und Informationssicherheit zum integralen Bestandteil jedes Produktes oder Services. Aber auch die Politik ist gefordert, die Rahmenbedingungen für einen modernen Datenschutz zu schaffen.
Big Data bedeutet aber auch aktive Sicherheit für den Kunden. Neue Fraud-Mining-Technologien erkennen zuverlässig Betrugsversuche mit Informationen aus Big Data. Der entscheidende Mehrwert entsteht durch die Kombination verschiedener Daten und setzt auf die komplexe Vernetzung der Fakten zu nachvollziehbaren Entscheidungen, warum ein Vorgang als verdächtig eingestuft wurde. Diese Vernetzung und der Einsatz semantischer Verfahren bieten schon heute den Wissensvorsprung in Bezug auf den Wahrheitsgehalt der teils subjektiven oder fehlerhaften Daten.
Fazit
Mit Big Data können die Unternehmen auf einen Technologiebaukasten und intelligente Analysewerkzeuge zugreifen, die es ermöglichen, datengetriebene Entscheidungen im übergeordneten Kontext zu treffen und gleichzeitig mit Gespür für den jeweiligen Kunden und dessen Situation überzeugende Angebote zu offerieren. Es ist diese ganzheitliche Sicht, die den Wert von Big Data ausmacht.
Mit der Verfügbarkeit von immer mehr Datenbeständen und dem gezielten Erfassen neuer Daten wächst auch Big Data mit seinen Aufgaben. Unternehmen können auf Best Practices und umfangreiches Know-how zu Big Data zugreifen. Die Technologien zur Verarbeitung und Auswertung sind kostengünstig nutzbar und Daten können in jeglicher Form verarbeitet werden. Alles zusammen bildet die Basis für neuartige Wertschöpfungsmodelle – in jeder Branche.

Autor
Hendrik Stange studierte Wirtschaftsinformatik mit den Schwerpunkten Data Mining und Corporate Governance an der Otto-von-Guericke Universität Magdeburg. Schon frühzeitig befasste er sich mit Spatial Business Intelligence Lösungen für den Einzelhandel. Seit 2007 ist er Analyst in der Abteilung Knowledge Discovery am Fraunhofer-Institut für intelligente Informations- und Analysesysteme IAIS und ist dort seit 2009 als Projektleiter tätig. Sein aktueller Forschungsschwerpunkt liegt im Bereich Big Data Analytics und im Spezialgebiet Reality Monitoring. Er unterstützt Unternehmen im strategischen Umgang mit dem wettbewerbsentscheidenden Rohstoff "Daten" auf dem Weg zu "Data-driven Enterprises".