Aufbrechen von Datensilos als Erfolgsfaktor für Digitalisierung

Das Konzept der datengesteuerten Entscheidungsfindung ist nicht neu. Aber die meisten Unternehmen tun sich noch schwer damit, es in die Tat umzusetzen. EY berichtet, dass 81 % der Unternehmen der Meinung sind, dass alle Geschäftsentscheidungen auf der Grundlage von Daten getroffen werden sollten. Allerdings setzt ein Großteil der Unternehmen gerade im Mittelstand Daten und entsprechende Analysen immer noch zu wenig und meist isoliert ein, wodurch das Potenzial zur Steigerung von Leistung und Effizienz eingeschränkt wird.
Dies liegt meist daran, dass Unternehmen über die Jahre eine Vielzahl sogenannter Datensilos angehäuft haben, in denen unterschiedliche Daten isoliert gespeichert und bearbeitet werden. Eine zentrale Ablage und Verwaltung dieser Daten wurde häufig noch nicht implementiert. Dadurch wird die Arbeit mit vorhandenen Daten gerade bei bereichs- oder abteilungsübergreifenden bzw. unternehmensweiten Entscheidungen deutlich erschwert oder häufig gar nicht sinnvoll im notwendigen Umfang möglich.
Insofern muss es Ziel nahezu jedes Unternehmens sein, eine IT-Infrastruktur zu schaffen, die vorhandene Datensilos aufbricht, entsprechende Daten übergreifend nutzbar macht und den Aufbau möglicher neuer Datensilos unterbindet, sowie die Anbindung neuer Tools und Technologien beschleunigt und vereinfacht. In diesem Artikel möchten wir einige Denkanstöße und Ansätze hierzu liefern.
Daten, Daten, Daten
Daten sind das neue Gold! Diesen Satz haben die meisten sicherlich schon häufig gehört. Gemäß einer Studie vom IWD Informationsdienst des Instituts der deutschen Wirtschaft wird die weltweite Datenmenge von rund 33 Zettabyte (ZB) im Jahr 2018 auf 175 ZB im Jahr 2025 steigen – also jedes Jahr um circa 27 %.
Zur Einordnung: Ein Zettabyte entspricht einer Milliarde Terabyte. Ein 90-Minuten-Film in Standard-Qualität benötigt circa 500 Megabyte an Speicherplatz. Damit entspräche ein ZB rund zwei Billionen Filmen – eine Zwei mit zwölf Nullen. Mathematisch: 1ZB = 10 hoch 21 Byte oder 1 Trilliarde Byte. |
Typische datenintensive Anwendungen der Branche sind die automatisierte Fertigung von Produkten und die digitale Vernetzung über Unternehmensgrenzen hinweg. Die zweitgrößte Datenmenge verursachte der Handelssektor mit 2,2 ZB. Grund dafür sind vorwiegend der wachsende Onlinehandel und die Datenanalysen zu Werbezwecken.

Die größten jährlichen Wachstumsraten für den Zeitraum von 2018 bis 2025 sagt die International Data Corporation mit 36 % für den Gesundheitsbereich voraus, dicht gefolgt vom produzierenden Gewerbe mit einem jährlichen Datenwachstum von rund 30 % und den Finanzdienstleistungen mit 26 %.
Um in der immer mehr vernetzten und globaleren Welt auch zukünftig wettbewerbsfähig zu sein, müssen sich Unternehmen – unabhängig von Branchen und Größe – immer stärker in Richtung Data-Driven-Companies entwickeln. Das heißt konkret, dass Entscheidungen auf Basis vorliegender Daten getroffen werden, die vielfach auch historisch bedingt an unterschiedlichsten Stellen im Unternehmen gespeichert wurden bzw. werden. Die so über die Jahre häufig aufgebauten Datensilos liefern einzeln betrachtet oftmals nur bedingten Wert. In der Kombination und Verknüpfung mit anderen Daten sind diese dort vorhandenen Daten allerdings oft von unschätzbarem Wert.
Was sind Datensilos?
Ein Datensilo ist eine Ansammlung von Daten, die sich in einer Abteilung oder sogar bei einer Person innerhalb einer Organisation befindet, die von der gesamten Organisation getrennt ist oder getrennt werden kann. Oft sind diese Daten mit anderen Datenquellen verbunden, haben sich aber im Laufe der Zeit weiterentwickelt, so dass sie sich von der ursprünglichen Datenquelle unterscheiden. Je nach Größe und Struktur eines Unternehmens kann es einige wenige bis hin zu Hunderten dieser Datensilos geben. Diese Datensilos stellen ein großes Problem für den Datenschutz dar und können zu einer Belastung für ein Unternehmen werden.
Warum entstehen Datensilos?
Hierzu gibt es eine Vielzahl an Gründen, wobei nachfolgend einige Beispiele aufgeführt werden:
- Organisches Wachstum eines Unternehmens führt häufig dazu, dass einzelne Abteilungen und Mitarbeitende ihre eigenen Datenbanken oder Datenspeichersysteme aufbauen. Diese Systeme sind meist von den zentralen Daten abgekoppelt. Zum Beispiel sammelt die Vertriebsabteilung auf einer Konferenz Namen, E-Mail-Adressen usw. und speichert sie in Excel-Arbeitsmappen, Google Sheets usw.
- Anwendungen von Drittanbietern zur Datenerfassung: Viele Unternehmen verwenden Anwendungen von Drittanbietern, wie z. B. E-Mail-Systeme, um Daten zu erfassen und zu verwalten.
- Anwendungen von Drittanbietern, die die Daten verwenden: Heutzutage werden Daten in fast allen Anwendungen verwendet. Das bedeutet, dass Sie Ihre 1st-Party-Daten in diese Systeme hochladen und sie dort verwalten können.
- Daten für eine bestimmte Abteilung: Wie bereits erwähnt, werden Daten überall verwendet; wenn eine bestimmte Abteilung die Daten benötigt, wird eine Teilmenge der Daten von ihr erstellt. Bei diesen Daten kann es sich um eine Momentaufnahme der Daten zu einem bestimmten Zeitpunkt oder um „Live-Daten“ handeln. Die betreffende Abteilung kann diese Daten dann mit einem Teil der Daten weiter anreichern und so ihr eigenes „Data Warehouse” erstellen. Mit der Zeit sehen diese Daten dann möglicherweise ganz anders aus als die ursprünglichen Daten, so dass ein Datensilo entsteht.
Datenstrategien als Basis für das Aufbrechen von Datensilos
Um vorhandene Datensilos aufzubrechen, sollten Unternehmen besser heute als morgen über eine umfassende Datenstrategie diskutieren, bei der das Hauptziel die Beseitigung von Datensilos sein muss und die dabei helfen wird, die Geschäftsziele besser zu erreichen und sich erfolgreich weiterzuentwickeln.
Nachfolgend einige Gründe, warum eine Datenstrategie benötigt wird:
- Daten sind ein wichtiger Wettbewerbsvorteil: Eine gut geplante und umgesetzte Datenstrategie ermöglicht es dem Unternehmen, wertvolle Einsichten aus seinen Daten zu gewinnen und so bessere Entscheidungen zu treffen.
- Datenschutz und Datensicherheit: Eine Datenstrategie hilft dem Unternehmen, seine Daten richtig zu schützen und sicherzustellen, dass es den gesetzlichen Anforderungen entspricht.
- Kosteneinsparungen: Eine effektive Datenstrategie kann dazu beitragen, Kosten zu sparen, indem sie die Datenintegration vereinfacht und die Datenqualität verbessert.
- Compliance: Eine Datenstrategie sorgt dafür, dass das Unternehmen die relevanten Vorschriften und Gesetze einhält, die für die Verarbeitung von Daten gelten.
Eine Datenstrategie ist also von entscheidender Bedeutung, um die Daten im Unternehmen effektiv zu verwalten, zu nutzen und zu schützen. So kann sich ein Unternehmen besser auf seine Geschäftsziele konzentrieren und erfolgreicher sein.
Gerade der Mittelstand als Rückgrat der deutschen Wirtschaft hat sich über die Jahre häufig recht dynamisch entwickelt, wodurch heterogene Daten und Datenstrukturen entstanden sind, die oft in verschiedenen, gewachsenen und teils isolierten IT-Systemen gehalten werden. Produktstammdaten werden nach wie vor noch häufig in Excel-Sheets gepflegt, immer öfter kommen inzwischen aber glücklicherweise PIM-Systeme zum Einsatz, Bestands- und Preisdaten stammen aus einem zentralen ERP-System (SAP). Bilder und weitere Assets werden in einem Filesystem vorgehalten. Darüber hinaus ist es gang und gäbe, dass jede Abteilung bzw. jeder Fachbereich spezifische Daten benötigt und bearbeitet, die sehr häufig in jeweils eigenen Applikationen und/oder Datenbanken abgelegt werden.
Durch die vorhandenen Tools und eine meist nicht entkoppelte IT-Architektur werden so über die Zeit Datensilos aufgebaut, die unter anderem folgende Konsequenz nach sich ziehen:
- große Abhängigkeiten von einzelnen Systemen
- hohe Aufwände bei der Einführung neuer Systeme oder dem Austausch bestehender Lösungen
- keine stabile Datenübertragung zwischen Systemen
- wenig Flexibilität und Agilität
- keine übergreifende Datennutzung möglich
- Updatefähigkeit von Systemen durch starkes Customizing nicht mehr gegeben
- Die Performance vorhandener Systeme wird durch falsche Datenstrukturen und Datenmenge im laufe der Zeit inakzeptabel
- Beeinträchtigung der Datensicherheit

Ansätze zur Beseitigung von Datensilos
Vor der Einführung von Big Data und der Cloud war es für Unternehmen kein großes Problem, ihre eigenen Daten zu erstellen und zu verwalten. Angesichts des exponentiellen Datenwachstums in der Vergangenheit und der Tatsache, dass sich an dieser Entwicklung auch in den kommenden Jahren nichts ändern wird – die Menge an Daten wird eher überproportional zunehmen – haben jene Tools die in der Vergangenheit zur Speicherung und Verwaltung entsprechender Daten verwendet wurden, zu Datensilos geführt, die den Informationsaustausch und die abteilungsübergreifende Zusammenarbeit behindern können. Gerade in einer immer komplexeren und dynamischeren Welt, die immer häufiger nur noch durch die Verwendung von Daten gemanagt werden kann, stellt dies eine der größten Herausforderungen für eine Vielzahl an Unternehmen gerade im Mittelstand dar.
Daher möchten wir nachfolgend ein paar Ansätze vorstellen, wie man vorhandene Datensilos aufbrechen und das Fundament für ein zunehmend datengetriebenes Unternehmen legen kann:
Verbesserung der Sichtbarkeit bzw. Awareness
Datensilos schränken die Sicht auf Ihre Daten ein. Ohne einen unternehmensweiten Überblick über Ihre Daten wird es beispielsweise äußerst schwierig, übergreifende Kosteneinsparungen zu lokalisieren. Durch mehr Transparenz können sich IT-Teams auf die datengestützte Entscheidungsfindung konzentrieren, die für das finanzielle Wohlergehen eines Unternehmens wichtig ist. Andererseits kann eine unzureichende Datentransparenz den Schutz von Daten erschweren, was dazu führen kann, dass ein Unternehmen unwissentlich Daten preisgibt oder die Einhaltung von Vorschriften nicht gewährleistet.
Priorisierung des Datenschutzes
Zu einer effektiven Datenverwaltung gehört eine solide Datenschutzstrategie. Insbesondere durch die Einführung der Datenschutzgrundverordnung im Mai 2018 hat dieses Thema nochmals deutlich an Sichtbarkeit und Relevanz zugelegt. Inzwischen gibt es unterschiedlichste Anbieter, die Datensicherungslösungen für eine Vielzahl von Datenquellen und Infrastrukturen, sowohl für physische Server, für Cloudumgebungen als auch Hybrid-Infrastrukturen anbieten. Die Rücksicherung kann hier dann ebenfalls in die Cloud oder in ein physisches Datencenter erfolgen, wodurch die Sicherheit erhöht und der Aufwand für das Management der IT-Infrastruktur signifikant reduziert werden kann.
Aufbau einer IT-Infrastruktur, die die Zentralisierung von Daten aus verschiedenen Quellen ermöglicht
Wenn dieselben Informationen an verschiedenen Orten im Unternehmen gespeichert werden und/oder wenn Benutzer*innen ihre Daten in ihren persönlichen Ablagen, Datenbanken und Tools speichern, wirkt sich dies in einer übergreifenden Betrachtung in der Regel negativ auf die Effizienz bei der Arbeit mit Daten aus. Durch die Bündelung von Daten an einem zentralen Ort – in diesem Fall spricht man häufig von einem sog. Datalake – kann Speicherplatz eingespart werden und der Managementaufwand zur Verwaltung entsprechender Daten reduziert sich mitunter signifikant. Darüber hinaus können Daten übergreifend genutzt und damit zusätzliche Mehrwerte und mitunter auch höhere Genauigkeit gewährleistet werden. Eine Möglichkeit, diese Datensilos zu durchbrechen, besteht darin, alle Unternehmensdaten in einem Cloud-basierten Data Warehouse zusammenzuführen. Derartige Cloud-Lösungen helfen dabei, technologische Hindernisse für die Zusammenarbeit zu beseitigen und ermöglichen eine leichtere Verbindung von Datensilos. So können Abteilungen auf einer einzigen, zugänglichen, modernen Datenplattform zusammenarbeiten. Ein Beispiel für ein solches Data Warehouse ist BigQuery von Google. Hierbei handelt es sich um ein serverloses und kostengünstiges Data Warehouse für Unternehmen. Die Lösung verfügt über integriertes Machine Learning und BI, das Cloud-übergreifend funktioniert und mit ihren Daten skaliert. Wir nutzen BigQuery auch als Basis für unser eigenes Data Warehouse.
Effiziente Datenintegration – Entkopplung der IT-Infrastruktur
Unternehmen können unterschiedliche Methoden anwenden, um Daten aus isolierten Datenquellen in ein Warehouse zu verschieben. Dazu gehören insbesondere das Schreiben von Skripten mit SQL oder anderen Skriptsprachen, ETL-Tools (Extrahieren, Transformieren, Laden) vor Ort sowie Cloud-basierte ETL-Tools. ETL-Tools helfen dabei, Daten sicher und zuverlässig von einem System in ein anderes zu verschieben, indem Datentransformationen in unterschiedlichen Formaten unterstützt und ermöglicht werden. Darüber hinaus gibt es inzwischen auch unterschiedliche Middleware-Lösungen bzw. Datenintegrationsplattformen. Diese wurden dafür entwickelt, unterschiedlichste Datenquellen andocken zu können, die Daten dann zu transformieren bzw. zu homogenisieren und zentral abzulegen bzw. in unterschiedlichste Exportformate auszugeben oder über APIs wiederum Drittsystemen zur Verfügung zu stellen.
Exkurs Bloodstream
Bei TechDivision haben wir mit einer iPaas Datenintegrationsplattform namens Bloodstream eine solche Middleware zur Auflösung von vorhandenen Datensilos und zur Entkopplung von IT-Infrastrukturen entwickelt.
Mit dieser Cloud-basierten Plattform für Datenintegration lassen sich all Ihre vorhandenen Daten nutzen. Egal, aus welchen Quellen sie stammen. Oder in welchen Formaten sie vorliegen. Bloodstream bricht die bestehenden Datensilos auf und lässt sie in einen großen „Data-Lake” fließen.
Dort werden sie harmonisiert. Danach kann komplett individuell gesteuert werden, wie und wo die vorhandenen Daten weiterverwendet werden sollen.

Stellen Sie sich vor, Ihre Produktdaten sind in einem ERP wie SAP oder einem PIM gespeichert, sollen in Zukunft aber von einer neuen, komplexen E-Commerce-Plattform und einem eigenständigen Frontend-Tool „headless“ genutzt werden.
Vorteile von Bloodstream auf einen Blick:
- Schlanke und extrem funktionale Software für Datenintegration
- Stabile Konvertierung und Übertragung von Daten
- Smartes Schnittstellen-Management
- Kontrollierte Datennutzung für E-Commerce & Datenanalyse
- Entkoppeln von komplexen Abhängigkeiten zwischen IT-Systemen
- Größtmögliche Flexibilität und damit jederzeitige Anbindung oder Verknüpfung unterschiedlichster Drittsysteme
- Unterstützung von APIs oder Datenbanken
- Bloodstream ist technologie-agnostisch und dadurch unabhängig von anderen SoftwareTools, sie lässt sich für beliebige E-Commerce-Plattformen einsetzen
- Funktioniert für und mit allen bestehenden Backend-Systemen wie SAP, Microsoft Dynamics, Akeneo oder Salesforce
- Nutzbar für alle E-Commerce-Plattformen wie Magento, Adobe Commerce, Spryker oder beliebige weitere Tools
Zentralisierung des Datenzugriffs und der Datenkontrolle mit einem Data Governance Framework
Daten sind einer der wertvollsten Vermögenswerte eines Unternehmens. Ein Data Governance Framework kann dazu beitragen, dass die Daten verfügbar, nutzbar und sicher sind. Eine entsprechende Richtlinie zur Arbeit mit und Verwaltung von Daten macht es einfacher und schneller, Vorgaben für die gemeinsame Nutzung von Daten und die Einhaltung von Vorschriften in CloudDatenbanken zu definieren und durchzusetzen. Mit zentralisierten Daten arbeitet das gesamte Unternehmen nach demselben Schema. Dies kann zu einer höheren Genauigkeit und Konsistenz bei der Arbeit mit Daten, einer besseren Entscheidungsfindung und einer Verringerung von Datenduplikaten und manuellen Dateneingabeprozessen führen.
Praxisbeispiel:
Das primäre Ziel bei einem mittelständischen Unternehmen im Bereich Elektrotechnikprodukte bestand darin, die bestehenden IT-Infrastrukturen durch Einführung einer Zwischenschicht in Form einer zentralen Datenintegrationsplattform aufzubrechen und zu entkoppeln, um zukünftig schneller und effizienter Daten zwischen vorhandenen Systemen auszutauschen, neue Systeme anzudocken sowie beliebige Datenexporte performant durchführen zu können.
Im Unternehmen werden unterschiedlichste Daten in diversen Systemen gleichzeitig und redundant gepflegt bzw. benötigt:
- Akeneo PIM-System für das Produktdatenmanagement
- Datei-Server bzw. Cumulus DAM für die Assetverwaltung
- SAP ERP-System für Preise
- Adobe Commerce als E-Commerce-Plattform
- Zahlreiche Tabellen mit länderspezifischen Daten und Konfigurationen
In diesem Fall sorgt die Einführung einer Datenintegrationsplattform für die Entkopplung der verschiedenen Systeme, um die Abhängigkeit zu deren Erreichbarkeit, Stabilität sowie Belastbarkeit aufzulösen und um die angedockten Systeme dennoch stabil und kontinuierlich mit Daten zu versorgen.
Hierzu ist die Datenintegrationsplattform mit den genannten sowie noch weiteren Systemen verbunden. Dadurch können die dort jeweils abgelegten Daten extrahiert, vorgehalten, konvertiert und zentral zusammengeführt werden, wodurch komplexe Abhängigkeiten in der Systemlandschaft aufgelöst und die damit einhergehenden Prozesse vereinfacht gestaltet werden können.

Durch die Einführung einer zentralen Datenintegrationsplattform erfolgt eine Entkopplung der Systemlandschaft wodurch Drittsysteme nur noch über die Datenintegrationsplattform als neuen Datenhub angebunden werden und damit größtmögliche
- Stabilität,
- Flexibilität
- Agilität und
- Sicherheit (Zugriff von Extern „nur” auf die Datenintegrationsplattform und nicht direkt auf angeschlossene Systeme)
gewährleistet werden kann.
Mögliche Vorgehensweise zum Aufbrechen von Datensilos
Bei der Implementierung einer neuen, entkoppelten IT-Infrastruktur, die dazu dienen soll, vorhandene Datensilos aufzubrechen, haben wir in der täglichen Praxis bei unterschiedlichsten Unternehmen mit der sogenannte Shadow Strategie recht gute Erfahrungen gesammelt. Hierbei handelt es sich um eine besondere Vorgehensweise zum Austausch eines bestehenden IT-Systems im laufenden Betrieb. Im Gegensatz zur sogenannten Big Bang Strategie gibt es keinen Tag X, bei dem das alte System abgeschaltet und das neue Systeme gelauncht wird. Bei der Shadow Strategie wird vielmehr parallel zum bestehenden System also quasi im Schatten – daher auch der Name – das neue System parallel aufgebaut.
Schritt für Schritt werden anschließend einzelne Funktionen und Daten in das neue System überführt. Dabei bleibt das bestehende System als Fallback Option erhalten, um etwaige Risiken zu minimieren. Der temporäre Mischbetrieb der Systeme ist durch Einführung einer Middleware in Form einer Datenintegrationsplattform wie der von uns entwickelten Lösung namens Bloodstream abbildbar. Damit werden die Systeme und Datenflüsse untereinander gesteuert. Somit kann beispielsweise ein Teil der Daten bereits aus einem neuen PIM System geliefert werden und ein anderer Teil aus dem alten. Zusammen können die Daten dann in weitere Systeme oder Ausgabekanäle weitergegeben werden.
Bei dieser Vorgehensweise werden sukzessive alle Business Cases im neuen System implementiert, bis zu dem Zeitpunkt, an dem das neue System alle relevanten Funktionen, Daten und Schnittstellen beherrscht, die das alte System auch abgedeckt hat. Ab diesem Zeitpunkt kann die bisherige Infrastruktur abgeschaltet werden.
Vorteile:
- das Live System kann zu jeder Zeit benutzt werden und es gibt keine Zeit, in der niemand am System arbeiten kann
- kein Umsatzausfall da businesskritische Systeme jederzeit erreichbar sind
- wenig Risiko
Nachteile:
- Komplex in der Planung und Abstimmung
- man muss jede Änderung im Live System auf das Shadow System nachziehen und im Worst-Case können dadurch Mehraufwände anfallen
- stringentes Zeitmanagement ist notwendig (Gefahr, dass man nie Live geht)
Ergebnis einer entkoppelten IT-Infrastruktur
Durch die Einführung einer entkoppelten IT-Infrastruktur und die Nutzung einer Datenintegrationsplattform sowie einem Cloud-basierten Data Warehouse ergeben sich einige massive Vorteile:
- Datenflüsse sind transparent und nachvollziehbar.
- Neue IT-Systeme können jederzeit angebunden werden und alte Systeme können ausgetauscht werden, ohne dass man bestehende Systeme anpassen muss.
- Eine übergreifende Nutzung der Daten wird möglich.
- Entscheidungen können auf Basis valider Daten getroffen werden.
- Datenexporte, die vorher zeitaufwendig waren – da zuerst Datensilos zusammengeführt werden mussten – werden signifikant beschleunigt.
- Systemübergreifende Datenexporte sind ohne großen Aufwand möglich.
- IT-Systeme können wie vorgesehen verwendet werden, wodurch die Vorteile der Tools voll zum Tragen kommen.
- Verbesserung der Sicherheit durch Kapselung von Systemen und bessere Steuerung von Zugriffen.
- Steigerung der Effizienz und Agilität durch besseres Datenmanagement.
Natürlich ist die Einführung einer solchen IT-Infrastruktur mit Aufwänden verbunden. Allerdings überwiegen die sich daraus ergebenden Vorteile die Aufwände nach unserer Erfahrung bei weitem. Ein aufbrechen vorhandener Strukturen und Silos ist zumindest mittel- und langfristig betrachtet alternativlos.

Autor
Josef Willkommer
Chefredakteur eStrategy-Magazin
Als Mitgründer und Geschäftsführer der TechDivision GmbH, einer der führenden Adobe-Partner in der DACH-Region, beschäftigt sich Josef Willkommer seit vielen Jahren sehr intensiv mit E-Commerce, Digitalisierung und Online-Marketing. Darüber hinaus ist er als Chefredakteur des eStrategy-Magazins sowie als Autor diverser Fachbeiträge rund um E-Commerce und Digitalisierung auch journalistisch tätig. Neben diversen Beratungstätigkeiten für unterschiedlichste Unternehmen trifft man ihn bei diversen Fachkonferenzen zudem als Speaker zu E-Commerce- und Digitalisierungsthemen an.