DataOps So werden aus Rohdaten Handlungs-Optionen
Anbieter zum Thema
Das Geschäft mit und um Daten floriert. Doch um hier einen Teil des Kuchens abzubekommen, genügt es nicht, nur Datenberge zu horten. Intelligente Datenintegration und Automatisierungslösungen können Ordnung ins Chaos bringen.

Bis der Mensch aus seinen Einsichten planvoll handelt, kann es erfahrungsgemäß eine Weile dauern: Etwas zu sehen heißt nicht immer, es auch zu erkennen. Etwas zu erkennen, heißt noch nicht, es tatsächlich zu verstehen – und selbst etwas zu verstehen, bedeutet noch nicht, entsprechend zu handeln. Dazu gehören Erfahrung, ein ganzheitliches Bild von der Welt – und immer auch ein Stück weit Intuition. Der Weg zur datengetriebenen Unternehmenssteuerung funktioniert ganz ähnlich.
Immer schneller, immer mehr und immer unterschiedlicher: Wer sich mit Daten beschäftigt, hat sich ganz schön etwas vorgenommen. Data Lakes voller strukturierter und unstrukturierter digitaler Informationen, Big-Data-Umgebungen mit Realtime-Anspruch oder komplexe IoT-Szenarien: Das Generieren und Nutzen von Daten treibt die Analytics Economy in neue Höhen – und ermöglicht datenbasierte Wertschöpfung in nahezu allen Geschäftsprozessen, vom Einkauf bis zur After-Sales-Steuerung.
:quality(80)/images.vogel.de/vogelonline/bdb/1808500/1808506/original.jpg)
Datenaustausch
Sensible Produktdaten sicher mit Dritten teilen
„Data Hoarding“ ist keine Strategie
Doch das ist kein Selbstläufer. Beispiel Big Data: Wer auf skalierbare Cloud-Lösungen setzt – und Cloud-First-Konzepte gehören in immer mehr Organisationen zur Unternehmensstrategie – ist nicht länger von den Kapazitäten der eigenen IT-Infrastruktur abhängig. Wo früher Storage-Limitierungen ehrgeizige Projekte irgendwann von selbst begrenzten, stehen heute Speicherkapazitäten und Rechnerleistung ohne Ende zur Verfügung – was zwar komfortabel ist, aber ohne Strategie auch in ein regelrechtes „Data Hoarding“ führen kann. Dann werden Daten also erst einmal gesammelt – das „Warum?“ überlegt man sich später.
Doch damit nicht genug: Während die Cloud-Speicher munter mit immer neuen Informationen geflutet werden, existiert in vielen Unternehmen parallel auch noch eine weit verzweigte, oft stark fragmentierte Daten-Umgebung, die nicht selten aus uneinheitlichen, nicht konsistenten Datensets und isolierten Datensilos besteht. Zwei Fragen tun sich daher schon fast automatisch auf:
- 1. Wie lassen sich existierende Daten-Silos aufbrechen?
- 2. Und wie lassen sich Informationen aus allen verfügbaren Quellen so in ein modernes Analytics-Szenario einbinden, dass (fehleranfällige) manuelle Prozesse möglichst eliminiert werden?
:quality(80)/p7i.vogel.de/wcms/43/ab/43ab686043e5e98f3afbf7faed2f1a1a/95843793.jpeg)
Zukunft des IoT
Internet der Dinge wird immer schlauer
End-to-End-Erfahrung aufgrund von Data-Warehouse-Automation
Möglichst intelligentes Daten-Management ist hier gefragt, das ebenso agil wie qualitativ hochwertig arbeitet. Kurz: ein echter „DataOps“-Ansatz, der bereits Rohdaten als ersten Schritt zur datenbasierten Handlungs-Option versteht.
Die Idee dahinter ist es, spätere assoziative Analytics-Szenarien bereits mit den vorhergehenden Schritten (Datenmanagement, -aufbereitung und -bereitstellung, …) von Anfang an zu unterstützen. Ein entscheidender Faktor dabei ist Geschwindigkeit. Warum? Menschliche Intuition geht nicht über Umwege – und auch seine Daten sollte man nicht zwingen, das zu tun.
Technologisch meint das, automatisierte und prozessorientierte Technologien einzusetzen, also On-Demand IT-Ressourcen zu nutzen, Tests zu automatisieren und geeignete, valide Datenquellen (interne wie externe) automatisch bereit zu stellen. Echtzeit-Datenintegration, Change Data Capture (CDC) und Streaming-Data-Pipelines in Echtzeit sind die aktuellsten Methoden dafür und machen aus DataOps eine End-to-End-Erfahrung, die eigentlich auf einer konsequenten Data-Warehouse-Automation beruht: von der Rohdatenquelle zur konkreten datenbasierten Handlungs-Option. Organisationen, die ein derartiges DataOps-Konzept umsetzen, können etwa vier Fünftel der Geschäftsdaten als relevante Kerndaten an ihre Anwender liefern.
Das weitestgehend automatisierte, operative Datenmanagement auf der einen Seite und anwenderfreundliche Analytics-Applikationen am Ort der Geschäftsentscheidung gewährleisten so eine datenbasierte Wertschöpfungskette – unternehmens- und standortübergreifend.
Katalogisierte Metadaten als Brücke zwischen Datensets und Analyse-Applikation
Um Rohdaten in heterogenen und weit verzweigten Datenbeständen zu lokalisieren, sie zusammenzuführen und sie auf Vergleichbarkeits-Merkmale hin zu untersuchen, sind Metadaten-Kataloge ein intelligenter Lösungsansatz. Metadaten-Kataloge, die mit KI-Engines arbeiten, gewährleisten eine rasche und vollständige Datenbereitstellung und ermöglichen agile Daten-Projekte, die sich ohne Infrastruktur-Hürden durchführen und teilen lassen.
Wer ein „DataOps“-Konzept umsetzen möchte und den Weg zur datengetriebenen Organisation konsequent von seinen Rohdatenquellen bis hin zu validen Business-Insights denkt (End-to-End), sollte intelligente Datenintegration als Dreh- und Angelpunkt verstehen. Data-Warehouse-Automation kann die entsprechende Geschwindigkeit forcieren – und zudem das Risiko minimieren, das manuelle Prozesse bedeuten, um Daten wirklich Analytics-ready zu machen.
:quality(80)/images.vogel.de/vogelonline/bdb/1759200/1759281/original.jpg)
Cloud
Daten nah an der Anwendung halten
Dieser Beitrag ist ursprünglich auf unserem Partnerportal Industry of Things erschienen.
* Wolfgang Kobek arbeitet als SVP EMEA bei Qlik .
(ID:47377978)