Suchen

Data Analytics

Data Analytics: Bedeutung und Einsatz

| Autor/ Redakteur: Johannes Kröckel / Mag. Victoria Sonnenberg

Data Analytics oder teilweise kurz nur Analytics genannt, beschreibt das Erkennen, Interpretieren und Kommunizieren von Mustern in Daten. In dieser Definition verbergen sich vier Elemente, die wichtig sind um Datenanalysen erfolgreich zu gestalten.

Firmen zum Thema

Daten, Mustererkennung, Interpretation und Kommunikation sind wichtige Elemente, um Datenanalysen erfolgreich zu gestalten.
Daten, Mustererkennung, Interpretation und Kommunikation sind wichtige Elemente, um Datenanalysen erfolgreich zu gestalten.
(Bild: ©denisismagilov - stock.adobe.com)

Daten

Grundvoraussetzung für Datenanalysen sind natürlich Daten. Vor 20 Jahren wurde ein Großteil der verarbeiteten Daten noch strukturiert in Datenbanken abgelegt. Mittlerweile hat sich viel geändert. In Zeiten von IoT und Industrie 4.0, in denen Sensortechnologien akkurater, günstiger und in nahezu jedem elektronischen Gerät verbaut sind, explodieren Datenmengen.

Neue Software, Sensoren und die Kommunikation über alle Arten von digitalen Kanälen führen darüber hinaus dazu, dass der Anteil strukturierter zugunsten unstrukturierter Daten, wie Texten, Bildern oder Videos sinkt. Die Herausforderung für Datenanalysten bei der Beschaffung von Daten ist daher häufig nicht mehr Daten zu bekommen, sondern die Daten in der richtigen Qualität zu erhalten oder sie entsprechend aufzubereiten. Die Verarbeitung unstrukturierter und großer Datenmengen erhöht die Anforderungen an neue Systeme und Tools immens. Technologien wie Hadoop und Spark helfen dabei, Massen- und teilweise oder unstrukturierte Daten aufzuzeichnen und zu verarbeiten.

Mustererkennung

Mit den aufbereiteten Daten beginnt die tatsächliche Analyse und Mustererkennung. Die Bandbreite reicht von einfachen deskriptiven Analysen, die über statistische Verfahren Daten beschreiben, bis hin zu Ensemble-Modellen bestehend aus mehreren künstlichen neuronalen Netzen, die echtzeitnahe riesige Datenmengen verarbeiten und darauf aufbauend autonom Entscheidungen treffen.

Deskriptive Analysen bieten vor allem für unregelmäßige oder sporadische Anwendungen beziehungsweise zur Berechnung von KPIs zahlreiche erprobte Möglichkeiten. Für komplexere Probleme, Datenbasen und Modelle sind Algorithmen aus dem Bereich Machine Learning oder deutsch maschinelles Lernen die Lösung.

Jeder der Algorithmen besitzt die Fähigkeit bestimmte Muster in Daten eigenständig zu erkennen beziehungsweise zu generalisieren und darauf aufbauend Entscheidungsunterstützung zu bieten. Je nachdem ob der Algorithmus von bestehenden Daten lernen kann oder neue Daten ohne Vorwissen analysieren soll werden überwachte und unüberwachte Lernalgorithmen unterschieden.

Ergebnisse der Algorithmen sind typischerweise Klassifikationen zur Einteilung der Daten in vordefinierte Gruppen/Klassen, Regressionen zur Modellierung von mathematischen Zusammenhängen zwischen Variablen und Clustering zur Gruppierung ähnlicher Daten ohne zusätzliches Vorwissen.

Zu den traditionellen Algorithmen, die teilweise bereits seit der zweiten Hälfte des letzten Jahrhunderts erfolgreich eingesetzt und weiterentwickelt werden, kommen neue Ansätze wie Deep Learning. Diese Methoden bestehend aus komplexen künstlichen neuronalen Netzen sind deutlicher rechenintensiver und erfordern riesige Datenmengen um komplexe Muster sicher zu erkennen. Sie lohnen sich aber aufgrund stetig sinkender Kosten für Speicher und Prozessorleistung bei besserer Aussagequalität für Anwendungsfälle wie Bilderkennung oder auch Zeitreihen zunehmend.

Interpretation

Muster alleine bieten keinen Mehrwert. Stattdessen entsteht der Mehrwert aus den Erkenntnissen, die aus den Mustern gewonnen werden können. Deren Interpretation hat zwei Seiten. Zum einen muss rein technisch verstanden werden, was die Ergebnisse aus Algorithmen und Modellen aussagen, wie zuverlässig diese Aussagen sind beziehungsweise auch was die Muster eben nicht beinhalten. Zum anderen ist der fachliche Kontext rund um die Ergebnisse wichtig. Die Einbindung von Fachbereichen ist ein zentraler Erfolgsfaktor bei der Interpretation der Ergebnisse im Kontext der Domäne, in der sie entstehen. Werden beide Seiten zusammengebracht entsteht ein vollständiges Bild, das dazu führt, dass Erkenntnisse erfolgreich zur Verbesserung von Qualität und Abläufen in Unternehmen genutzt werden.

Kommunikation

Datenanalyse kann also nur bedingt unabhängig von Fachexperten funktionieren. Daher nimmt die Kommunikation zwischen Datenanalysten und anderen Bereichen im Unternehmen eine wichtige Stellung ein. Ziele müssen klar definiert, abgestimmt und gegebenenfalls nachjustiert werden, wenn Daten und Algorithmen nicht zu den gewünschten Ergebnissen kommen. Darüber hinaus muss allen Beteiligten klar sein, dass Datenanalyse vor allem wenn es um Mustererkennung auf Basis von Machine Learning Algorithmen geht nicht mit Softwareentwicklung vergleichbar ist. Die Erreichung noch so klarer Ziele hängt von den Daten ab und kann trotz immer neuer und besserer Algorithmen nur bedingt garantiert werden.

Zur Visualisierung von Daten beziehungsweise der Erkenntnisse aus den Datenanalysen gibt es eine Vielzahl neuer Tools wie Tableau, die direkt an die vorhandenen Datenquellen angeschlossen werden können und teilweise sogar kleinere Analysefunktionen anbieten, die Fachexperten einfachere Analysen eigenständig erlauben.

Wo kommt Data Analytics heute zum Einsatz?

Die Anwendungsgebiete für Datenanalysen sind so vielfältig wie die Daten und Herausforderungen, die ihnen zugrunde liegen. Gerade dort, wo Industrie 4.0 mit Internet of Things Technologien, also Sensor- und neuen Übertragungstechnologien, vorangetrieben wird, fallen große Datenmengen in und um die Produktion an. Maschinen werden angebunden und senden kontinuierlich Sensorwerte. Produktionsabläufe werden über ERP und MES Systeme automatisiert aufgezeichnet. Produkte werden vom Zulieferer bis zum Kunden elektronisch verfolgt. Dadurch lassen sich neue Formen von End-of-Line Tests (Predictive Quality), Prozessoptimierungen bis hin zu Wartungszyklen von Maschinen (Predictive Maintenance) oder auch die Analyse von Logistikprozessen über Tracking und Tracing Technologien realisieren.

Die Modelle laufen selbständig und unterstützen bei Fragen, ob ein Teil Gutteil oder Ausschuss ist, mit welchen Maschineneinstellungen Ausschuss vermieden werden kann, wann geplante Wartungsaufträge ausgeführt werden sollten oder welche Route für Güter auf Basis von zahlreichen Einflussfaktoren optimal ist. Dadurch lassen sich Zeiten reduzieren, mehr Informationen in bessere Entscheidungen einbeziehen und letztendlich Geld sparen. Neben der Optimierung der bestehenden Produktion sehen viele Unternehmen auch Potenzial in der Nutzung von Daten für neue Geschäftsmodelle. Produkte werden um datenbasierte Services erweitert oder sogar ganz als Service angeboten. Plattformen entstehen, die ganze Service-Bundles anbieten.

Wer betreibt Data Analytics?

Datenanalyse ist in den seltensten Fällen ein Thema das von einer Person schnell erledigt werden kann. Analytics-Projekte können unter Umständen lange dauern und benötigen mehrere Rollen, die sich an den Projekten beteiligen. Die zentrale Rolle ist sicherlich der Data Scientist oder Data Analyst. Er wählt und bereitet die Daten vor, analysiert sie und baut darauf Modelle für die entsprechenden Anwendungsfälle auf. Neben ihm gibt es aber weitere wichtige Rollen, die zum Erfolg von Analytics-Projekten maßgeblich beitragen. Der Data Engineer sammelt die Daten aus den Datenquellen in und um das Unternehmen und stellt diese zentral und so strukturiert wie möglich zur Verfügung. Er nimmt damit eine wichtige Rolle ein, die in vielen Fällen Datenanalysen überhaupt erst ermöglicht. Analysen werden für Fachbereiche durchgeführt. Um fachlich valide Ergebnisse zu erreichen müssen Fachbereiche bereits während der Erstellung von Modellen intensiv eingebunden werden. Softwareentwickler implementieren Analytics-Plattformen und setzen die Modelle nach erfolgreicher Fertigstellung und Evaluierung in vorhandenen oder neuen IT-Systemen produktiv.

Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ Dieser Beitrag stammt aus den dem Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ von Thomas Schulz (Hrsg.) Das Buch bietet dem Professional einen praxisorientierten und umfassenden Einblick in die Digitalisierung der Fertigung und der Produktion. Das Buch „Industrie 4.0“ kann hier versandkostenfrei oder als eBook bestellt werden.

Wie laufen Datenanalysen ab?

Der Cross Industry Standard Process for Data Mining, kurz CRISP-DM, bietet auf diese Frage die wohl am weitesten anerkannte Antwort. Das Modell besteht aus sechs Phasen, die nacheinander abgearbeitet werden und neben der reinen Modellierung auch vorbereitende und nachgelagerte Phasen beinhaltet. Phase 1 ist das Businessverständnis (Business Understanding). Hier werden Ziele und Ansprechpartner klar definiert, Datenquellen vorgestellt und das weitere Vorgehen umrissen.

Daran schließt die Datenverständnisphase (Data Understanding) an, in der die Datenquellen auf Qualität, Inhalt, Aussagekraft und Vollständigkeit hin überprüft werden. Wenn diese Phasen erfolgreich abgeschlossen sind, folgen die Datenvorbereitung und Modellbildung (Data Preparation, Modelling), welche die eigentliche zentrale Datenanalysearbeit beinhalten. Entgegen vieler Erwartungen nimmt dabei die Datenvorbereitung eine prominente Position ein und beansprucht bis zu 80 % von Zeit und Ressourcen. Algorithmen haben strikte Anforderungen an die Form der Daten, mit denen sie arbeiten können. Eine saubere Datenvorbereitung ist daher essentiell. Die Phasen Evaluierung und Operationalisierung bilden den Abschluss. Die Evaluierung dient der finalen Abstimmung der Ergebnisse mit dem Fachbereich, die Operationalisierung der Umsetzung der Modelle in den Unternehmens- beziehungsweise in neuen Systemen. Die Phasen lassen sich dabei nicht immer sequentiell abarbeiten. Rücksprünge zur Datenverständnis- oder Aufbereitungsphase gehören zum Alltag und sind wichtig, wenn neue Erkenntnisse zu den Daten entstehen. Im Anschluss an einen Durchlauf beginnt der Prozess mit neuer oder angepasster Zielsetzung von vorne.

Onlinekurse zu Machine Learning Digitales Weiterbildungsangebot
Das Würzburger Fachmedienunternehmen Vogel Business Media geht gemeinsam mit dem Münchner Start-up „University4Industry“ (U4I) neue Wege der digitalen Weiterbildung. Die Onlinekurse sollen es vor allem kleineren und mittelständischen Industrieunternehmen ermöglichen, „Industrie 4.0“ konkret im eigenen Betrieb anzuwenden.

Dr. Johannes Kröckel arbeitet derzeit an dem Buch „Data Analytics in der Produktion und Logistik“, das noch in diesem Jahr im Vogel Buchverlag erscheinen wird.

* Dr. Johannes Kröckel ist Data Scientist/Cluster Lead "Advanced Analytics - Process Optimization (Production, SCM)" bei Schaeffler

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45309643)