Digitalisierung Industrial Analytics – Grundlagen und Definitionen

Ein Gastbeitrag von Thomas Schulz

Anbieter zum Thema

In der Produktion entstehen viele Daten, die zur Optimierung der Prozesse genutzt werden können. Die „digitale Fabrik“ wird somit zur Realität. Doch zu Beginn der Transformation ist es wichtig, die grundlegenden Begriffe aus dem Bereich der Industrial Analytics bzw. der Datenanalyse zu kennen.

Optimierte Prozesse durch Data Analytics: Die Fertigungsindustrie kann von den erzeugten Daten profitieren.
Optimierte Prozesse durch Data Analytics: Die Fertigungsindustrie kann von den erzeugten Daten profitieren.
(Bild: © Goodvibes Photo - stock.adobe.com )

Das verarbeitende Gewerbe erzeugt mehr Daten als jeder andere Wirtschaftszweig. Es wird erwartet, dass die grenzüberschreitenden Datenströme schneller wachsen werden als der Welthandel. Datenanalyse und Künstliche Intelligenz sind dabei Schlüsseltechnologien in den zukünftigen Digitalisierungsbemühungen der Industrie. Für Unternehmen ist es jedoch immer noch oft eine enorme Herausforderung, den Nutzen dieser Technologien in ihrem Produktionssystem zu erkennen. Immer ausgereiftere Algorithmen werden eingesetzt, um die menschliche Tätigkeit zu unterstützen, und dies nicht nur, wenn Entwicklungen analysiert und vorhergesagt werden sollen, sondern auch, wenn tatsächlich Entscheidungen getroffen werden, die sich auf die Fabrik, Produktion und Mitarbeiter auswirken.

Auch wenn die Begriffe Analyse und Analytik manchmal synonym verwendet werden, unterscheidet sich ihre Bedeutung.

  • Analyse bezieht sich auf den Prozess der Zerlegung eines Gesamtproblems in seine Teile, oftmals einhergehend mit der Umwandlung von Daten in kontextbezogene und zuverlässige Informationen. Diese Teile werden auf der granularen Ebene untersucht, um anschließend Entscheidungen zu treffen. Analyse wird häufig bei komplexen Systemen eingesetzt, bei denen die Untersuchung des Gesamtsystems nicht möglich oder unpraktikabel ist und daher vereinfacht werden muss, indem es in verständlichere Komponenten zerlegt wird. Sobald die Entscheidungen auf der granularen Ebene realisiert sind und die Untersuchung der Teile abgeschlossen ist, wird das gesamte System mit Hilfe einer Synthese wieder zusammengesetzt.
  • Analytik ist die Vielfalt an Methoden, Technologien und zugehörigen Werkzeugen zur Gewinnung von neuem Wissen und Einblicken zur Lösung komplexer Probleme. Analytik ist ein vielschichtiger und multidisziplinärer Ansatz. Diese Herangehensweise ermöglicht es einerseits, Verständnis für komplexe Situationen zu entwickeln, anderseits soll sie dazu beitragen, diese anschließend auch zu bewältigen. Analytik macht sich Daten und mathematische Modelle zunutze, um der immer komplizierter werdenden Welt einen Sinn zu geben. Obwohl die Analytik den Vorgang der Analyse in verschiedenen Stadien des Entdeckungsprozesses beinhaltet, ist sie nicht nur eine Analyse, sondern umfasst auch die Synthese und die anschließende Umsetzung. Mehr als alles andere ist sie eine Methodik, welche wiederum eine Vielzahl von Methoden und Praktiken umfasst.

Hinweis für weitere Informationen

Dieser Artikel ist ein Auszug aus dem Fachbuch „Analytics in der Industrie“, das neben den hier beschriebenen grundlegenden Begriffen der Datenanalyse auch die Methoden und Verarbeitungsketten der Analytik, die gängigen Algorithmen des Machine Learning, Rollenprofile, Erfolgsfaktoren und Anwendungsfälle beschreibt.

Zum Fachbuch

Bild 1: Die Möglichkeiten durch Analytik.
Bild 1: Die Möglichkeiten durch Analytik.
(Bild: GE Digital )

Dank des steig voranschreitenden technologischen Fortschritts sammeln Industrieunternehmen eine enorme Menge an Daten. Es gibt nun mehrere Möglichkeiten, diese Daten sinnvoll zu nutzen. Welche Methode Sie wählen, hängt von der aktuellen Aufgabenstellung ab sowie von den Informationen, die Sie aus Ihrem Datensatz gewinnen möchten. Insgesamt können Anwendungen durch vier Arten der Analytik charakterisiert werden: deskriptiv, diagnostisch, prädiktiv und präskriptiv (siehe Bild 1). Sollen beispielsweise bestehende Abläufe analysiert und Ursachen untersucht werden – was ist passiert und warum – so eignen sich hierfür insbesondere die deskriptive und diagnostische Analytik. Fragestellungen, die sich auf zukünftige Ereignisse und/oder in der Zukunft liegende Handlungsabläufe beziehen, können hingegen mit Hilfe der prädikativen und/oder präskriptiven Analytik beleuchtet werden.

Bild 2: Das Reifegradmodell der Analytik.
Bild 2: Das Reifegradmodell der Analytik.
(Bild: GE Digital )

Die Bandbreite von Datenanalysetechniken und-prozessen reicht von beschreibenden Diagnose-Methoden zur reaktiven Entscheidungsfindung bis hin zu anspruchsvollen Vorhersagen und Optimierungen zur proaktiven Entscheidungsfindung. Wie in Bild 2 dargestellt, sind die einfacheren Prozesse noch unter dem Namen Operational Intelligence bekannt und der Begriff Advanced Analytics hat sich für prädiktive und präskriptive Analytik durchgesetzt.

Die Möglichkeiten der Analytik sollen Industrieunternehmen in die Lage versetzen, schnellere, bessere und intelligentere Entscheidungen zu treffen. Bislang liegt der Schwerpunkt im akademischen und industriellen Bereich auf der diagnostischen und prädiktiven Analytik. Die präskriptive Analytik, die darauf abzielt, die beste Vorgehensweise für die Zukunft zu finden, hat in den letzten Jahren zunehmend das Interesse der Wissenschaft geweckt. Einen tieferen Einblick in dieses Forschungsfeld bietet der Artikel „Prescriptive analytics: Literature review and research challenges“. Dabei werden aktuelle Herausforderungen identifiziert und zukünftige Richtungen und Entwicklungen skizziert. Letztendlich kann präskriptive Analytik als der nächste Schritt zur Erhöhung der Reife der Datenanalyse angesehen werden und dient damit nachhaltigen Verbesserung der Unternehmensleistung.

Operational Intelligence

Operational Intelligence ist eine Form der dynamischen Echtzeit-Datenanalyse, die Transparenz und Einblicke in Prozesse und Abläufe liefert. Es ist ein Ansatz zur Analyse maschinengenerierter Daten, der es ermöglicht, Entscheidungen und Maßnahmen auf der Grundlage von erzeugten und gesammelten Echtzeitdaten zu treffen. Zu ihr gehören die Verfahren der deskriptiven und der diagnostischen Analytik.

Im überwachten Modus arbeiten Systeme auf der Grundlage von Daten, die von Menschen aufgrund ihrer Eigenschaften und ihrer bekannten Auswirkungen auf das Ergebnis ausgewählt wurden. Die Intelligenz wird in diesem Fall hauptsächlich durch den Menschen bereitgestellt. Systeme werden dann vor allem für Berechnungsleistungen auf der Grundlage mehrerer Datenreihen herangezogen. Anwendungen in diesem Bereich richten sich in erster Linie an Mitarbeiter, welche nah am Prozess arbeiten und die so durch den Zugang zu aktuellen Daten besser informierte Entscheidungen treffen oder schneller auf Probleme reagieren können.

Deskriptive Analytik:

Deskriptive Analytik ist die Untersuchung von eingehenden Daten zur Steuerung von Maßnahmen und Warnungen (Bild 3). Mit Hilfe der deskriptiven Analytik kann ein Unternehmen aus seinen Daten Erkenntnisse gewinnen und feststellen, was im vorangegangenen Zeitraum geschehen ist. Hauptbestandteile sind Standardberichte für kurzfristige Zielsetzungen (Was ist passiert? Wann ist es passiert?) sowie Ad-hoc-Berichte für Problemlösungen (Wie viele? Wie oft? Wo?).

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Bild 3: Was „deskriptive Analytik“ beinhaltet.
Bild 3: Was „deskriptive Analytik“ beinhaltet.
(Bild: GE Digital )

Die deskriptive Analytik ist die Einstiegsebene in die Analysetaxonomie und beinhaltet die Rückwärtsbeobachtung zum Auffinden von Vorkommnissen. Sie erfordert die Sammlung relevanter Daten aus der Vergangenheit, die Verarbeitung der Daten und ihre Darstellung in visualisierter Form. Sie stellt dar, was in der Vergangenheit geschehen ist. In industriellen Anwendungen ist die Anzahl der Attribute in der Regel größer bis hin zu Dutzenden, Hunderten oder sogar noch mehr. Wenn bei der Analyse eines Datensatzes mehr als zwei Attribute untersucht werden, spricht man von einer multivariaten Analyse.

Sie wird oft auch als Berichterstattung bezeichnet, da die meisten Analyseaktivitäten auf dieser Ebene die Erstellung von Berichten zur Zusammenfassung von Aktivitäten und Abläufen betreffen, um die Frage „Was ist wann passiert?“ zu beantworten. Das Spektrum dieser Berichte umfasst statische Momentaufnahmen nach einem festen Zeitplan ebenso wie dynamische Ansichten von Indikatoren. Die einfachste und schnellste Art Daten zu untersuchen, ist die Verwendung von Häufigkeitstabellen und Balkendiagrammen. Mit Hilfe der Pivot-Tabellenfunktion in Excel können beispielsweise eine Vielzahl von Informationen dargestellt werden. Bei Ad-hoc-Berichten hat der Anwender die Möglichkeit, seinen eigenen spezifischen Bericht zu erstellen, um eine individuelle Entscheidungssituation darzustellen.

Diagnostische Analytik:

Diagnostische Analytik ist die intelligente Analyse von Daten zum Erkennen von Mustern und Ursachen, sie befasst sich mit der Frage nach dem „Warum“. Sie bietet eine tiefere Analytik als die deskriptive Analytik, indem sie Ursachen von und Reaktionen auf eine Situation identifiziert (Bild 4). Mit ihr sind komplexere Analyseabfragen für Ursachenanalyse und Stratifikation möglich (Wo genau ist das Problem? Wie finde ich die Antwort? Wie lautet die Ursache für den vorliegenden Sachverhalt?).

Bild 4: Definition der diagnostischen Analytik.
Bild 4: Definition der diagnostischen Analytik.
(Bild: GE Digital )

Das Erkennen von Anomalien wird für Anwendungen als erster Schritt verwendet, bei dem es wichtig ist, eine Abweichung von einem erwarteten Muster zu erkennen. Das Erkennen von Anomalien bedeutet dabei, Unterbrechungen oder unerwartete Veränderungen in einer Aktivität aufzufinden. Dies kann in einer Vielzahl von Szenarien der Fall sein. Unüberwachte Verfahren erkennen Anomalien in einem unmarkierten Testdatensatz unter der Annahme, dass die Mehrheit der Instanzen im Datensatz normal ist, sie geben dann die Instanzen als Anomalien an, die am wenigsten zum Rest des Datensatzes zu passen scheinen.

Der zweite Schritt ist die Untersuchung der Anomalie. Dabei geht es darum herauszufinden, wie solche technischen Fehlerzustände zustande kamen. Bei diesem Vorgang werden statistisch signifikante Datenanomalien während eines bestimmten Zeitraumes erkannt.

Der dritte Schritt ist Untersuchung von Beziehungen zwischen den Anomalien. Hierbei helfen statistische Analysen wie Korrelations-, Diskriminanz- und Regressionsanalyse. Die Korrelationsanalyse untersucht die Abhängigkeit zweier Variablen oder Merkmale und gibt Auskunft über deren Zusammenhang. Die Diskriminanzanalyse ist eine Methode multivariater Verfahren, die dazu dient, zwei oder mehr Gruppen zu unterscheiden, die durch mehrere Merkmale (auch Variablen) beschrieben werden. Regressionsanalysen berechnen, ob eine oder mehrere unabhängige Variable eine abhängige Variable beeinflussen. Mit diesen Analytikmethoden ist es möglich, Antworten auf die Fragen zu geben, warum etwas passierte und welche Möglichkeiten der Fehlerabwehr versäumt wurden.

Advanced Analytics

Advanced Analytics ist eine Methode der Datenanalytik, die Modellierung, maschinelle Lernalgorithmen, Deep Learning, Prozessautomatisierung und andere statistische Methoden zur Analyse aus einer Vielzahl von Datenquellen verwendet. Zu ihr gehören die Verfahren der prädiktiven und der präskriptiven Analytik. Advanced Analytics nutzt die Datenwissenschaft über die traditionellen Operational Intelligence-Methoden hinaus, um Muster vorherzusagen und die Wahrscheinlichkeit zukünftiger Ereignisse abzuschätzen. Dies kann sich vorteilhaft auf die Produktionsprozesse auswirken. Es kann nicht nur eine reaktionsschnellere Leistung erreicht, sondern auch die Genauigkeit bei der Entscheidungsfindung potenziert werden.

Breitere Anwendungen von Softwarelösungen erfolgten mit der Weiterentwicklung der Steuerungstechnik und dem Einzug der Computertechnik in die Industrie.

Prädiktive Analytik

Mit Hilfe der prädiktiven Analytik können Entwicklungen vorhergesagt und dargestellt werden. Es erfolgt eine Vorhersage von Ereignissen auf Basis von empirischen Daten über zurückliegendes Verhalten (Bild 5). Mit den Erkenntnissen aus der deskriptiven und diagnostischen Analytik kann die prädiktive Analytik genutzt werden, um Cluster, Tendenzen oder vielleicht Ausnahmen zu erkennen, und damit eine bestimmte Vorhersage zu machen. Dabei wird versucht, die Frage zu beantworten: Was wird wahrscheinlich passieren?

Bild 5: Definition der prädiktive Analytik.
Bild 5: Definition der prädiktive Analytik.
(Bild: GE Digital )

Das Ziel von Prognosemodellen ist es, zukünftige Ereignisse frühzeitig und besser einschätzen zu können. Der Kern der prädiktiven Analytik ist der Prädiktor, das sind Variablen und/oder Kennwerte, die für eine Einheit oder eine Person gemessen werden, um zukünftiges Verhalten vorherzusagen. Wenn es sich bei der vorhergesagten Variablen um eine kategoriale Variable handelt, wird der Vorgang der Vorhersage als Klassifizierung bezeichnet, andernfalls als Regression. Wenn die vorhergesagte Variable zeitabhängig ist, wird der Vorhersageprozess oft als Zeitreihenprognose bezeichnet.

Insbesondere bei immer komplexeren Abläufen und Prozessen ist ein solches Wissen von entscheidendem Vorteil. Je differenzierter ein Prognosemodell ist, desto genauer wird es Vorhersagen treffen. Um verlässliche Vorhersagen zu erhalten, ist es nicht immer notwendig, möglichst viele Daten auszuwerten – mehr bedeutet nicht automatisch eine bessere Qualität der Vorhersagen. Prognosen und datengesteuerte Entscheidungen beinhalten mögliche zukünftige Entwicklungen (Was wird als nächstes passieren? Wie wirkt sich das auf meine Prozesse aus? Wann ist sehr wahrscheinlich womit zu rechnen?).

Die Mustererkennung analysiert die eingehenden Daten und versucht, Muster zu erkennen. Während die explorative Mustererkennung darauf abzielt, Datenmuster im Allgemeinen zu erkennen, beginnt die deskriptive Mustererkennung mit der Kategorisierung der erkannten Muster. Die Mustererkennung umfasst diese beiden Szenarien, je nach Anwendungsfall und Form der Daten werden unterschiedliche Mustererkennungsmethoden angewandt. Mustererkennung und Entscheidungsfähigkeit ist die Grundlage für Vorhersagen (Was, wenn diese Trends anhalten? Wie viel ist erforderlich? Wann ist es erforderlich?).

Präskriptive Analytik

Präskriptive Analytik ist die höchste Stufe der Analytik und ermittelt mögliche Lösungen für Probleme. Hier wird mit Hilfe ausgefeilter mathematischer Modelle die beste von vielen Handlungsalternativen bestimmt, die in der Regel durch prädiktive und/oder deskriptive Analytik ermittelt werden (Bild 6). All die bisherigen Beobachtungen und Vorhersagen sind großartig, aber wichtig ist vor allem, wie wir daraus konkrete Maßnahmen ableiten können. Es bleibt nicht nur bei Vorhersagen.

Bild 6: Definition der präskriptive Analytik.
Bild 6: Definition der präskriptive Analytik.
(Bild: GE Digital )

Wir würden vorzugsweise direkt auf diese Signale reagieren. Mit präskriptiver Analytik erstellen wir einen konkreten Ratschlag, was passieren soll, bis hin zur direkten Umsetzung.

Die präskriptive Analytik verwendet Optimierungs-, Simulations- und Heuristik-basierte Modellierungstechniken für Entscheidungen. Die Online-Optimierung dient der kontinuierlichen Überwachung des Prozesses und der Vorhersage eines optimalen Ablaufes durch Modellbezug.

Bei der präskriptiven Analytik gibt es wie in Bild 1. dargestellt zwei Ebenen menschlicher Intervention:

  • Entscheidungsunterstützung, z. B. die Bereitstellung von Empfehlungen, und
  • Entscheidungsautomatisierung, z. B. die Umsetzung der vorgeschriebenen Maßnahme.

Die Ergebnisse von Optimierungssoftware können dem Bediener in Form von Entscheidungsunterstützungen präsentiert oder als neue Zielvorgabe für eine untergeordnete Regelstrategie automatisch festgelegt werden. Letzteres umfasst modellbasierte Software, die eine vollautomatisierte adaptive Rückkopplung mit intelligenten Systemen zur Regelung des Prozesses verwendet. Die Optimierung wird zur Herausforderung, wenn sie mit Unsicherheit konfrontiert ist. Einige der Schlüsselfaktoren, die zur Unsicherheit beitragen, sind die Komplexität des Systems, die Länge des zukünftigen Zeithorizonts und das irrationale menschliche Verhalten. Deshalb sind Systeme für präskriptive Analytik nicht immer perfekt und müssen genau überwacht und ständig angepasst werden.

Quellen:

The Digitalisation of Science, Technology and Innovation: Key Developments and Polices. Paris: OECD Publishing, 2020.

SAS Institute: Eight Level of Analytics, sascom magazine, Fourth quarter 2008.

BAUER, Per: IT-Serviceoptimierung nach dem Reifegradmodell. Otterfing: IT Verlag für Informationstechnik GmbH, 05. Oktober 2015.

SCHULZ, Thomas: Datenanalyse: Schlüsseltechnologie für die digitale Transformation. In: etz Elektrotechnik + Automation, 142 (2021), Nr. S4, S. 34-39.

SCHLEGEL, Kurt; SALLAM, Rita; YUEN, Daniel; TAPADINHAS, Joao: Magic Quadrant for Business Intelligence and Analytics Platforms. Gartner research note G00239854, 5 Feb 2013.

DAVENPORT, Thomas. H.; HARRIS, Jeanne. G.: Competing on Analytics: The New Science of Winning. Boston, MA: Harvard Business Review, 2007.

LEPENIOTI, Katerina; BOUSDEKIS, Alexandros; APOSTOLU, Dimitris; MENTZAS, Gregoris: Prescriptive analytics: Literature review and research challenges. In: International Journal of Information Management, Ausgabe 50, Februar 2020, S. 57-70.

The Splunk Guide to Operational Intelligence. Turn Machine-Generated Data Into Real-Time Visibility, Insight and Intelligence. White Paper. San Francisco, CA: Splunk Inc.

GANDOM, Amir; HAIDER, Murtaza: Beyond the hype: Big data concepts, methods, and analytics. In: International Journal of Information Management, 35 (2015). Nr. 2, S. 137-144.

GROVER, Purvar; KAR, Kumar: Big data analytics: a review on theoretical contributions and tools used in literature. In: Global Journal of Flexible Systems Management, 18 (2017), Nr. 3, S. 203-229.

CHAE, Bongsug (Kevin); YANG, Chenlung; OLSON, David; SHEU, Chwen: The impact of advanced analytics and data accuracy on operational performance: A contingent resource based theory (RBT) perspective. In: Decision Support Systems, Ausgabe 59, März 2014, Seite 119-126.

REITH, János: Qualitätsüberwachung für die Feinbearbeitung von Bohrungen mit nachstellbaren Ausbohrwerkzeugen. Dissertation. Technische Universität Dresden, 1989.

* Dipl.-Ing. Thomas Schulz ist Channel Manager Central and Eastern Europe bei GE Digital

(ID:48357820)