IBM Industrie 4.0: Von Daten zum Wissen

Autor / Redakteur: Anja Burghardt und Plamen Kiradjiev / M.A. Frauke Finus

Die Rückrufquoten aller Automobilhersteller steigen, auch wenn die deutschen Fahrzeugbauer zu den besten der Welt gehören. Dieses Phänomen zeigt, dass der Optimierungsbedarf entlang den Entwicklungs- und Produktionsprozessen sowie der finalen Qualitätskontrollen eher zu- als abnimmt. Denn die technische Komplexität der Fahrzeuge wächst, die Industrie arbeitet in immer kürzeren Entwicklungszyklen und unter weiter zunehmendem Kostendruck.

Anbieter zum Thema

Produktivität vorausschauend verbessern mit Smart Factory KL.
Produktivität vorausschauend verbessern mit Smart Factory KL.
(Bild: Smart Factory KL)

Die technische Komplexität in der Automobilindustrie wächst und es wird in immer kürzeren Entwicklungszyklen gearbeitet. Dabei darf natürlich nichts teurer werden. Um die damit einhergehenden Probleme in den Griff zu bekommen, gewinnen Themen wie vorausschauende Wartung (Predictive Maintenance) und Qualitätssicherung, die bereits zum Zeitpunkt der Produktion stattfinden (PMQ Predicitve Maintenance & Quality) zunehmend an Bedeutung.

Durch den konsistenten PMQ-Einsatz im gesamten Fahrzeuglebenszyklus – von Engineering, über Produktion bis hin zu After-Sales – wird dafür gesorgt, dass die Fahrzeuge zuverlässiger und sicherer werden, die Rückrufquoten deutlich sinken und Fahrzeuge seltener in die Werkstätten müssen. Dabei kommen PMQ-Lösungen immer häufiger bereits bei der Produktentwicklung zum Einsatz – zum Beispiel bei der Analyse von komplexen Ursache-Wirkungszusammenhängen (Root-Cause-Analyse) in Vorserienmodellen und frühen Baureihen. Hier ermöglicht die frühzeitige Analyse von Sensor- und Telemetriedaten unter anderem, dass neue Modelle schneller in die Serienfertigung gehen können und dies bei gleichzeitiger Verringerung der Kinderkrankheiten. PMQ schlägt damit zwei Fliegen mit einer Klappe: Es verbessert die Produktqualität und senkt die Entwicklungskosten.

Von Daten zum Wissen

Um Maßnahmen zur Qualitätssicherung vornehmen zu können, ist es notwendig, Daten, die in den Produktionsprozessen anfallen, zu sammeln und auszuwerten. Der Knackpunkt bisher: Daten werden von den Maschinen und in den Prozessen zwar bereits seit längerem und in großem Umfang generiert, doch sie fristen meist ein ungenutztes und isoliertes Dasein im Speicher einzelner Maschinen, bis sie von neuen Daten überschrieben werden. Es besteht dringender Handlungsbedarf, diese Daten aus den Maschinen herauszuholen, im Kontext der Produktion zu korrelieren, um daraus Wissen zu generieren. Gewonnen werden damit vor allem neue Erkenntnisse über potenzielle Produktionsausfälle, sich anbahnende Qualitätsprobleme, zu Ausschuss oder möglichen Engpässen.

Im Kontext von Industrie 4.0 sprechen wir bei der Verknüpfung dieser Daten, die von den Maschinen geliefert werden, über eine vertikale Integration. Sie muss ergänzt werden um die horizontale Datenintegration sowie einen durchgängigen Modellierungsansatz. Denn nicht nur die Maschinen, sondern auch andere Systeme liefern zusätzliche Informationen, die für die Umsetzung von Industrie 4.0-Konzepten unerlässlich sind: Dazu gehören unter anderem Daten zu Umweltbedingungen, zur Produktionsplanung und Logistik, die oft auch jenseits der Grenzen des eigenen Unternehmens liegen können. Die Einbeziehung dieser Daten wird als horizontale Integration bezeichnet.

Ein weiterer Aspekt von Industrie 4.0 ist der durchgängige Modellierungsansatz: Denn liegt ein komplettes digitales Abbild eines Produktes in Form eines Modells vor, können damit Erkenntnisse über Defekte oder Probleme, die erst in späteren Phasen des Produktlebenszyklus festgestellt werden, nahtlos in das Engineering zurückfließen und entsprechend berücksichtigt werden.

Im Fokus für die Umsetzung von Industrie 4.0-Projekten im Hinblick auf PMQ stehen daher:

  • Die vertikale und horizontale Integration, um Daten aus den Maschinen und anderen relevanten Systemen zu extrahieren
  • Die kosteneffiziente Sammlung der Daten in einem „Data Historian“
  • Das Ziel, mit intelligenten mathematischen und analytischen Modellen aus der (deterministischen) Vergangenheit zu lernen und die dabei gewonnenen Muster und Regeln zur Prognose zukünftiger Ereignisse zu verwenden

Mit diesen drei Stufen arbeitet auch der Smart-Factory-KL-Demonstrator. Er ist eine gemeinsamen Entwicklung von 16 Industriepartnern und die weltweit erste herstellerübergreifende modulare Industrie 4.0-Anlage. Die Lösung wurde auf der Hannover Messe in diesem Jahr erstmals der Öffentlichkeit vorgestellt.

Flexibilität aus der Integrationsschicht

Beim Smart-Factory-KL-Demonstrator werden mit Hilfe des von den unterschiedlichen Modulherstellern vereinbarten OPC UA Standard-Protokolls die Modul- und Produktdaten über die OPC UA Input-Knoten des IBM Integration Bus in einem Data Historian gespeichert. Die daraus entstehenden Echtzeit- und historischen Reports liefern die Basis für Live-Topologie-Darstellungen und werden sowohl zum Zwecke der Instandhaltung als auch für eine gleichbleibend hohe Produktqualität im konkreten Fall mit Hilfe von IBM Cognos und SPSS analysiert.

Für diese vertikale wie horizontale Integration ist also die Verwendung offener beziehungsweise etablierter Standards wie OPC Unified Architecture (OPC UA), die den Austausch der Daten zwischen Maschinen und Anlagen, Shopfloor und Office-IT oder zwischen den IT-Systemen im Produktionsumfeld ermöglichen, sinnvoll oder sogar notwendig. Ebenfalls notwendig sind Softwarelösungen und Datenprotokolle, um Maschinen und Teile auch nachträglich mit vernetzter Intelligenz auszurüsten. Denn in erster Linie wird es zunächst darum gehen, die existierenden Altsysteme, die heute eine deutliche Mehrheit der existierenden Produktionssysteme ausmachen, so auszurüsten, dass sie Industrie-4.0-tauglich werden.

Doch genau hier existieren auch die größten Probleme: Denn in aller Regel „verstehen“ sich die verschiedenen Maschinen und Anlagen nicht. Sie verwenden unterschiedliche Protokolle sowie unterschiedliche „Sprachen“ (Datenmodelle). Doch es ist auch durchaus möglich, mit etablierten eigenen Standards und Protokollen, die in einem Unternehmen oder den jeweiligen Werken durchgängig verwendet werden, zu arbeiten. Die Systemintegratoren beziehungsweise Maschinenhersteller müssen dann diesen Standards entsprechen, um im „Orchester“ der Produktion mitspielen zu können. Allerdings führen solche proprietären Lösungen bei der Inbetriebnahme einer Fabrik oft zu erhöhten Kosten und einem höheren Zeitbedarf.

Service-Orientierte Architekturen als State-of-the-Art

Eine Option sind hier Service-Orientierte Architekturen (SOA), die für die gängigen Unternehmens-IT-Systeme längst als State-of-the-Art gelten und nun auch für den Shopfloor übernommen werden können. Ein Integrations-Layer im Shopfloor, analog zum Enterprise Service Bus (ESB) Konzept bei SOA, ermöglicht zum einen eine hohe Flexibilität bei der Integration verschiedener Systeme, weil er die Integrationslogik aus den Maschinen, ähnlich wie bei den Fachsystemen, herausnimmt und sie ihre eigenen Sprachen sprechen lässt. Diese Entkopplung ist eine der wichtigsten SOA- Eigenschaften. Sie reduziert die Komplexität bei der Verbindung unterschiedlicher Systeme, die miteinander kommunizieren sollen, auf ein Minimum.

Darüber hinaus wird – bedingt durch die Architektur – über eine zentralisierte Integrationsschicht ein Security Gate geschaffen, das die Kommunikation untereinander steuert, kontrolliert und dadurch gleichzeitig zur Shopfloor-Sicherheit beiträgt.

Diesen Ansatz hat der Stahlhersteller Hoesch Hohenlimburg gewählt und dadurch eine bessere vertikale und horizontale Integration seiner Produktions- und Geschäftssysteme erreicht. Mit großem Erfolg: Das Unternehmen verbesserte seine Produktivität um 100 %, reduzierte die Wartungsaufwände um 40 % und den Entwicklungsaufwand um die Hälfte. Zudem wurde die notwendige Zeit für die Implementierung neuer Interfaces von Wochen und Monaten auf wenige Tage reduziert.

Data Historian: Eine Frage der Effizienz

Die Idee, einen Mehrwert-Service für Geschäftskunden anzubieten, beschäftigt viele Maschinenhersteller, insbesondere in Verbindung mit den Innovationsmöglichkeiten rund um Industrie 4.0. Man braucht dazu nur die Daten aus allen produzierten Maschinen, die im Einsatz sind, zu sammeln, diese zu analysieren und daraus Erkenntnisse zu generieren, um etwa Maschinenstillstände präventiv zu verhindern, zum anderen zur Qualitätsverbesserung im eigenen Engineering. Doch selbst wenn man die organisatorischen und psychologischen Bedenken vieler OEMs überwinden und die Maschinen-Logs nutzen könnte, entsteht ein ganz anderes, reales Problem – der Umgang mit Big Data. So hat ein mittelständischer Hersteller von Holzverarbeitungsmaschinen festgestellt, dass es für seine über 30.000 Maschinen mit einer durchschnittlichen Lebensdauer von 15 Jahren und nur minimaler Datensammlung eine Nettospeicherkapazität von etwa 30 Petabyte braucht.

Relationale Datenbanken, geschweige denn die klassischen Data Warehouses, sind aber zu schwerfällig und ineffizient, wenn es um die Verarbeitung historischer Daten geht, die über die Lebensdauer der Produkte gesammelt und ausgewertet werden sollen. Daher müssen andere Möglichkeiten ins Auge gefasst werden. Entweder Zeitreihen als besondere Form relationaler Datenbanken (wie Informix) oder Big Data Technologien wie Hadoop. In beiden Fällen wird eine besonders hohe Datendichte, effiziente Speichernutzung, hohe Performance und Skalierung und hiermit Kosteneffizienz erreicht.

Hat man die notwendigen Datenquellen angezapft, die mögliche Hinweise und Informationen auf Maschinenbetrieb, Produktqualität oder andere deterministische Ereignisse während der Produktion liefern können, steht nichts mehr im Weg, zur dritten Phase überzugehen – der Datenanalyse.

Predictive Analytics: Transparenz und Zukunft

Wenn die Daten von allen Maschinen im Produktionskontext zusammen mit weiteren potenziellen internen und externen Einflusswerten vorhanden sind – also die vertikale wie horizontale Integration möglichst umfassend erfolgt ist – kann eine übergreifende Analyse auf Basis verschiedener komplexer Lernmethoden stattfinden. Dies schafft einerseits mehr Transparenz und bietet andererseits die Möglichkeit, auf Basis von statistischen Methoden, Mustererkennung, Zeitreihen, Klassifikations-, Segmentierungs- und Assoziationsmethoden mehr Wissen über mögliche Zukunftsszenarien zu erlangen.

Es gibt einige wichtige Aspekte, die hier beachtet werden müssen. Sie liefern einen wesentlichen Beitrag zur Qualität der Ergebnisse, zu mehr Effektivität sowie Flexibilität bei den notwendigen Umstellungen:

  • Qualität und Quantität der Daten: Um das „Datenrauschen“, das im echten Produktionsbetrieb und in realen Umgebungen entsteht, zu minimieren, müssen die Daten für die Analyse bereinigt werden. Abhilfe kann hier vom Integration Layer kommen, der bereits bei der Datensammlung eine gewisse „Normalisierung“ vornimmt.
  • „Consumability“ für den Fachbereich: Maximale Flexibilität bei der Datenanalyse wird dann erreicht, wenn der Fachbereich seine eigenen Data-Mining-Modelle mit grafischen Analyse-Tools selbst entwickeln kann, ohne dafür auf die IT-Abteilungen mit Change Requests zugehen zu müssen. Die BMW Group beispielsweise hat dieses Problem mit einer „Self-Service“-basierten Analytics-Plattform für über 1000 Fachbereichsmitarbeiter aus dem Engineering, Qualitätsmanagement und After Sales gelöst.
  • Skalierbarkeit: Wie bereits erwähnt, müssen oft riesige Datenmengen verarbeitet und analysiert werden, das heißt, die analytischen Werkzeuge müssen auf Big-Data-Anwendungen aufsetzen und auch darauf skalieren können. Eine Option ist es, etwa für SPSS-Analysen Rechenlast auf Hadoop auszulagern oder mit IBM BigInsights über die BigSQL-Schnittstelle die Business Intelligence Tools des Fachbereichs zu unterstützen, ohne dass dem Nutzer überhaupt bewusst wird, dass die SQL-Abfragen auf Hadoop ausgeführt werden. Im Idealfall nutzt der Analyst sogar das gleiche Frontend, ganz egal, ob er Daten über Flatfiles, relationale Datenbanken oder Hadoop Systeme analysiert. Er kann sich damit voll und ganz auf die Modellentwicklung und –evaluierung konzentrieren, ohne sich Gedanken über komplizierte Datenzugriffe wie SQL-Abfragen oder Map-Reduce Jobs machen zu müssen.

PMQ: Der entscheidende Schritt zur Perfektion

Ist die Datenbasis geschaffen, steht der Einführung von Lösungen für präventive, insbesondere aber prädikative, also nicht nur vorsorgende, sondern zum bestmöglichen Zeitpunkt erfolgende, Wartungsmaßnahmen zur Optimierung der Anlagenverfügbarkeit (OEE) nichts mehr im Weg.

Ein typisches Beispiel, wie erfolgreich das gelingen kann, ist die PMQ-Lösung in der Leichtmetallgießerei im Stuttgarter Werk von Daimler. Das Unternehmen produziert dort täglich circa 10.000 Zylinderköpfe. Über 500 Merkmale werden dabei automatisch gesammelt – darunter Maße, Zeiten und Temperaturen. Dank umfassender Datenintegration und einer intelligenten Analyse-Software-Lösung überwacht und steuert Daimler heute den gesamten Produktionsprozess.

Die Erfolge sind messbar: Erkenntnisse, die früher mit enormem Aufwand innerhalb von rund drei Tagen gewonnen wurden, liegen heute in nur wenigen Stunden vor. Bei Auffälligkeiten wissen die Verantwortlichen zudem genau, wo sie ansetzen müssen. Das hat zum Beispiel auch dazu geführt, dass Werkzeuge sehr viel seltener ausgetauscht werden müssen. Bei der hohen Stabilität des Fertigungsprozesses kommt der 24-Stunden-Auswertezyklus zudem praktisch einer Echtzeitüberwachung gleich, Prozessanpassungen können damit frühzeitig und gezielt initiiert werden. Damit konnte unter anderem die Produktivität um 25 % gesteigert werden.

Mit modernen PMQ-Lösungen ist sowohl die konsolidierte Realisierung aus einer Hand für einen kompletten Prozess denkbar, als auch die Implementierung einzelner Lösungselemente für die komplementäre Erweiterung bestehender Infrastrukturen entlang einzelner Schritte. Dabei kann sowohl auf eine bestehende Infrastruktur aufgesetzt werden, bei der bereits Maschinen- oder Anlagendaten über eigene Standards angebunden wurden, als auch auf bestehende Datensammlungen in Form von bereinigten und gefilterten Daten in Data Warehouses zurückgegriffen werden, selbst wenn sie nur in unregelmäßigen Intervallen aus den Maschinen extrahiert werden. Im ersten Fall liegt der Fokus auf der analytischen Auswertung und Data Mining, im zweiten Fall auf einer Echtzeit-Datenextraktion, auf hoher Flexibilität und Skalierbarkeit der Analyse.

Unterbrechungsfreie Produktions- und Lieferkette

Fazit: Predictive Maintenance und Quality-Lösungen leisten einen wesentlichen Beitrag zur Unterstützung einer unterbrechungsfreien Produktions- und Lieferkette, hohen Qualitätsstandards und Kundenzufriedenheit. Moderne PMQ-Lösungen können sowohl umfassend, aber auch schrittweise entlang der Phasen Integration, Data Historian und Analytics eingeführt werden. Allerdings lassen sich auch mit dem Einsatz von PMQ-Anwendungen Fehler nicht komplett vermeiden, ebenso kann und darf der menschliche Faktor nicht fehlen. Sie dienen vielmehr dazu, das Wissen und „Bauchgefühl“ erfahrener Mitarbeiter mathematisch und statistisch zu validieren und zu unterstützen. Die finale Entscheidung und Verantwortung liegt am Ende in jedem Fall beim Menschen.

(ID:43519053)