Machine Learning Big Data und KI sorgen für eine effizientere Fertigung
Anbieter zum Thema
Auch in der modernen automatisierten Fertigung gibt es noch Optimierungspotenzial. Um dort die Leerzeiten und die Kosten zu senken, bedarf es den Einsatz von Machine Learning und Big-Data-Analysen.

Auf einen Blick
Beim Einsatz von Big-Data-Techniken gilt es einiges zu beachten:
- Das derzeitige Innovationstempo in der Informationstechnik muss mit der Prozessautomatisierungstechnik in der Fabrik harmonisiert werden.
- Viele traditionelle Lösungen sind nur auf einzelne Prozesse ausgerichtet und erlauben keine Korrelation zwischen aktuellen Messwerten und historischen Daten sowie eine anschließende einfache oder ereignisgesteuerte Anpassung der Schwellenwerte.
- Eine weitere große Herausforderung ist der Umgang mit Daten in Echtzeit aus verschiedenen Quellen und mit unterschiedlichen Zeitstempeln.
Die Produktion wird durch Industrial Internet of Things (IIoT) und Edge Computing zunehmend flexibler und rentabler. Mittels dieser Schlüsseltechnologien ist es möglich, die Produktion in Echtzeit zu überwachen und zu steuern. Jedoch bleibt auch eine moderne Produktion nicht von Ausfallzeiten wegen technischer Defekte bei Maschinen oder im Transportprozess verschont.
Machine Learning bietet Chance, Kosten zu reduzieren
Um diese auf ein Minimum zu reduzieren, bedarf es den Einsatz von Machine Learning und Big-Data-Analysen. Durch Letztere können die Trainingsmodelle für das Machine Learning optimiert werden, um die Ausfallwahrscheinlichkeiten für die Maschinen besser prognostizieren zu können – Stichwort Predictive Maintenance. Machine Learning kann aber auch bei der Qualitätssicherung der hergestellten Produkte eingesetzt werden. Während dort oft noch traditionelle automatisierte Prüfverfahren oder gar eine händische Prüfung verbreitet sind, bieten gerade das Machine Learning und die damit einhergehenden Verbesserungen in der Mustererkennung von Ausschuss ein erhebliches Potenzial zur Kostenreduktion.
Open Source ist führend
Die bei der intelligenten Fertigung eingesetzten Systeme basieren häufig auf Open Source, wie das bei den Big-Data-Distributionen von Cloudera der Fall ist. Die Möglichkeiten, die sich aus der Nutzung dieser Systeme ergeben, sind durchaus mannigfaltig. So spielen sie besonders bei der Qualitäts- und Effizienzsteigerung sowie bei der Kostenreduzierung durch fortschrittliche und vorausschauende Analysen von Sensordaten eine große Rolle. Viele Unternehmen haben beispielsweise Zusatzkosten, die durch die Qualitätssicherung bedingt sind. Diese können bis zu 20 % des gesamten Umsatzvolumens betragen. So machen Ausfallzeiten in den Fertigungslinien gesamtwirtschaftlich etwa 50 Mrd. US-Dollar an vermeidbaren Kosten pro Jahr aus. Doch es gibt passende End-to-End-Lösungen.
Dabei kommt üblicherweise ein Edge-Computing-Modell zum Einsatz, in dem viele Daten, etwa die von Sensoren, dezentral erfasst und in sogenannte Edge-Knoten übermittelt werden. Die Vorauswertung geschieht mithilfe von künstlicher Intelligenz (Artificial Intelligence), weswegen dafür der Begriff Edge2AI geprägt wurde. Dort erfolgt eine erste Vorverarbeitung der Informationen und eine Konsolidierung der Daten, bevor sie an ein Rechenzentrum gesendet werden. Ein Vorteil dieser Methode ist, dass die Ressourcen im Rechenzentrum nicht durch überflüssige Detaildaten belastet werden, und dass die Datenübertragungskapazitäten möglichst nicht ausgereizt werden. Die Daten der IoT-fähigen Geräte werden direkt von der Quelle über ein Edge Management auf Basis von Apache Minifi (kompakter Edge Agent, der sich auf Datenerfassung und -verarbeitung am Edge konzentriert) gesammelt.
Die Weiterverarbeitung erfolgt dann über das sogenannte Flow Management, wo die Daten weitergeleitet, transformiert und angereichert werden. Erst danach fließen diese Informationen in Hauptdatenspeicher- und Verarbeitungslösungen auf Basis von Apache Kafka, einer Software auf Open-Source-Basis zur Speicherung und Verarbeitung von Datenströmen, und Apache Hadoop (quelloffenes, auf Java basierendes Software-Framework zur Verarbeitung großer Datenmengen, das vor allem im Umfeld von Big Data angewandt wird).
Daten aus den verschiedenen Quellen werden konsolidiert
Solange die Daten noch in Bewegung sind, etwa in Kafka, können Apache Flink (Framework, das die kontinuierliche Verarbeitung von Datenströmen in Echtzeit ermöglicht) oder Apache Spark Streaming (Bestandteil von Apache Spark, das kontinuierlich Datenströme verarbeitet) zur Durchführung von Echtzeitanalysen verwendet werden.
Anschließend werden die Daten aus den vielen Fertigungsstätten und Sammelstellen für Data Warehousing und komplexe Transformationen über das Data Warehouse und etwaige Data-Engineering-Möglichkeiten auf Basis von Apache Hive oder Apache Impala (beides Werkzeuge, die die SQL-Abfrage auf Hadoop-Clustern erleichtern) und Apache Spark (Open-Source-Produkt, mit dem Analysen großer, verteilter Datenmengen schnell und performant durchgeführt werden können) konsolidiert.
Der eigentliche Mehrwert der Datenplattform, der über die beschreibende Analyse hinausgeht, beginnt mit dem Machine Learning, mithilfe dessen die Teams gemeinsam prädiktive Modelle erstellen können. Diese sagen auf der Grundlage von Echtzeitmessungen vorher, wann sich die Qualität der Teile in einer Fertigungslinie verschlechtern wird. Zusätzlich können diese Modelle wieder in das Sensorgefüge eingebracht werden, um diese Vorhersagen auch in Echtzeit durchführen zu können. Diese Werkzeuge sind quelloffen, basieren auf offenen Standards und stellen somit den Konsens der IT-Branche über eine skalierbare Datenverarbeitung dar.
Zusätzlich lassen sich diese Technologien mithilfe von Kubernetes sowohl vor Ort als auch auf den Plattformen der großen Cloud-Anbieter elastisch einsetzen, etwa auf Microsoft Azure, AWS oder Google Cloud.
(ID:46655184)