Industrie 4.0 Zukunftssicher produzieren – dank ganzheitlicher Datenstrategie

Ein Gastbeitrag von Benedikt Sturm*

Datenbasiertes Arbeiten wird in einem zunehmend vernetzten Alltag nicht nur möglich, sondern auch nötig. Wie auch KMU diese Transformation angehen, eine erfolgreiche Roadmap zur datenbasierten Optimierung beschreiten und mehr, lesen Sie hier.

Anbieter zum Thema

Plattformen zur Datenanalyse wie die Production Suite von Optalio bieten eine Rundumsicht auf alle relevanten Daten.
Plattformen zur Datenanalyse wie die Production Suite von Optalio bieten eine Rundumsicht auf alle relevanten Daten.
(Bild: Optalio GmbH)

Die deutsche Wirtschaft ist stark exportgetrieben: Trotz eines eklatanten Einbruchs von minus 9,3 Prozent im Vergleich zum Vorjahr lag laut Statistischem Bundesamt im Corona-Jahr 2020 das Volumen im Export bei rund 1.205 Milliarden Euro (etwa 1.025 Mrd. Euro im Import) – ein Saldo von 180 Milliarden. Einen großen Anteil daran hatten die kleinen und mittelständischen Unternehmen der Metall- und Elektroindustrie (M+E). Doch der Erfolg in der Zukunft ist keineswegs garantiert. Fehlende Fachkräfte, Lieferengpässe, steigende Anforderungen von Auftraggebern und dem Wettbewerb sowie die Herausforderungen des Klimawandels: Sie alle erfordern einen Modernisierungsschub bei Prozessen und der Produktion – und der ist mit den herkömmlichen Methoden nicht mehr zu bewältigen. Die Lösung liegt in einer ganzheitlichen Datenstrategie und speziell im Einsatz von Technologien wie Data Engineering, Data Analytics, Künstlicher Intelligenz (KI) und Machine Learning (ML).

Mit einer datenbasierten Optimierung lassen sich unter anderem Leerstände, Ausfallzeiten und Überschüsse verringern und damit die Produktion erhöhen. Parallel dazu können Unternehmen so ihre Lieferabläufe verbessern, etwa durch eine beschleunigte Auftragsvergabe. Zudem werden dadurch Energie und Ressourcen eingespart. Davon profitiert nicht nur das Portemonnaie, beispielsweise in Form einer gesteigerten Working Capital-Quote, sondern auch das Klima dank weniger CO2-Ausstoß. Doch selbst erfahrene Geschäftsführer, Betriebsleiter und Produktionsplaner stehen vor der Frage, wie der Weg hin zu einer datenbasierten Prozess- und Produktionsoptimierung erfolgreich und sicher beschritten werden kann. Denn häufig sind gleich mehrere Hürden zu überwinden: von der Nutzbarmachung von Maschinendaten über die Erhebung und Konsolidierung bis hin zur KI-gestützten Analyse und Visualisierung – und das alles stets unter dem Aspekt der Datensicherheit. Notwendig ist daher ein echter Ende-zu-Ende-Ansatz, um eine ganzheitliche Datenstrategie zu realisieren.

Maschinen verstehen

Eine der größten Herausforderungen in der Digitalisierung industrieller Anwendungen besteht in der Lücke zwischen analogen Produktionsanlagen, der sogenannten OT (Operational Technology), und der IT (Information Technology). Selbst wenn Maschinen und Anlagen über passende Anschlüsse verfügen, reicht es in den meisten Fällen nicht, sie einfach nur an ein IT-Netzwerk anzuschließen. Der Grund ist simpel: Sie sprechen nicht dieselbe Sprache, was sich auch in unterschiedlichen Zielen widerspiegelt. Während in der Produktion Verfügbarkeit und Zuverlässigkeit höchste Priorität genießen, liegt diese bei der IT in der Vertraulichkeit und Datensicherheit. Für einen sicheren Datenaustausch zwischen diesen beiden Welten braucht es daher einen präzisen Bauplan.

Um Maschinen „zum Sprechen“ zu bringen setzt Optalio die sogenannte autolinguale IT® ein, die von dem Partner HWI IT GmbH entwickelt wurde. Dabei ist ein realer Produktionsprozess von Maschinen und Anlagen die Ausgangslage und es werden zunächst alle IT-Dienste bestimmt, die dieser Prozess benötigt oder beliefert. Es geht also um die bereits vorhandene Vernetzung, zu der etwa auch die Schnittpunkte zur Office-IT gehören. Als nächstes wird das Kommunikationsverhalten aller identifizierten Dienste mittels einer Matrix identifiziert, um zu sehen, wer überhaupt mit wem spricht. Aus diesem Wissen heraus lässt sich eine passende Industrial-IT-Infrastruktur entwickeln. Diese beinhaltet unter anderem Feldbusse, Steuerungen, Server und Switches sowie zur Sicherheit Firewalls für die IT als auch die OT. Über eine solche skalierbare und sichere Infrastruktur können Maschinendaten etwa einer Datenplattform zur weiteren Verarbeitung zugeführt werden.

Vom Sammeln, Ordnen und Aufbereiten von Daten

Die Kunst beim Kochen besteht darin, die richtigen Zutaten, in der passenden Menge und zum geeigneten Zeitpunkt zusammenzufügen. Ganz ähnlich verhält es sich mit der datenbasierten Prozess- und Produktionsoptimierung. Immerhin sind Daten nicht gleich Daten – und sie sprudeln zudem bei KMU der M+E-Industrie aus ganz unterschiedlichen Quellen: Von Maschinen über ERP-Systeme bis hin zu Excel-Tabellen, in die beispielsweise Berichtsdaten häufig noch immer per Hand eingetragen werden. Um aus dem Sammelsurium aus Maschinen-, Betriebs-, Zustands- und Prozessdaten einen echten Mehrwert zu generieren, müssen zunächst die richtigen Daten identifiziert und optimal aufbereitet werden. Die Stichwörter dazu lauten Data Mining und Data Engineering.

Zu Beginn sollte das Unternehmen dabei unterstützt werden, zu klären, welche Daten für bestimmte Optimierungszwecke überhaupt nötig sind, ob eine Erfassung bereits erfolgt und welche Quellen noch zu ergründen sind. Da bei Unternehmen in der Regel unterschiedliche Tools zum Einsatz kommen, ist es wichtig, die Daten in eine einheitliche Form zu bringen. Andernfalls ergibt sich aus dem reinen Zusammentragen eine unbrauchbare Datenflut. Optalio setzt hier auf die Unterstützung der Evoila GmbH, ein Partner und Spezialist in den Bereichen Data Mining und Data Engineering. Dabei werden die zuvor identifizierten Daten extrahiert, aufbereitet und in einer zentralen Datenplattform gespeichert. Die Speicherung und Verarbeitung der Daten erfolgt wahlweise über eine sichere Cloud-Lösung oder auf einem Server direkt beim Kunden. Das gewährleistet, dass sich die Daten in einem abgeschlossenen und abgesicherten Bereich befinden und vollständig im Eigentum des KMU verbleiben.

Erst andocken, dann analysieren und schließlich visualisieren

Wer das Glück hat, bei einem Tauchgang im Urlaub auf einen Schatz zu stoßen, braucht trotzdem die Expertise von Fachleuten. Nur so lässt sich der wahre Wert des Fundes erschließen. Bei einem Datenschatz ist es nicht anders: Nachdem er gehoben und ordentlich aufbereitet wurde, müssen sinnvolle Zusammenhänge eruiert werden, um einen echten Mehrwehrt zu erzielen. Hier kommen KI-Lösungen zum Einsatz, die in der Lage sind, aus unzähligen Daten logische Verknüpfungen zu bilden, damit sie für den Menschen erst Sinn und dann Mehrwert ergeben.

Während die Daten eines KMU zur Optimierung erhoben und aufbereitet werden, kann die Plattform zur Datenanalyse bereits andocken und die proprietäre KI mit der Analyse beginnen. Dabei besteht ein eklatanter Unterschied zwischen einer regulären Software und einer Künstlichen Intelligenz: Erstere besteht hauptsächlich aus ihrem Code und kann im Grunde lediglich vordefinierte Befehle ausführen. Dagegen besteht die Arbeit mit einer künstlichen Intelligenz zu 80 Prozent aus dem sogenannten Data Engineering – also grob das Zusammentragen, Prüfen und Aufbereiten von Daten. Die übrigen 20 Prozent sind Aufgabe eines Data Scientists, der den Code erstellt, Anpassungen vornimmt, das Testen durchführt und einiges mehr. Zusammengenommen ist eine KI zu deutlich mehr in der Lage: Sie kann direkt mit den ihr zugeführten Daten eigenständig arbeiten, dabei neue Erkenntnisse gewinnen und dadurch Vorteile, Mehrwerte und Lösungen bereitstellen.

So kann die KI beispielsweise mit Betriebsdaten aus Produktionsplanung, Personal- und Lagerkapazitäten sowie Prozessketten arbeiten und erkennt daraus eigenständig Zusammenhänge, Abhängigkeiten und logische Verknüpfungen. Im Ergebnis lässt sich etwa bei Fertigungseinheiten eine optimale Reihenfolge vornehmen, die die Auslastung deutlich verbessert. Bei der Analyse von Maschinendaten etwa aus Rotationsbewegungen, Drücken, Viskositäten, Energieverbräuchen, Drehzahlen oder Temperaturen gelingt es der KI, Muster zu erkennen, die auf Probleme im Maschinenbetrieb hindeuten. Der Austausch von Komponenten kann dadurch frühzeitig geplant und unerwartete Ausfälle signifikant reduziert werden. Auch lässt sich dadurch bereits während eines Produktionsdurchlaufs vorzeitig darauf hinweisen, ob eine Produktionscharge von den festgelegten Qualitätsstandards abweicht oder weiterhin innerhalb der Norm liegt.

Zur besseren Nachvollziehbarkeit und sofortigen Übersicht sollten die Ergebnisse grafisch und benutzerfreundlich dargestellt werden – von einfachen Graphen, die etwa Leistungskurven anzeigen, bis hin zur Nachbildung von Arbeitsstationen in der Fertigung.

* Benedikt Sturm ist CTO und Mitgründer der Opalio GmbH in 65760 Eschborn, Tel. +49 6196 78077 13, info@optalio.de, www.optalio.de

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47949582)