Anbieter zum Thema
Hat man die notwendigen Datenquellen angezapft, die mögliche Hinweise und Informationen auf Maschinenbetrieb, Produktqualität oder andere deterministische Ereignisse während der Produktion liefern können, steht nichts mehr im Weg, zur dritten Phase überzugehen – der Datenanalyse.
Predictive Analytics: Transparenz und Zukunft
Wenn die Daten von allen Maschinen im Produktionskontext zusammen mit weiteren potenziellen internen und externen Einflusswerten vorhanden sind – also die vertikale wie horizontale Integration möglichst umfassend erfolgt ist – kann eine übergreifende Analyse auf Basis verschiedener komplexer Lernmethoden stattfinden. Dies schafft einerseits mehr Transparenz und bietet andererseits die Möglichkeit, auf Basis von statistischen Methoden, Mustererkennung, Zeitreihen, Klassifikations-, Segmentierungs- und Assoziationsmethoden mehr Wissen über mögliche Zukunftsszenarien zu erlangen.
Es gibt einige wichtige Aspekte, die hier beachtet werden müssen. Sie liefern einen wesentlichen Beitrag zur Qualität der Ergebnisse, zu mehr Effektivität sowie Flexibilität bei den notwendigen Umstellungen:
- Qualität und Quantität der Daten: Um das „Datenrauschen“, das im echten Produktionsbetrieb und in realen Umgebungen entsteht, zu minimieren, müssen die Daten für die Analyse bereinigt werden. Abhilfe kann hier vom Integration Layer kommen, der bereits bei der Datensammlung eine gewisse „Normalisierung“ vornimmt.
- „Consumability“ für den Fachbereich: Maximale Flexibilität bei der Datenanalyse wird dann erreicht, wenn der Fachbereich seine eigenen Data-Mining-Modelle mit grafischen Analyse-Tools selbst entwickeln kann, ohne dafür auf die IT-Abteilungen mit Change Requests zugehen zu müssen. Die BMW Group beispielsweise hat dieses Problem mit einer „Self-Service“-basierten Analytics-Plattform für über 1000 Fachbereichsmitarbeiter aus dem Engineering, Qualitätsmanagement und After Sales gelöst.
- Skalierbarkeit: Wie bereits erwähnt, müssen oft riesige Datenmengen verarbeitet und analysiert werden, das heißt, die analytischen Werkzeuge müssen auf Big-Data-Anwendungen aufsetzen und auch darauf skalieren können. Eine Option ist es, etwa für SPSS-Analysen Rechenlast auf Hadoop auszulagern oder mit IBM BigInsights über die BigSQL-Schnittstelle die Business Intelligence Tools des Fachbereichs zu unterstützen, ohne dass dem Nutzer überhaupt bewusst wird, dass die SQL-Abfragen auf Hadoop ausgeführt werden. Im Idealfall nutzt der Analyst sogar das gleiche Frontend, ganz egal, ob er Daten über Flatfiles, relationale Datenbanken oder Hadoop Systeme analysiert. Er kann sich damit voll und ganz auf die Modellentwicklung und –evaluierung konzentrieren, ohne sich Gedanken über komplizierte Datenzugriffe wie SQL-Abfragen oder Map-Reduce Jobs machen zu müssen.
PMQ: Der entscheidende Schritt zur Perfektion
Ist die Datenbasis geschaffen, steht der Einführung von Lösungen für präventive, insbesondere aber prädikative, also nicht nur vorsorgende, sondern zum bestmöglichen Zeitpunkt erfolgende, Wartungsmaßnahmen zur Optimierung der Anlagenverfügbarkeit (OEE) nichts mehr im Weg.
Ein typisches Beispiel, wie erfolgreich das gelingen kann, ist die PMQ-Lösung in der Leichtmetallgießerei im Stuttgarter Werk von Daimler. Das Unternehmen produziert dort täglich circa 10.000 Zylinderköpfe. Über 500 Merkmale werden dabei automatisch gesammelt – darunter Maße, Zeiten und Temperaturen. Dank umfassender Datenintegration und einer intelligenten Analyse-Software-Lösung überwacht und steuert Daimler heute den gesamten Produktionsprozess.
(ID:43519053)