Digitale Transformation Namur-Hauptsitzung 2017: Spannung(en) garantiert

Autor / Redakteur: Sabine Mühlenkamp / Wolfgang Ernhofer

Beim jährlichen Familientreffen der EMR-Ingenieure und Elektrotechniker in der Prozessindustrie stand diesmal die digitale Transformation im Vordergrund. Aber wie gelingt der Sprung einer traditionellen und auf Sicherheit bedachten Industrie in die digitale Welt? Die Protagonisten und Anwender von Software und Automatisierungstechnik lieferten auf der diesjährigen Namur-Hauptsitzung in Bad Neuenahr ganz unterschiedliche Antworten.

Firmen zum Thema

Mit rund 650 Teilnehmern war die Namur-Hauptsitzung auch 2017 ausgebucht.
Mit rund 650 Teilnehmern war die Namur-Hauptsitzung auch 2017 ausgebucht.
(Bild: Mühlenkamp / PROCESS)

Bad Neuenahr – Mit schnellem Sprint in die Industrie 4.0-Welt oder doch in kleinen Schritten? Darüber, dass die digitale Transformation gemeistert werden muss, konnten sich der diesjährige US-Sponsor GE Digital und die Anwender von Prozessautomatisierung noch einigen. Bei der Art und der Geschwindigkeit taten sich jedoch große Unterschiede auf. „Wir bereiten uns intensiv auf die Digitalisierung vor, könnten aber natürlich weiter sein“, gab Namur-Vorstandsmitglied und BASF-Manager Dr. Matthias Fankhänel, selbstkritisch zu – nicht ohne auf das eigene hohe BASF-Tempo in den vergangenen vier Jahren zu verweisen. Nach Einschätzung des Namur-Vorsitzenden Dr. Wilhelm Otten, Evonik, ist die Technologie das kleinere Problem.

Die Chemieindustrie müsse sich schon fragen, ob sich nicht andere Player mittelfristig zwischen die Produzenten und ihre Kunden setzen. Damit würden die Prozessunternehmen zu reinen Produzenten degradiert und könnten nicht von neuen Geschäftsmodellen, die im Industrie 4.0-Kontext denkbar sind, profitieren. Während die in der Namur vertretenen Mitglieder weitgehend noch immer die Produktionsprozesse messen, steuern, regeln und automatisieren, verlagern sich die Wirkhebel dagegen zunehmend in die Logistik und Supply Chain der Produkte. „Industrie 4.0 ist die MSR-Technik von Geschäftsprozessen“, zeigt sich Otten daher überzeugt. Dafür benötige man nicht nur neue Tools und Plattformen, sondern ein generelles Umdenken, so der Namur-Vorsitzende.

Bildergalerie
Bildergalerie mit 27 Bildern

Wie die neue Tool- und Plattformwelt aussehen könnte, zeigte der diesjährige Sponsor GE Digital. Simone Hessel, Vice President GE Digital Europe, sieht die Prozessindustrie zwar auf einem guten Weg. Die Automatisierungsdichte sei jedenfalls beeindruckend hoch. „Aber“, so Hessel warnend: „Was machen Sie, wenn Ihre Kunden in der Automobilindustrie in Kürze komplett digital arbeiten?“ In einer Zeit, in der sich Kunden und eigene Mitarbeiter schnell digital verändern, müsse auch die Prozessindustrie in diesem Punkt deutlich schneller und agiler werden.

Hessel sieht die Prozessindustrie daher am Scheideweg. Dabei gehe es weniger um Technologie als um Menschen und Mindset. Hessel stellte vor, wie GE seine Partner und Kunden mit seiner Cloud-basierten Predix-Plattform bei der Transformation begleitet. Die klare Botschaft: Selbst eine hohe Automatisierung sei noch lange nicht Digitalisierung oder digitale Transformation. Die Interaktion zwischen Menschen, Assets und Prozessen werde sich drastisch verändern, so Hessel.

Das US-Unternehmen General Electric (GE) hat dies bereits vorgemacht, indem es sich vom traditionellen Schwermaschinenbauer zu einem digitalen Industrieunternehmen gewandelt hat. Dabei will man allein im eigenen Unternehmen Produktionseinsparungen von jährlich 700 Millionen Dollar durch diese digitale Transformation erreicht haben. (Zur Einordung: Der Umsatz von GE betrug 123 Milliarden Dollar in 2016). Unter dem Motto ‚Get connected – Get insights – Get optimized‘ hat GE längst sein Kerngeschäft vom reinen Produktverkauf hin zur Bereitstellung von Dienstleistungen verlagert.

Heute entwickelt die Digitalsparte des US-Unternehmens GE Digital Softwareanwendungen für ein optimiertes Asset Performance Management APM und bietet u.a. Field Services an, die auf der Cloud-basierten Plattform von Predix aufsetzen. GE hatte die Industrial IoT-Plattform Predix einst eingeführt, um die digitale Transformation der eigenen Unternehmen innerhalb GE’s in über zehn Branchen von der Luftfahrt bis zu Versorgungsunternehmen voranzutreiben. Dabei stellt Predix Verarbeitungs- und Analysefunktionen bereit, um Assets in Echtzeit zu verbinden und zu steuern. Damit soll die Verarbeitung und Analyse der Daten dort stattfinden, wo sie benötigt werden. GE Brilliant Manufacturing beispielsweise verbindet das traditionelle Manufacturing Execution System (MES) mit innovativen Datenanalysen. „Die Prozessindustrie verfügt über viele Daten aus der Automatisierung. Wenn man diese Daten intelligent verbindet, bietet sich ein enormes Effizienzsteigerungspotenzial“, ist Hessel überzeugt. Durch die Verbindung bestehender Anlagen bis zur Edge sowie der massiven Rechenleistung in der Cloud lassen sich nach GE-Einschätzung so Echtzeit-Einsichten generieren, die bis zu 20 Prozent Effizienzgewinne liefern können.

Ergänzendes zum Thema
Was gibt es Neues …

….aus der Namur?

  • 1. Das erste rein chinesische Unternehmen Wanhua Chemical Group Co. Ltd. wurde Mitglied der Namur China.
  • 2. Derzeit gibt es 97 aktive Namur-Empfehlungen/Namur-Anforderungen (NE/NA). Da in den vergangenen Jahren ein umfangreicher Qualitätssicherungsprozess in Gang gesetzt wurde, bei dem 9 NE/NAs überarbeitet und 15 NE/NAs zurückgezogen wurden, gab es 2017 keine neuen NE/NAs. Allerdings stehen derzeit viele in der Pipeline.
  • 3. Mit rund 650 Teilnehmern war die Namur-Hauptsitzung wieder bis auf den letzten Stuhl ausgebucht.
  • 4. Nach dem Ausscheiden von Dr. Thomas Steckenreiter, der Anfang des Jahres von Bayer zum Stellgerätehersteller Samson gewechselt ist, hat der Vorstand nunmehr die Position durch den Dow Chemical Manager Rainer Oehlert ersetzt.

... zum Thema FDI?

Während der vergangenen zwei Jahre haben Fieldcomm Group und Profibus/Profinet International drei „Plug Feste“ durchgeführt, bei denen das Zusammenspiel von diversen Geräten von 18 Herstellern und 9 unterschiedlichen Systemplattformen, die sechs verschiedene Kommunikationsprotokolle unterstützen, getestet wurde. Dabei habe sich die Interoperabilität von Geräten und Systemen durch FDI signifikant verbessert, so die Fieldcomm Group auf der Pressekonferenz im Vorfeld der Namur-Hauptsitzung. Derzeit durchlaufen die ersten FDI Devices Packages im FCG-Testlabor in Austin den Konformitätstest sowie den Registrierungsprozess. Die ersten registrierten FDI Hosts und Geräte können in 2018 bestellt werden. „FDI ist fertig, jetzt warten wir auf die Markteinführung“, erklärte Thoralf Schulz, Chairman Fieldcomm Group. Um Anwendern und Leitsystemen einen einfachen Zugang zu allen aktuell registrierten Device Packages zu ermöglichen, wird eine Online-Datenbank zur Verfügung gestellt. Zudem sind Fieldcomm Group und die OPC Foundation übereingekommen, gemeinsam Informationsmodelle für die Prozessautomatisierung innerhalb der Fieldcomm Group-Arbeitsgruppen zu entwickeln. Diese Informationsmodelle sehen die Beteiligten als Schlüsselelemente zur Umsetzung der NAMUR Open Architecture(kurz NOA), Ethernet im Feld und Industrie 4.0-Anforderungen.

Gewaltige Einsparpotenziale und Chancen für neue innovative und lukrative Geschäftsmodelle, lautet also die Botschaft des Sponsors. Mangels brancheneigener Beispiele aus der Prozessindustrie muss man im Vortrag allerdings Fremdbranchen bemühen – wie etwa das bei einem Aufzug-Hersteller und einem Shopping-Mall-Betreiber. Über das Nutzungsverhalten der Aufzüge habe man Laufwege in der Mall optimieren und die Höhe der Ladenmieten an bestimmte Standorte koppeln können. Solche Geschäftsmodelle finden sich nach Einschätzung der Big-Data-Analysten von GE allerdings in Zukunft in jeder Branche. Um das zu verdeutlichen, präsentierte man dann Beispiele aus der biopharmazeutischen Industrie, in der die beiden Konzernschwestern GE Healthcare und GE Digital Data Science und Analytics mit Domänen-Wissen und Prozesswissenschaft für die Life-Science-Industrien miteinander verzahnen. Daraus entstanden ist ein modulares Produktions- und Dienstleistungsmodell Kubio, mit dem die Markteinführungszeit drastisch verkürzen werden kann.

In China habe man jüngst ein erstes vorinstalliertes Modul für die Produktion von monoklonalen Antikörpern aufgestellt, erklärt Dirk Voelkel von GE Healthcare. Das Time-to-Market konnte damit drastisch reduziert werden. Das chinesische Produktionsunternehmen konnte seine Arbeit nicht wie üblich in drei Jahren, sondern in der Hälfte der Zeit aufnehmen. Ob die Argumente und Beispiele die anwesende Teilnehmer-Zielgruppe abholen konnten, ist schwer zu beantworten. Wichtig und zielführend war es jedenfalls, Sinn und Chancen für den Einsatz von Big-Data-Analysen im Transformationsprozess zu schärfen.

IT-Sicherheit: Voraussetzung für die digitale Transformation

Im Anschluss erhob Erwin Kruschitz, vom Ludwigshafener Unternehmen Anapur den mahnenden digitalen Zeigefinger. Mit einem krassen Beispiel einer osteuropäischen Produktion verdeutlichte er die Gefahr, die durch Befall mit einem Erpressungs-Trojaner im Juni dieses Jahres an gleich mehreren Standorten entstanden sind. Seine wesentliche Erkenntnis: „Es trifft auch die Guten, die vermeintlich sicher aufgestellt sind“, so Kruschitz. Man solle dringend vorbereiten, wie man sich im Notfall verhält bzw. wie man die Produktion im Fall der Fälle schnell wieder zum Laufen bringt.

Tipp der Redaktion In unserer Spezialausgabe Prozessindustrie 4.0 lernen Sie mehr über Strategien, Erfolgsfaktoren und Chancen für die Prozessindustrie auf ihrem Weg durch die Digitale Transformation. In der Ausgabe lesen Sie Best Practices, Meinungen und Strategien zum Thema Prozessindustrie 4.0.

Mit der zunehmenden IT-Abhängigkeit steigt seiner Erfahrung nach auch die Anzahl an Angriffsvektoren. Daher sei eine Risikotransparenz, also welche Komponenten und Faktoren für eine Security-Risikobeurteilung relevant sind, dringend geboten. Und das sowohl in Bezug auf Systeme, aber auch auf Daten und Organisationen. Hier gelte: Man muss wissen, wo die Risiken liegen. Die größte Gefahr, so Kruschitz, entstehe jedoch – trotz des bedrohlichen Anfangsbeispiels – durch menschliche Fehler, erst dann folgen Überlast, Schadsoftware, Spionage und ganz zuletzt der Hackerangriff. Das bedeutet nicht, dass jeder ein Experte in Kryptografie sein müsse. Dennoch müsse jeder Anwender seine Systeme und Komponenten kennen, um folgende Fragen beantworten zu können: „Wie gehe ich vor, wenn eine Anlage ausfällt?“, „Wer hat Zugriff auf die Systeme?“, „Wie funktioniert der Notfallplan und wer ist für die Security verantwortlich?“. „Und nein – für letzteres sind nicht irgendwelche IT-Leute zuständig“, fand Kruschitz deutliche Wort. Wer glaube, dass IT-Experten für die Security-Analyse verantwortlich seien, der glaube auch, dass der Arzt für die eigene Gesundheit zuständig sei.

Die Konsequenz daraus: Die Kompetenzen zwischen IT und OT (Operational Technology) muss geklärt werden. Dies sollte durchaus auch verbandsübergreifend und transparent geschehen, z.B. im BSI, VCI, ISA, EEMUA, Namur etc. Am Ende verwies Kruschitz darauf, dass Security-Vorfälle immer auch Safety betreffen können. Hier bietet die NA 163 (IT-Risikobeurteilung von PLT-Sicherheitseinrichtungen) wertvolle Unterstützung. Fazit: Digitale Transformation wird mit oder ohne Security stattfinden, es geht nun darum, einen sicheren Weg zu finden.

Intelligente Sicherheitstechnik — Evolution durch Digitalisierung

Dass sich die Digitalisierung durchaus sehr positiv auf Wartungskonzepte für Sicherheitseinrichtungen auswirken kann, verdeutlichte Covestro-Mitarbeiter Thomas Gabriel, der auch im Namur AK 4.5 mitarbeitet. Wie Gabriel betont, hatte die Einführung der Funktionalen Sicherheitskonzepte zu Beginn der 2000-er Jahre durch Bereitstellung größerer Freiheitsgrade in Bezug auf Aufbau und Wartungskonzepte die zielgerichtete Anpassung an betriebliche Bedürfnisse ermöglicht. Dies gelte nach wie vor, aber: Durch den Einsatz intelligenter Diagnoseeinrichtungen könne der Zyklus für die wiederkehrende Prüfung der Einrichtungen inzwischen dahingehend flexibilisiert werden, dass eine optimale Abstimmung auf apparatebedingten Turnarounds ohne Verlust des geforderten Sicherheitsniveaus erfolgen kann. Mehr noch: Dadurch würde sogar das sicherheitstechnische Niveau erheblich angehoben, so Gabriel – und unterschied zwischen sicherheitsgerichteter Asset-Intelligenz und Prozess-Intelligenz. Für ersteres müssen belastbare Informationen über den Gesundheitsstatus der Assets mit sicherheitstechnischer Bedeutung verfügbar sein, für zweites Informationen über das sicherheitstechnische Profil des betriebenen Prozesses.

Ein Beispiel für die Asset-Intelligenz ist etwa die inhärente Sicherheit, sprich die Zuverlässigkeit wird durch Überdimensionierung erreicht. Entscheidender seien mittlerweile jedoch herstellerseitige, geräteinterne Diagnosen oder anwenderseitige Diagnosen in Sicherheitssteuerungen, etwa durch die Gleichlaufüberwachung von zwei Analogsignalen.

Bislang wenig genutzt ist dagegen das Potenzial von Industrie 4.0 bei der Bewertung von Prozessrisiken, etwa im Rahmen von Sicherheitsbetrachtungen. Interessant wird es laut Gabriel, wenn zusätzliche Informationen integriert werden, etwa Bedieneingriffe, Alarmraten, die Zeit außerhalb des Betriebsfensters oder wie lange sich der Prozess an einem kritischen Punkt befand. „Dann bietet sich die Chance, das sicherheitstechnische Sicherheitsprofil aktiv zu beeinflussen, indem Frühindikatoren eingeführt werden, um frühzeitig aktiv zu werden“, so der Covestro-Experte. Weitere Ideen und Anstöße liefert die NE 106, die derzeit überarbeitet wird.

Erhöhung der Anlagenverfügbarkeit durch intelligente Datenanalyse

Durchgängige Lieferfähigkeit auf Basis robuster, reibungsloser Produktionsabläufe ist entscheidende Grundvoraussetzung für wirtschaftlich erfolgreiche Unternehmen in der Prozessindustrie. Und ohne Zweifel trägt ein modernes Plant Asset Management zur Erhöhung der Anlagenverfügbarkeit bei und hilft ungeplante Produktionsausfälle aufgrund technischen Versagens zu vermeiden bzw. die Ausfallzeit und damit den wirtschaftlichen Schaden so gering wie möglich zu halten.

Allerdings: Die wesentlichen Informationen dazu finden sich in der Regel bei Mitarbeitern in der Werkstatt oder im Feld – dieser Anwender muss also abgeholt werden. Derzeit steht die bedarfsgerechte Aufbereitung, Analyse und Visualisierung von Daten zu Instandhaltungsprozessen aus dem ERP-System (z.B. SAP) im Zentrum. „Im Augenblick helfen diese Daten vor allem bei Problemen in der Vergangenheit, der Blick richtet sich aber mehr und mehr auf aktuelle Probleme oder die Zukunft“, so BASF-Mitarbeiter Stefan Brüggemann in seinem Vortrag. Hierbei stelle sich die Frage, wie man mit umstrukturierten Informationen umgehe. Aus seiner Erfahrung sind die Katalogisierung von Ausfällen und der Reparaturbedarf in Datenbanken meist sehr grob und häufig schlecht gepflegt. Die Informationen in Freitextfeldern dagegen oft detailreich, dafür unstrukturiert und mit klassischen Methoden schwer zu analysieren. Eine Alternative: die Darstellung in Wortwolken ermöglicht eine intuitive Auslese relevanter Informationen.

Eine weitere Möglichkeit ist die Analyse dieser Daten in Dashboards, die mit Hilfe von Business-Intelligence-Werkzeugen erzeugt werden. Bei BASF habe sich das unter dem Schlagwort „Maintenance Intelligence“ binnen kurzer Zeit als erfolgreiches Instrument erwiesen. Ein solches Dashboard im Asset-Management-Prozess visualisiert in erster Linie Daten in Form von Grafiken und Tabellen. Grundsätzlich können Dashboards explizit auf die verschiedenen Apparate eingehen und Rückmeldungen liefern, wie sich die Maschinen im Feld verhalten. Bei Vernetzung über Standortgrenzen lassen sich so beispielsweise auch Extruder-Straßen mit ähnlicher Technologie an verschiedenen Standorten vergleichen. Darüber können Maßnahmenpläne für besonders ausfallgefährdete kritische Anlagenteile bzw. Apparate erstellt werden, z.B. verschärfte Inspektionsumfänge und verkürzte Intervalle, Modernisierung und Schaffung von Redundanzen durch Klein-Investitionsmaßnahmen, Sicherstellung der Ersatzteilbevorratung beim Lieferanten und Absprache eines optimierten Reparaturprozesses mit der zuständigen Fachwerkstatt. Auch hier gelte, ohne die Einbeziehung der Mitarbeiter laufe gar nichts. Brüggemann betont: „Wenn wir ausschließlich auf Daten, also Black-Box-Systeme gesetzt haben, hatte das keinen Erfolg, aber die Kombination aus menschlichem Know-how und Daten war immer positiv.“

Bildergalerie
Bildergalerie mit 27 Bildern

Positiv macht sich die Digitalisierung auch in der mobilen Instandhaltung bemerkbar. Insbesondere bei Großabstellungen und Betriebsrundgängen haben sich Tabletts als Werkzeuge längst bewährt und stoßen vor allem bei den Mitarbeitern auf Begeisterung, wie Brüggemann hervorhebt. Dennoch gibt es noch Defizite bei den Bedienerterminals in Form von zu kleinen Icons, die nicht gut mit dreckigen Fingern oder Handschuhen bedienbar sind, oder auch schwierige bzw. fehlende WLAN-Ausleuchtungen.

Weitere Beispiele, bei denen die Digitalisierung einen echten Nutzen mit sich bringt, sieht Brüggemann im Bereitstellen von Geoinformationen oder bei Video-Tutorials von Auszubildenden, um das Fachwissen ausscheidender Pensionäre zu konservieren. Brüggemanns Tipp zum Abschluss: Ausprobieren und ggf. Scheitern sei besser als nichts zu tun! „Lieber mehrgleisig fahren und einen schnellen Piloten aufsetzen, als bis zum letzten Detail Vordenken.“ IT-Sicherheit dürfe nie als Totschlag-Argument angewendet werden, warnt Brüggemann. „Wir müssen uns maßvoll aber stetig verändern, schließlich müssen wir unsere Anlagen im heute und jetzt fahren“, lautete sein Fazit des ersten Vormittags.

Der Nachmittag stand wie immer im Zeichen der Workshops aus den diversen Arbeitskreisen sowie des Sponsors. Dabei wurden aktuelle Themen wie beispielsweise IT-Risiko-Assessement für SIS nach IEC 61511 und NA 163, NAMUR Open Architecture, Zukunft der Feldgerätebedienung, NAMUR-Schnittstellen und die Umsetzung des Mess- und Eichgesetzes NA 101 neo und vieles andere mehr diskutiert. Die Workshops boten eine gute Wissensgrundlage für den zweiten Tag der Hauptsitzung, an dem es um Prozessführung und Online-Analysenmesstechnik ging. PROCESS berichtet im Nachgang auch zu ausgewählten Workshop-Themen.

Tag 2: Diskussionen und unterschiedliche Architekturen

Traditionell startet Tag 2 der Namur-Hauptsitzung mit der Verleihung der Namur-Awards. Diesmal gab es drei Preisträger. Dr.-Ing. Dirk Kuschnerus, Krohne, befasste sich in seiner Doktorarbeit mit der Modellierung und Verifikation sicherheitskritischer konfigurierbarer Systeme in der Prozessmesstechnik vor dem Hintergrund der Auswirkungen von Industrie 4.0. Preisträger Sebastian Gau, BASF, präsentierte ein neues Lösungsverfahren für geschaltete System mithilfe prädiktiver Regelungen, indem das diskrete Schaltsignal durch eine kontinuierliche Größe ersetzt wurde, und Preisträger Chris Paul Iatrou von der TU Dresden beschäftigte sich mit dem Entwurf und Implementation eines OPC-UA Hardware Stacks, der echtzeitfähig ist und die Möglichkeit bietet, intelligente Feldgeräte oder sehr kleine Sensoren einfach anzubinden.

Reibungslosere Prozesse notwendig

Diese Themen wiesen bereits den Weg auf das bestimmende Thema des Vormittags – die Prozessführung im Zeichen der Digitalisierung. „Aus der Geschäftsleitung kommt immer wieder die Frage, warum eine Digitalisierung nötig ist. Die Antwort sind unsere Kunden“, leitet Dr. Kai Dadhe, Evonik Technology & Infrastructure, in den Themenblock ein. Um Kunden noch besser bedienen zu können, benötige man reibungslosere, funktionierende Prozesse. „Wir sprechen viel über Predicitive Maintenance, aber Störungen durch den Prozess oder auch durch die Logistik sind viel gravierender. Ich schätze den Anteil von Verlusten durch Assets lediglich auf 20 Prozent“, so Dadhe. Die Rückkopplung von Ereignissen auf den Prozess muss daher seiner Ansicht nach stärker beachtet werden. Und hier kommen gehobene Methoden der Prozessführung wie Advanced Process Control (APC) und Real Time Optimization (RTO) ins Spiel, die schon länger in der chemischen Industrie sowohl für kontinuierliche als auch für Batchprozesse eingesetzt werden.

Sie haben vordringlich zum Ziel, Schwankungen zu minimieren und die Prozesse optimal im Sinne von Ausbeute, Produktqualität, Durchsatz und Energieeffizienz zu betreiben. Aber eben nicht in ausreichendem Maße, wie Dadhe meint. „Jetzt geht es darum, mehr als nur die Regelungen zu betrachten und den Regelungs-Kreis etwas größer zu ziehen.“ Zusätzlich zu den oben genannten Aspekten gelte es, die Flexibilisierung der gesamten Supply Chain zu unterstützen und damit Lieferfähigkeit zu garantieren.

Als ein Beispiel hebt Dadhe die Inline-PAT heraus, die in den vergangenen Jahren enorm an Bedeutung gewonnen und hat dazu beigetragen habe, auch ältere Prozesse fit zu machen. Inzwischen werde eine Detektion für einen breiteren Bereich benötigt. „Es werden Kontextmodelle benötigt, die mehr beschreiben als nur ein einzelnes Asset“. Am Know-how fehlt es seiner Meinung nach nicht. „Wir haben sehr gute Leute und das Interesse an der Digitalisierung ist in den vergangenen vier Jahren enorm in den Geschäftsbereichen gestiegen. Jetzt geht es darum, diesen Geist aufzugreifen und weiter zu führen“, so Dadhe.

Ausbildung 4.0: Nicht nur für den Nachwuchs

Wie die Erwartungen von Wirtschaftsvertretern mit den Vorstellungen von Auszubildenden und Ingenieuren im betrieblichen Arbeitskontext übereinstimmen und wie man die Motivation fördert, war Gegenstand einer Podiumsdiskussion. Hier berichteten Theo Fecher, bei Evonik verantwortlich für die Ausbildung, Dr. Matthias Fankhänel von der BASF, Dr. Gunter Kegel, VDE und Pepperl+Fuchs, und Katrin Locker, IG BCE, über ihre unterschiedlichen Erfahrungen in der Ausbildung und zum Thema Ingenieurmangel. Zentrale Erkenntnisse aus der Diskussion: Digitalisierung sei längst kein Thema mehr nur für den Mitarbeiter-Nachwuchs. Dieser reiche zahlenmäßig einfach nicht aus, um die digitalen Herausforderungen zu meistern.

Bildergalerie
Bildergalerie mit 27 Bildern

Intensive Schulungen müssten jeden Mitarbeiter im Unternehmen mitnehmen und befähigen. Digitale Kompetenz sei zukünftig unabdingbar, nur das wie, wurde nicht erläutert. Obwohl Großkonzerne wie BASF oder Evonik meist weniger Probleme haben, geeignete Nachwuchskräfte zu finden, kann die aktuelle Situation niemanden in der Branche zufrieden stellen. Denn, so die Einschätzung des VDE-Vorsitzenden Kegel, die Ingenieurslücke in der Ausrüsterindustrie nehme inzwischen bedrohliche Ausmaße an. „Und ohne ausreichend besetzte Zulieferbetriebe stoßen auch Chemiekonzerne irgendwann an ihre Grenzen“. Ein zusätzliches Dilemma sieht BASF-Manager Fankhänel auch in der abnehmenden Wertschätzung von Hardware versus Software bei den Jugendlichen. Fazit einer etwas breit angelegten Podiumsdiskussion: Die Bemühungen um den technischen Nachwuchs müssen deutlich steigen und auch Ausbildung muss sich ändern. Oder, wie es Evonik-Ausbilder Fechner formuliert: „Wir bekämpfen derzeit die Themen der Zukunft mit der Didaktik der Vergangenheit.“ Erkenntnisgewinn?

Offene Architekturen für die digitale Welt: Aber welche denn nun?

Schon lange vor den Tagen von Industrie 4.0 wurde die mangelnde Interoperabilität und gegenseitige Austauschbarkeit von Systemen als Herausforderung für die Prozessindustrie identifiziert. Während die Nachteile des daraus resultierenden Vendor Lock-In schon immer präsent waren, wird nach Einschätzung von Dr. Michael Krauss, BASF, der eingeschränkte Informationsaustausch durch die Schwierigkeit in der Umsetzung von 54.0 Anwendungsfällen verschärft kritisch betrachtet.

Daher wurden in den vergangenen zwei Jahren an verschiedenen Stellen mit Bezug zur Prozessindustrie Initiativen gestartet, um offene Architekturen und allgemeingültige Datenmodelle für Engineering, Betrieb und Maintenance zu schaffen. Ein Beispiel ist NOA (Namur Open Architecture), mit dem neue Räume geschaffen werden, um flexibel, offen und wirtschaftlich agieren zu können. Oder anders ausgedrückt: Es wurde eine Überholspur neben der Automatisierungspyramide geschaffen. Im Wesentlichen unterscheidet NOA zwischen der Kern-Automatisierung und einer offenen Systemwelt für Monitoring- und Optimierungsaufgaben. Die Daten der bisherigen Kern-Automatisierungswelt werden durch offene Schnittstellen wie OPC-UA in die Systemwelt für Monitoring- und Optimierungsaufgaben exportiert. Ziel von NOA ist es, die Nutzung innovativer Technologien zu ermöglichen, um die Wirtschaftlichkeit der Anlagen zu erhöhen. Noch 2018 wird es dazu eine Namur-Empfehlung geben.

Die Module Type Package (kurz MTP) Initiative zwischen NAMUR und ZVEI stellte Jörn Oprzynski vom ZVEI AK ‚Modulare Automation‘ vor. „Es geht darum, die verfahrenstechnische Wettbewerbsfähigkeit der Betreiber zu erhöhen, die von der Time-to-Market getrieben ist.“ Dies gelingt u.a. mit Numbering-Up statt mit Scale-Up. Seine Erkenntnis: „Die modulare Automation ist möglich, wenn man sich auf einen Standard einigt. Und dieser Standard ist der MTP, der kontinuierlich weiter entwickelt wird.“ Die modulare Automation folgt der Modularisierung der Anlagen und nicht umgekehrt. Auf der Achema 2018 sollen weitere Pakete zum MTP ergänzt werden, wie Diagnose oder Maintenance. Zudem soll die internationale Standardisierung vorangetrieben werden.

Der US-Energiekonzern Exxon Mobil wählte dagegen einen anderen Ansatz. Die Motivation dafür erklärte der Exxon Mobil Manager Donald Bartusiak: Mit den gewaltigen Migrationskosten einerseits, die der Konzern in den kommenden Jahren für den Großteil seiner Prozessleitsysteme aufbringen muss, anderseits mit einer Vielzahl von Neuinvestitionen. Gewaltige Größenordnungen, die bei Exxon Mobil für ein Umdenken sorgen. „ Wir haben grundsätzlich überlegt, wie wir eine offene, sichere, standard-basierte, interoperable Prozessautomatisierungsarchitektur schaffen können“, so Bartusiak. 2010 begann das Unternehmen mit einer umfangreichen Recherche und schaute sich auch in anderen Branchen um. Besondere Aspekte betrafen IT/OT Cyber-Securities Innovationen; IIoT, Wireless- und Cloud-Services waren ein weiterer Antrieb zum Wechsel. Als Ergebnis entstand unter dem Stichwort ‚Open Group‘ eine neue, vollständig offene Referenzarchitektur mit einem Echtzeit-Service-Bus, der die bisherige Struktur auf den Kopf stellt. Immerhin sieht Bartusiak MTP als eine dabei gute Ergänzung zum eigenen neuen Modell.

Immerhin: Seit Mitte 2017 gibt es Bestrebungen und Abstimmungen, um die verschiedenen Entwicklungen von NOA, MTP und Open Architecture zu harmonisieren und ein geschlossenes Bild daraus zu generieren. Auseinander driftende Systemlandschaften und Doppelarbeit soll so vermieden werden. Ob das gelingen kann, wird sich zeigen. Die verantwortlichen Namur-Mitglieder zeigten sich verhalten optimistisch.

Mehr Prozessanalytik zur Wertschöpfungssteigerung

Beim letzten Themenblock, der in aller Regel auf das Sponsorthema der kommenden Namur-Hauptsitzung überleitet, ging es um Prozessanalytik. Dem Thema widmeten sich gleich vier Referenten. Dass Daten in Echtzeit ein wesentlicher Pfeiler sind, um einen Prozess besser zu steuern, ist nicht neu. Die Grundlagen dafür wurden vor mehr als 100 Jahren in Form eines Pfeifenanalysators bei der BASF zur Analyse der Gaszusammensetzung im Ammoniak-Prozess gelegt. Bereits vorher war im Bergbau einfache Sensorik in Form von speziellen Lampen zum Nachweis schlagender Wetter im Einsatz. „Die Prinzipien, etwa das NDIR aus den 30er Jahren sind nach wie vor in ganz vielen Betrieben im Einsatz und sie sind immer noch gut“, bilanziert BASF-Mitarbeiter Dr. Ulrich Schünemann. Generell ist die Prozessanalytik (PAT) zu einer etablierten Messtechnik zur Überwachung der Abwasser- und Abluftqualität zum Schutze der Umwelt, der Arbeitssicherheit und der Anlagensicherheit geworden. Mehr noch: „PAT leistet einen wichtigen Beitrag zur gesellschaftlichen Akzeptanz unserer Branche“, betont. Schünemann. „Aber natürlich auch zur Wirtschaftlichkeit der Prozesse.“ So werden im Produktionsprozess die Rohstoffe und deren Dosierung überwacht und die Reaktion, Isolierung und Reinigung der Produkte geregelt. Ziele sind die Erhöhung der Ausbeute, der Kapazität der Anlage, der Produktqualität oder die Senkung von Energie- oder Arbeitskosten.

Bildergalerie
Bildergalerie mit 27 Bildern

Für Dr. Stefan Stieler, Bilfinger, sorgt PAT dafür, den Prozess besser zu verstehen. „In der Prozessführung hilft die Prozessanalytik, die Prozesse am wirtschaftlichen Optimum zu fahren, indem sie einen dabei unterstützt, sie mit hoher Güte zu regeln, mit sauberen Edukten zu arbeiten und die Stöchiometrie zu beachten.“ Sicherlich sind die Zusammenhänge komplex und bedürfen oft eines interdisziplinären Teams. Dennoch räumte Stieler mit drei gängigen Vorurteilen auf:

Erstes Vorurteil: PAT ist aufgrund geringer Stückzahlen teuer, zudem kostet die individuelle Prozessadaption nochmal ein Vielfaches. Trotzdem lohnt es sich: „Die Payback-Zeit liegt oft unter einem Jahr“, so Stieler.

Zweites Vorurteil: Die Instandhaltungskosten sind hoch. „Wir haben nun mal empfindliche Bauteile, wie Fenster, Elektrodenglas, die mit kritischen Produkten in Kontakt kommen“, gibt Stieler zu. „Dazu kommen Prüfintervalle in regulierten Industrien.“ Es gibt aber durchaus Maßnahmen, diese zu reduzieren, etwa mit intelligenten Instandhaltungsmaßnahmen.

Das dritte Vorurteil betrifft das Gerücht, dass PAT-Systeme häufig defekt sind. Ein Fehleindruck, wie Stieler anmerkt. „Mit 98 % liegen diese im Rahmen einer normalen Verfügbarkeit“. Sie können sogar in Sicherheitseinrichtungen eingesetzt werden (siehe dazu auch NAMUR-Empfehlung 146).

Wie wird der Einsatz von PAT erfolgreich? Einfache Antwort von Dr. Martin Gerlach, PAT-Spezialist bei Bayer: „Entscheidend für einen geplanten Einsatz ist, die Messaufgabe selbst zunächst zu definieren, und zu deren Lösung dann aus etwa 80 Messverfahren das richtige auszuwählen“. Fachkompetente Ingenieure designen dann die richtige Probenaufbereitungstechnik. Dabei können sich der Verfahren durchaus ändern, so seine Erfahrung: „Die optischen Methoden, die derzeit etwa 9 % einnehmen, waren vor wenigen Jahren noch deutlich geringer in der Zahl und werden in den nächsten Jahren weiter wachsen.“

Lanxess-Mitarbeiter Frank Grümbel ergänzte, dass die digitale Transformation auch im Bereich der PAT zu neuen Anwendungsfeldern und Veränderung der Arbeitsprozesse führen wird. „Die digitale Transformation wird Innovation in den Arbeitsabläufen der Instandhaltung vorantreiben, etwa durch mobile Instandhaltung per Video, ergänzt durch Augmented Reality und Tablets.“ Letztendlich wird auch das PAT-Gerät zu einem Thing-of-Internet. Seine Schlussfolgerung: „Wir brauchen neu angepasste Workflows durch Vernetzung von PAT-Experten, auch mit unseren Kunden.“ Die Risiken müssen sicherlich bedacht werden, dennoch sieht Grümbel eine weitere Verzögerung beim Einsatz von IT-gestützten Messgeräten als nicht mehr zeitgemäß. Denn schließlich seien es die Messgeräte, die die Daten für die Digitalisierung liefern, getreu dem Motto “If you don’t measure it, you can’t manage it.“ Danach war allen Namur-Teilnehmern klar, dass der Sponsor der nächsten Hauptsitzung 2018 nur Endress+Hauser (E+H) sein konnte.

Das Motto wird dann „Field Instruments Support Digital Transformation“ lauten.

Das Fazit einer erneut interessanten Hauptsitzung brachte Namur-Vorsitzender Otten auf den Punkt. Die Mitglieder der Namur seien deutlich agiler und schneller geworden sowohl beim Thema Standardisierung als auch in der Zusammenarbeit mit den Ausrüstern. Dennoch gebe es noch viele Optimierungspotenziale – etwa in der gesamten Supply Chain. „Derzeit puffern wir die fehlende Transparenz, die für Effizienzsteigerungen in der Logistik notwendig ist, durch Lagerkapazitäten weg. Die Ineffizienz liegt in unseren Lagern“, so Otten.

Der Beitrag erschien zuerst bei unserer Schwesterzeitschrift Process.

* Die Autorin ist freie Mitarbeiterin der PROCESS

(ID:45006779)