Phoenix Contact Vom Edge und Fog Computing in die Cloud

Autor / Redakteur: Arno Martin Fast und Robert Bieber / Dipl.-Ing. (FH) Reinhold Schäfer

Der Trend zur Digitalisierung industrieller Anwendungen beinhaltet neben vielen Chancen auch Risiken. So werden beispielsweise große Rechenleistungen und erhebliche Speicherkapazitäten benötigt. Mit dem Industrial Cloud Computing können Unternehmen diese wachsenden Datenmengen verarbeiten und auswerten, um auf Basis der Ergebnisse die gesamte Wertschöpfungskette zu optimieren.

Anbieter zum Thema

Bild 1: Mit dem Industrial Cloud Computing können Unternehmen diese wachsenden Datenmengen verarbeiten und auswerten. Mithilfe der Ergebnisse lässt sich die gesamte Wertschöpfungskette optimieren.
Bild 1: Mit dem Industrial Cloud Computing können Unternehmen diese wachsenden Datenmengen verarbeiten und auswerten. Mithilfe der Ergebnisse lässt sich die gesamte Wertschöpfungskette optimieren.
(Bild: Phoenix Contact)

Wenn von Public Cloud Computing gesprochen wird, ist davon auszugehen, dass über das Internet eine Verbindung zur Cloud besteht (Bild 1). Allerdings müssen in zahlreichen Applikationen Daten in sehr kurzen Zyklen erfasst, überprüft und in den Prozess zurückgeführt werden. In einem solchen Szenario würde sich eine Cloud-Lösung schon aufgrund der im Internet vorzufindenden Latenzzeiten nicht eignen. In derartigen Anwendungsfällen kommen immer häufiger Edge- oder Fog Computing-Lösungen zum Einsatz. Doch wie funktioniert dieses Konzept? Welche Vor- respektive Nachteile gibt es? Und ist es vor diesem Hintergrund überhaupt sinnvoll, sich mit solchen Computing-Ansätzen auseinanderzusetzen? Oder handelt es sich lediglich um „alten Wein in neuen Schläuchen“?

Direkte Auswertung erfolgt am Entstehungsort

Das Edge Computing eröffnet dem Anwender die Möglichkeit, die aufgenommenen Daten mit Netzwerktechniken direkt an ihrem Entstehungsort – also „at the edge“ – auszuwerten. Mit dem Edge Computing sind leistungsfähige Analysetechniken praktisch überall und zu jedem Zeitpunkt verfügbar (Bild 2). Auf diese Weise können Mitarbeiter, die den Zustand von in abgelegenen Gegenden installierten Maschinen und Anlagen überwachen müssen, die Erfordernisse für eine Wartung oder den Ersatzteilbedarf viel genauer ermitteln. Edge Computing erweist sich folglich als Alternative für Unternehmen, die keinen unmittelbaren Zugriff auf hohe Bandbreiten und einen schnellen Weg in die Cloud haben. Das gilt zum Beispiel für die Betreiber von Wassergewinnungs- sowie Solar- und Windenergieanlagen. Auf der Grundlage der beschriebenen, zustandsabhängigen Wartungskonzepte, bei denen die Maschinen und Geräte in Echtzeit kontrolliert werden, lassen sich die Kosten für den Service deutlich senken und die Produktivität entsprechend steigern.

Daten mehrerer Geräte werden zentral verarbeitet

Die Begriffe des Edge und Fog Computing werden oftmals synonym verwendet und sind sich auch sehr ähnlich. Bei beiden Ansätzen steht der Gedanke im Vordergrund, die Rechenleistung von der Cloud in Richtung des Datenursprungs zu verlegen. Edge und Fog unterscheiden sich dabei nur im Grad dieser Verlagerung. Beim Fog Computing werden die Daten aus mehreren Endgeräten an einer zentralen Stelle gesammelt und verarbeitet – also ganz ähnlich wie beim eigentlichen Cloud-Gedanken. Der Ort, an dem die Daten verarbeitet werden, befindet sich jedoch nicht in einem großen Rechenzentrum des Cloud-Anbieters. Vielmehr wird eine Art „Minirechenzentrum“ genutzt, das meist am gleichen Standort angesiedelt ist wie beispielsweise die Steuerungen, welche die Daten liefern (Bild 3). Dort werden zum Beispiel zeit­sensible Berechnungen vorgenommen, die einen Einfluss auf die Maschine haben und nur lokal erfolgen können. Eine globale Analyse und Weiterverarbeitung der Daten geschieht weiterhin im überlagerten Cloud-System.

Edge Computing geht an diesem Punkt noch weiter: Dort findet die Daten(vor)verarbeitung tatsächlich in den einzelnen Geräten statt, in denen die Daten entstehen. Ein solches Konzept stellt daher höhere Anforderungen an die lokal verbauten Geräte in punc­to Rechenleistung, Offenheit und Zugriffssicherheit.

Es erfolgt keine Belastung der Anlageninfrastruktur

Mit der PLCnext-Technik werden Steuerungen von Phoenix Contact zu echten Edge Devices. Ein wesentlicher Grund für die Integration von KI-Algorithmen (Künstliche Intelligenz) in lokale Anwendungen respektive Steuerungen oder Edge Devices ist eine Optimierung direkt vor Ort, die nicht von externen Daten oder Big Data abhängig sein muss.

Es gibt keine Nutzungseinschränkung durch geringe Bandbreite

An dieser Stelle zeigt es sich als wichtig, Latenzen zu verringern und den Datenverkehr über mehrere Systemgrenzen zu vermeiden. Die Daten für KI-Entscheidungen kommen direkt von der Steuerung und belasten die Infrastruktur der Anlage nicht. Somit lassen sich dedizierte Verbindungen einsparen. Darüber hinaus kann auf eine Verbindung in die Cloud verzichtet werden, die zudem nicht immer möglich ist. Besteht die Anforderung, die Ergebnisse der KI-Berechnung ebenfalls an ein überlagertes Cloud-System zu versenden, ist dies mit der PLCnext-Technology umsetzbar. Die direkte Ankopplung an die Proficloud von Phoenix Contact sorgt für eine einfache Parametrierung der sicheren Verbindung zur Cloud.

Um zu verstehen, welche Vorteile das Edge respektive Fog Computing mit sich bringt, ergibt sich zunächst die Frage, warum nicht ein reines Cloud-System zum Einsatz kommt. Denn Cloud-Systeme haben ihre Vorzüge wie Ausfallsicherheit, Kosteneinsparung oder weltweite Verfügbarkeit bereits hinreichend bewiesen. Selbst wenn in der Cloud beinahe unbegrenzte Speichermengen und Rechenkapazität vorhanden sind, bleibt eine Herausforderung erhalten: Nur weil die großen Rechenzentren über eine sehr gute Netzwerkanbindung verfügen, gilt das nicht automatisch auch für die im Feld installierten Geräte.

Cloud-Lösungen werden nicht durch Edge und Fog Computing ersetzt

Damit Unternehmen wirklich an der Digitalisierung partizipieren können, müssen sich die an entlegenen Orten montierten Komponenten ebenso an das Internet der Dinge anbinden lassen. Als Beispiel sei die in einem Solarpark verbaute Steuerung angeführt (Bild 4). Sie sammelt zwar wertvolle Daten für den Betreiber, ist aber lediglich über eine langsame GSM-Verbindung an das Netz angeschlossen. Dabei wird schnell deutlich, warum die Daten nicht sofort an ein Cloud-System übermittelt werden können: Die Bandbreite reicht dazu einfach nicht aus. In diesem Beispiel würde Edge Computing sicherstellen, dass der Betreiber des Solarparks trotzdem sinnvoll mit den Daten der Steuerung arbeiten kann, indem er einen Teil der auszuführenden Arbeiten von der Cloud in das Gerät verlagert.

Insgesamt bleibt festzustellen, dass Cloud-Lösungen nicht durch Edge- und Fog Computing verdrängt oder ersetzt werden. Die Computing-Ansätze dienen nur dazu, die bisherigen Einschränkungen bei der Verwendung einer Cloud zu umgehen. Edge Devices sind in der Lage, einfache Echtzeitanalysen durchzuführen und erfasste Sensordaten nach bestimmten Kriterien vorzuselektieren, bevor sie an die Cloud weitergeleitet werden. Auf diese Weise wird eine unnötige Belastung der Cloud-Verbindung verhindert. Die (relative) Unabhängigkeit von einer Internetverbindung sowie die besonders niedrige Latenz lassen sich als weitere Argumente für die Nutzung von Edge Devices in IoT-Projekten (Internet of Things, IoT) nennen.

* Arno Martin Fast B. Eng. und Robert Bieber B.Sc. sind beide Mitarbeiter im Bereich Cloud Engineering der Phoenix Contact Electronics GmbH in 31812 Bad Pyrmont

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:45575519)