Suchen

Edge Computing Die richtige Architektur für das Internet der Dinge

| Autor / Redakteur: Stephan Ellenrieder / Robert Horn

Die zunehmende Konnektivität von Produkten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur. Eine Herausforderung ist die Frage, ob und wie sich riesige Datenmengen sinnvoll in der Cloud erfassen und verarbeiten lassen.

Konventionelle Gateways reichen in der Produktion nicht mehr aus, wenn die Rechenleistung und analytische Verarbeitung am Rand stattfinden soll – die bestehende Hardware muss um Edge-Komponenten aufgerüstet werden.
Konventionelle Gateways reichen in der Produktion nicht mehr aus, wenn die Rechenleistung und analytische Verarbeitung am Rand stattfinden soll – die bestehende Hardware muss um Edge-Komponenten aufgerüstet werden.
(Bild: GE)

Die Antwort auf diese Frage ist einfach: Indem die Cloud sie nicht alleine bewältigen muss. Das sogenannte „Edge Computing“ oder auch „Fog Computing“ ist ein Ansatz dafür. Die Daten werden hierbei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batchverarbeitung noch netzwerkbedingte Latenzzeiten ausgebremst werden. Die Geräte am Rande kommunizieren miteinander und treffen unabhängig von der Cloud Entscheidungen.

Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der „Außenwelt“, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft.

Bildergalerie
Bildergalerie mit 5 Bildern

Die Technik hat aufgeholt

Gänzlich neu ist dieser Ansatz nicht. Die Umsetzung ist jedoch erst heutzutage möglich, da etwa die Software mittlerweile so weit entwickelt ist, dass sie nicht mehr nur auf Hochleistungshardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren. Für die Einleitung eines Bremsvorgangs im selbstfahrenden Auto der Zukunft kann es allerdings zu spät sein, wenn die Sensordaten vorher über das Netzwerk an ein solches Rechenzentrum geschickt und dort gespeichert werden müssen, um sie daraufhin zu analysieren und weiterzuverarbeiten. Der Auffahrunfall droht. Dieser gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen.

Das Beispiel zeigt, dass die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netzwerk bald zum Problem in der Cloud wird. Heutzutage mag das noch für die meisten IT- und Kommunikationsprozesse funktionieren. Mit der drastischen Zunahme an intelligenten, vernetzten Geräten wird dies jedoch zu einer echten Herausforderung. Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeitanalysen von Daten, um kurzfristig Entscheidungen treffen zu können und dadurch Wettbewerbsvorteile zu erzielen, sei es in der Produktion, während des Produkteinsatzes oder für Marketingzwecke, da diese Daten kurz nach ihrer Erhebung am wertvollsten sind.

Spätestens mit der zunehmenden Automatisierung der Produktion oder selbstfahrenden Autos, Bahnen oder Bussen wird die direkte Verarbeitung sogar essenziell, um frühzeitig auf drohende Maschinenausfälle, Unfälle und Schäden reagieren zu können. Wenn dank Edge Computing Daten bereits am Entstehungsort verarbeitet und analysiert werden, brauchen später nur noch bestimmte Datensätze, sofern sinnvoll oder durch Richtlinien für Datenverarbeitung und -schutz vorgegeben, an das Rechenzentrum übermittelt und dort abgelegt zu werden.

Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung vor Ort auch, um mögliche Sicherheitsrisiken zu vermeiden. Daten werden beim Edge Computing eben nicht in weit entfernten Rechenzentren oder im Ausland verarbeitet, wo womöglich andere Vorschriften im Umgang mit Daten herrschen. Darüber hinaus sind die Geräte selbst sicherer und verringern die Zahl möglicher Zugangspunkte für mögliche Angriffe von außen. Die oftmals hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud sind natürlich ein weiterer wesentlicher Grund für die Verlagerung an den Rand des Netzwerks.

Einfach mal so an den Rand verlagern lässt sich die Datenverarbeitung allerdings nicht – eine zusätzliche Hardware- und Softwareausstattung wird gebraucht. Nehmen wir beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten eingesetzt werden. Bisher waren diese lediglich für den Transport von Informationen in und aus dem Netzwerk zuständig – eine Verarbeitung der Daten war damit jedoch nicht vorgesehen und auch nicht möglich. Solch ein Gateway reicht im Edge-Zeitalter aber nicht länger aus. Bestehende Hardware muss um Edge-Computing-Komponenten erweitert werden, wie etwa spezielle Server und Gateway-Systeme.

Edge Computing steht noch am Anfang

Ergänzend zur Erweiterung der Hardwareinfrastruktur sind auch neue Softwarewerkzeuge für die Datenanalyse notwendig. Natürlich könnten traditionelle Business-Intelligence-Software oder Reporting-Tools dafür in Betracht gezogen werden. Diese arbeiten auf Basis einer Batchverarbeitung und genügen so zwar für die grundsätzliche Datenanalyse gemäß den heutigen Anforderungen – aber keines dieser Instrumente wurde jemals zur Analyse von Datenströmen „vom Rande“ der Cloud entwickelt. Um maximalen Nutzen aus den erhobenen Sensordaten zu ziehen, müssen diese ständig überwacht und in maschinelle Lernverfahren übertragen werden, um in Echtzeit Anomalien zu erkennen und Fehler vorhersagen zu können.

Edge Computing wird als Komplementärlösung für die Cloud an Fahrt gewinnen und dort eine Rolle spielen, wo Latenzzeiten und der hohe Bandbreitenbedarf problematisch sind. Zwar steckt die Anwendungspraxis von Edge Computing heute noch in den Kinderschuhen, Aspekte wie Verarbeitungsgeschwindigkeit und Sicherheit sprechen jedoch für eine baldige Entfaltung des enormen Potenzials.

* Stephan Ellenrieder ist Senior Vice President Zentral- und Ost­europa sowie Geschäftsführer von PTC in Deutschland in 85716 Unterschleißheim. Weitere Informationen: Libby Fink, Tel. (0 70 56) 6 30 94 07, jfink@ptc.com

(ID:44377082)