Intelligente Bilderkennung KI und Edge arbeiten Hand in Hand für den Arbeitsschutz

Ein Gastbeitrag von Carsten Mieth*

Anbieter zum Thema

KI-Verfahren mit Bilderkennung unterstützen bei der Verbesserung der Arbeitssicherheit, dem Objektschutz und der Zugriffskontrolle. Wenn Künstliche Intelligenz und Edge zusammenarbeiten, können Risiken gesenkt werden. Private 5G-Netzwerke beschleunigen diesen Trend.

Künstliche Intelligenz kann dabei helfen, Risiken in Betrieben zu senken.
Künstliche Intelligenz kann dabei helfen, Risiken in Betrieben zu senken.
(Bild: gemeinfrei / Pixabay)

Die Arbeit in einem Industrieunternehmen ist oft hektisch: Zu spät angeliefertes Material sorgt für Zeitdruck, da das Werkspersonal in der Fertigung wartet. Es ist Feierabend, aber die Maschine muss noch gereinigt werden. In solchen Situationen sind selbst erfahrene Fachkräfte oft abgelenkt und es passieren leicht Unfälle. Konkret nennt die Deutsche Gesetzliche Unfallversicherung für 2021 eine knappe Million solcher Arbeits- und Wegeunfälle. Die Unfallzahlen sind seit Jahren auf diesem Niveau und schwanken nur wenig. Denn auch wenn Unternehmen Shopfloor und Lager regelmäßig auf Schwachpunkte und Gefahrenherde untersuchen lassen, bleibt ein Restrisiko.

Computer Vision im Arbeitsschutz

Moderne Lösungen für Künstliche Intelligenz können dabei helfen, Risiken zu senken. Dafür werden neuronale Netze für Bilderkennung (engl. Computer Vision) eingesetzt, die in vielen Situationen den Überblick behalten, um Unfälle im Vorfeld zu verhindern. Ein Beispiel: Ein Gabelstapler nähert sich, aber der Mitarbeiter achtet nicht darauf. Eine KI-Lösung kann nun Mitarbeiter oder Fahrer alarmieren. Schlimmstenfalls kann eine KI auch einen Unfall erkennen und Maßnahmen einleiten, etwa den Werkschutz und Ersthelfer rufen. Aber auch zur Vorbeugung eignet sich KI, indem etwa das Fehlen von Helmen oder Schutzbrillen im Vorfeld erkannt und aufgezeigt wird.

Diese innovative Technologie muss große Mengen komplexer Daten verarbeiten. Denn anders als herkömmliche Algorithmen benötigt jedes KI-Verfahren eine Vielzahl an Rohdaten. Mit ihnen wird das neuronale Netz trainiert, sodass es beispielsweise auffällige Muster erkennen kann. Das entsprechende Verfahren heißt Deep Learning oder Machine Learning. Es findet normalerweise in der Cloud statt, da es dort frei skalierbare IT-Ressourcen gibt: Rechenleistung für die Verarbeitung und Speicherplatz für die Lagerung der Daten. Die entsprechenden Anwendungen eignen sich nicht nur zur Erkennung von Gefahrensituationen, der Einsatzbereich verbreitert sich: Das Verfahren wird nicht nur für persönliche Sicherheit und den Objektschutz, sondern auch für die Qualitätskontrolle von Werkstücken eingesetzt.

Training in der Cloud, Ausführung in der Edge

Für Computer Vision hat sich inzwischen eine Art Arbeitsteilung herausgebildet: Die KI-Anwendungen werden mit großen Mengen Daten in der Cloud trainiert. Durch das Training entsteht ein KI-Modell, das Videostreams vom Shopfloor oder dem Betriebsgelände auswerten kann. Es ist meist deutlich schlanker als die Lernumgebung und wird vor Ort mit Edge-Computing ausgeführt. Dieser Begriff bezeichnet den Einsatz leistungsfähiger Server an den Außenstellen des Unternehmensnetzwerks, die Vor-Ort-Aufgaben innerhalb einer Anwendung für das Industrial IoT übernehmen.

Edge-Server werden auf dem Shopfloor häufig eingesetzt, um dort KI-Modelle auszuführen; gleichzeitig dienen sie als Gateway zum Cloud-Teil der KI-Anwendung. Die Edge ist für den Einsatz von Computer Vision sinnvoll, da Videostreams erhebliche Anforderungen an die Bandbreite der Übertragung stellen. Die Übertragung aller Streams in ein privates oder Cloud-Rechenzentrum für zentrale Videoanalytik würde exzessive Netzwerkkosten verursachen.

Auch für andere Daten als Videostreams kann eine Vorverarbeitung durch KI in der Edge sinnvoll sein – insbesondere wenn schnell und verlässlich reagiert werden muss, wie auf die Daten der Kollissionssensoren autonomer Fahrzeuge.

Edge und Cloud verschmelzen für Data Analytics und KI

Dank neuer Technologien wie Docker und Kubernetes hat auch in der KI cloud-native Software Einzug gehalten. Ein bestimmender Aspekt des Cloud-Native-Paradigmas ist, dass die Software als Netz oder Mesh sogenannter Microservices ausgeführt ist, die miteinander kommunizieren und nur lose gekoppelt sind. Sollte eine Microservice-Instanz ausfallen, übernimmt eine andere. Das Microservice-Mesh ist dadurch ausfallsicher, selbstheilend und fast grenzenlos skalierbar, denn die Anzahl der Instanzen für jeden einzelnen Microservice kann beliebig groß werden. Ein Kubernetes-Cluster besteht aus mehreren Virtuellen Maschinen (kurz: VMs) oder physischen Serverknoten, von denen jeder eine Anzahl an Microservices in Form von Kubernetes-Containern ausführen kann. In der Cloud sind Cluster-Knoten auf VMs üblich, im Edge-Computing hingegen ist Bare Metal die Norm.

Bei Letzterem ist jeder Edge-Server ein physischer Kubernetes-Knoten – das macht auch den Durchgriff auf GPUs und andere Hardware-Beschleuniger einfacher. GPUs – Graphical Processing Units – in einem Cluster-Knoten beschleunigen die Verarbeitung von Video-Streams erheblich. Andere KI-Aufgaben wiederum profitieren von sogenannten FPGAs and anderer Spezial-HW. Die Kubernetes-Angebote heutiger Hyperscaler übernehmen das komplette Cluster-Management. Zudem bieten sie Services für Load-Balancing und Selbstheilung des Clusters bei Ausfall einzelner Knoten. Damit können moderne KI-Lösungen sowohl in der Cloud als auch auf Edge-Ebene cloud-native ausgeführt werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Privates 5G wird zum Zukunftsstandard für das IoT

Edge Computing hat sich zum florierenden Markt entwickelt, auf dem auch die Telekommunikationsanbieter aktiv sind. Sie bauen ihre 5G-Netze so aus, dass Rechen- und Speicherkapazitäten für Edge-Anwendungen Teil des Netzes werden. Eine Vermarktung an Business-Kunden ist naheliegend, da die Carrier Edge Computing ohnehin für ihre eigenen Netze benötigen. Zudem verzichten immer mehr von ihnen auf die herkömmliche, proprietäre Netzwerktechnik und setzen auf Standard-Hardware und Cloud-Technologien. Aus Sicht der Telkos wird dies als Network Function Cloudification (kurz: NFC) und Multi-Access Edge Computing (kurz: MEC) bezeichnet. MEC-Services sind über die verschiedensten Zugänge zum Netzwerk nutzbar und benötigen keinen eigenen, von Grund auf selbst konfigurierten Edge-Server, weil Edge-Server bei MEC Teil des Netzes sind. Die garantierte Bandbreite und niedrige Latenz öffentlicher, aber auch privater 5G-Netze ist ein deutlicher Vorteil bei der Auswertung von Videostreams.

Für höchste Datensicherheit sorgen dabei private 5G-Netze, die getrennt vom öffentlichen Netz sind. Sie bieten alle Vorteile von 5G und eignen sich durch Bandbreitengarantien mehr für das Industrial IoT als zum Beispiel WiFi. Leistungsfähige Edge-Server lassen sich leicht aufrüsten und wachsen mit den Anforderungen. Unternehmen verlieren damit nicht den Anschluss an den stürmischen KI-Fortschritt und behalten gleichzeitig Effizienz und Kosten im Griff.

Dieser Beitrag ist ursprünglich auf unserem Partnerportal Industry of Things erschienen.

* Carsten Mieth ist Senior Vice President, Head of Telecommunications, Media & Technology Central Europe bei Atos.

(ID:48559716)