Suchen

Robotertechnik

Intuitive Roboterprogrammierung mit mobilen Endgeräten

Seite: 3/4

Firmen zum Thema

Modellierung virtueller Robotermodelle ermöglicht Simulation des Roboterprogramms

Die App auf dem Mobilgerät dient nicht nur zur Programmverwaltung, sondern unterstützt den Programmierer auch bei der Programmevaluation mithilfe der Augmented Reality. Dabei wird das Kamerabild des Handhelds um virtuelle Objekte ergänzt, welche das Roboterprogramm repräsentieren. So lässt sich das Roboterprogramm, das normalerweise nur in textueller Form vorliegt, in realer Umgebung visualisieren. Das Programm ist somit auch für den fachfremden Anwender sofort verständlich.

Die Modellierung virtueller Robotermodelle ermöglicht, wie auch in CAD-gestützten Offline-Programmiersystemen, eine Simulation des Roboterprogramms zum Ermitteln von Taktzeiten und einer Erreichbarkeitskontrolle.

Bildergalerie

Bildergalerie mit 6 Bildern

Bild 4 zeigt die gestenbasierte Definition von Posen, die anschließende Simulation des Programms sowie das Ausführen des Programms auf der Robotersteuerung. Die Simulation des Roboterprogramms in realer Umgebung erfolgt anhand eines virtuellen Roboters, der im Kamerabild über den realen Roboter gelegt wird.

Das Roboterprogramm zum Anfassen und Anpassen

Bezüglich der Interaktion wird der Nutzer bereits während der Durchführung von Gesten anhand der Augmented Reality durch ein visuelles Feedback unterstützt. Aktuelle Informationen zum Roboterprogramm werden simultan zur Interaktion des Nutzers in das Kamerabild des Tablet-PC eingeblendet.

Eine Fingergestenerkennung ermöglicht eine neue Form der Interaktion. Der Anwender wird in die Lage versetzt, die virtuellen Objekte der Augmented Reality zu greifen und mit ihnen räumlich zu interagieren. Das bedeutet: freies Verschieben und Verdrehen in 3D. Bei den Objekten kann es sich sowohl um einzelne Posen, Bahnabschnitte als auch aufgabenorientierte Objekte handeln.

Während der Interaktion wird dem Nutzer wiederum in der Augmented Reality aktuelles Feedback zur Interaktion bereitgestellt. Anschließend an die gestenbasierte Manipulation wird das Programm automatisch angepasst. Bild 5 zeigt eine Interaktion mit virtuellen und realen Werkstücken zur Definition einer Pick-and-place-Aufgabe.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 40539990)