Suchen

Robotik

Ein Roboter kann Gedanken lesen

| Redakteur: Franz Graser

Beim Projekt IMMI (Intelligentes Mensch-Maschine-Interface) haben Wissenschaftler des DFKI und der Universität Bremen fünf Jahre lang an einer Schnittstelle gearbeitet, die die intuitive Steuerung von Robotern durch Auslesen der Gehirnströme ermöglicht.

Firmen zum Thema

Die mit Elektroden bestückte Kappe des Operators erlaubt es dem System, die Gehirnaktivität per Elektroenzephalographie (EEG) zu messen und Muster der Gehirnströme zu interpretieren.
Die mit Elektroden bestückte Kappe des Operators erlaubt es dem System, die Gehirnaktivität per Elektroenzephalographie (EEG) zu messen und Muster der Gehirnströme zu interpretieren.
(Bild: DFKI)

Ob im Weltall, in der Produktionshalle oder bei der Rehabilitation von Schlaganfallpatienten: Das Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und die Arbeitsgruppe Robotik der Universität Bremen – beide unter der Leitung von Prof. Dr. Frank Kirchner – haben im Projekt IMMI Schlüsseltechniken für die Steuerung von Robotern entwickelt, die echtzeitfähiges und adaptives Embedded Brain Reading in vielen Anwendungsbereichen ermöglichen.

Im Gegensatz zu klassischen Gehrin-Computer-Schnittstellen basiert das entwickelte System auf der passiven Beobachtung des Operators durch Embedded Brain Reading. Dafür trägt der Operator eine mit Elektroden bestückte Kappe, die es dem System mittels Elektroenzephalografie (EEG) ermöglicht, die Gehirnaktivität zu messen und spezifische Änderungen von Gehirnströmen zu interpretieren.

Diese Änderungen erlauben zum Beispiel Aussagen über den Stand der Verarbeitung von präsentierter Information, über die Absichten des Operators oder über dessen kognitive Auslastung. Die Schnittstelle erhält dadurch wichtige Informationen, um den Menschen in kritischen Situationen zu unterstützen oder die Effektivität der Steuerung anwenderspezifisch zu steigern.

Hat der Operator beispielsweise eine vom Roboter gesendete Warnmeldung übersehen, so weist ihn das System erneut darauf hin; ist der Anwender kognitiv überfordert, so wird seine Belastung reduziert.

Messmethoden und selbstlernende Verfahren

Um die Handlungsabsicht und Aufgabenauslastung des Operators präzise einschätzen zu können, setzen die Forscherinnen und Forscher zusätzlich zum EEG auf Elektromyografie (EMG) zur Messung der Muskelaktivität und auf Eye-Tracking, das die Blickrichtung registriert. Auf diese Weise entsteht ein umfassendes Bild des kognitiven Zustands des Anwenders.

Die Schnittstelle lernt aus diesen Daten und darauffolgenden Handlungen, welche Sequenzen in den Hirnströmen eine Wahrnehmung oder Aktion bedeuten. Auf diese Weise kann sich das System in Echtzeit an wechselnde Zustände des Benutzers und sogar automatisch an neue Benutzer anpassen.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 43524426)