Suchen

Mensch-Maschine-Interaktion Wenn Computer lernen, menschliche Emotionen zu erkennen

| Redakteur: M.A. Frauke Finus

Wenn Menschen und Maschinen miteinander kommunizieren, bestimmen derzeit in der Regel rein sachorientierte Dateneingaben und -ausgaben den Ablauf solcher Interaktionen. Emotionen und Stimmungen werden von den Computern jedoch nicht einbezogen, obwohl diese eine wichtige Rolle spielen. Wissenschaftler der Otto-von-Guericke-Universität Magdeburg (OVGU) und des Leibniz-Instituts für Neurobiologie (LIN) wollen diese Lücke nun in einem neuen Forschungsprojekt schließen.

Firmen zum Thema

Ein Proband interagiert in einer Virtual Reality mit einem Computer.
Ein Proband interagiert in einer Virtual Reality mit einem Computer.
(Bild: Leibniz-Institut für Neurobiologie)

Im Projekt mit dem Namen EmoAdapt wird eine sogenannte Hirn-Computer-Schnittstelle weiterentwickelt, mit deren Hilfe Emotionen erkannt und in die Interaktion zwischen Mensch und Maschine in Echtzeit integriert werden sollen. Bisher können Computer Emotionen wie Freude oder Ärger und Dispositionen wie Überforderung oder Müdigkeit nicht angemessen berücksichtigen. Um dieses neuartige interdisziplinäre Konzept in der Mensch-Maschine-Kommunikation zu entwickeln, arbeiten Wissenschaftler der Medizinischen Fakultät an der OVGU und dem LIN zusammen.

Die Forscher versuchen, neueste Methoden der Hirnbildgebung und der Computertechnologie mit klassischen physiologischen Parametern wie Herzrate und Hautleitfähigkeit zu kombinieren, um Emotionen und Stimmungen bereits während der Interaktion zu identifizieren und diese Erkenntnisse in die Mensch-Maschine-Kommunikation zu integrieren. Die daraus abgeleiteten Muster helfen Computern, komplexe Interaktionen in Echtzeit innerhalb einer simulierten Welt – einer sogenannten Virtual Reality – an das Befinden der Nutzer anzupassen. Dies geschieht beispielsweise, wenn der Computer eine Über- oder Unterforderung bei einem Probanden während einer Aufgabenlösung erkennt und den Schwierigkeitsgrad der Aufgabe dementsprechend anpasst. Welche Rolle hierbei individuelle Merkmale wie das Geschlecht und Alter in der Wirksamkeit und Akzeptanz dynamischer Mensch-Maschine-Interaktionen spielen, ist ebenfalls Gegenstand der Forschung. Das interdisziplinäre Team beleuchtet außerdem die Frage, welche ethischen, sozialen und rechtlichen Konsequenzen die Nutzung individueller Daten in der Mensch-Maschine Kommunikation hat.

Perspektivisch könnten die Erkenntnisse aus dem EmoAdapt-Projekt im alltäglichen Leben angewendet werden. So ist es für die Forscher denkbar, dass technische Systeme beispielsweise die aktuelle Leistungsfähigkeit von Personen berücksichtigen, die komplexe Maschinen bedienen. Sie könnten Symptome wie Müdigkeit und Unaufmerksamkeit identifizieren, was zu einer höheren Sicherheit am Arbeitsplatz beitragen würde. Auch im Bereich der Rehabilitation sind neuartige Konzepte vorstellbar, zum Beispiel beim Eintrainieren von Aufgaben nach einem Schlaganfall.

(ID:43472842)