Maschinen, die menschliche Sprache verstehen, sind nicht wirklich neu. Ein Projekt erforscht nun aber Möglichkeiten, wie die Maschinen nicht nur unsere Worte, sondern auch unsere Emotionen interpretieren können.
Aktuelle Fortschritte auf dem Feld der KI-basierten Entscheidungsfindung können eine soziale Zusammenarbeit zwischen Menschen und Robotern ermöglichen, glaubt Marek Matuszewski von Roboverse Reply.
(Bild: Reply Deutschland SE)
Cobots, also kollaborative Roboter, sind aus vielen Produktionsunternehmen nicht mehr wegzudenken – im Gegenteil nimmt deren Zahl konstant zu. Umso wichtiger wird daher das reibungslose Zusammenspiel zwischen Mensch und Maschine. Erfolgreiche Kommunikation ist der Schlüssel hierzu. Doch diese erfolgt bislang überwiegend in Programmiersprachen und somit auf einem sprachlichen Terrain, auf dem sich Menschen ohne entsprechende Ausbildung nicht oder nur sehr schwer verständlich machen können.
Wäre es möglich, mit einem Roboter wie mit einem Menschen zu sprechen, also mittels natürlicher Sprache zu kommunizieren, könnte das die Zusammenarbeit mit Kollege Cobot deutlich vereinfachen und auch sicherer machen. Hierzu sollte die Maschine jedoch auch in der Lage sein, Botschaften jenseits der expliziten Ebene zu erfassen, also beispielsweise Emotionen, die sich in Intonation äußern, zu interpretieren. Durch Fortschritte auf dem Gebiet des Natural Language Processing wird dieses Ziel immer greifbarer.
Das Projekt Fluently unter der der Leitung von Roboverse Reply setzt hier an und will, vereinfacht gesagt, Robotern Empathie beibringen. Wie soll das gehen? Wir haben mit Marek Matuszewski, Manager von Roboverse Reply, über das Projekt gesprochen.
Herr Matuszewski, 22 Akteure aus Wissenschaft und Wirtschaft haben sich für das Projekt Fluently zusammengetan. Worum geht es in diesem mit EU-Mitteln geförderten Projekt in wenigen Sätzen?
Unser Ziel ist es, ein neues System, eine neue Sensorik zu schaffen. Sie soll ermöglichen, dass Roboter und Menschen besser und effektiver zusammenarbeiten können. Was aber heißt das genau? Es geht im Kern um die Übertragung von Sprache in Richtung Roboter. Dabei soll der Roboter nicht nur verstehen, von was wir sprechen, sondern auch wie wir reden. Es werden also Emotionen erkannt und ausgewertet. Neben den praktischen Vorteilen, die ein empathischer Cobot für seine menschliche Kolleginnen und Kollegen hat, soll das auch den Programmieraufwand deutlich reduzieren.
Das klingt erst mal so, als würde es die Programmierung der Cobots komplexer machen. Wie kommen Sie zu gegenteiligem Schluss?
Das liegt daran, weil diese Übersetzungsarbeit zwischen Mensch und Maschine auf eigene Module ausgelagert wird. Pro jeweiligem Mensch-Cobot-Team werden daher zwei Module angefertigt. Eines trägt der Mensch, das andere der Roboter. Das Endgerät, das der Mensch trägt, ist mittels Sensorik in der Lage, unsere Sprache zu erfassen. Es nimmt diese Informationen von einem menschlichen Bediener auf, verarbeitet intern die Daten mit Unterstützung cloudbasierter Dienste und überträgt anschließend die Eingaben an das Modul am Cobot. Dieses wiederum interpretiert die empfangenen Daten, übersetzt die Befehle in roboterkompatible Anweisungen und sendet sie an die Robotersteuerung. Außerdem sammelt das Modul die Eingaben des Roboters, interpretiert auch diese und wandelt sie in eine für den menschlichen Bediener verständliche Form um. Alles das geschieht primär im Audiobereich über Spracherzeugung, aber auch visuell über ein Display und haptisch über ein so genanntes vibrotaktiles Feedback.
Auch weitere Sensorik war im Gespräch, um zum Beispiel im Robo Gym den Puls zu erfassen . Der Einsatz von Kameras ist ebenfalls geplant. Hier wäre es beispielsweise denkbar, diese in der Cobotzelle zu installieren. Die Kameras können dem Roboter dann die Körperposition des Menschen anzeigen und so Informationen über dessen Wohlbefinden senden. Anhand unserer Körpersprache könnte der Roboter beispielsweise bemerken, dass er das Tempo reduzieren muss, noch bevor der Mensch ihm das sagt. Im ersten Schritt beschränken wir uns aber auf Sprache. Die Kameras werden auch dazu genutzt, um zu bauende oder zu reparierende Komponenten zu erkennen.
Stichwort Sprache: Die Belegschaft von Industrieunternehmen wird immer vielfältiger. Können Sprachbarrieren zum Problem für den Roboter werden?
Genau deswegen haben wir viele Experten aus dem Universitätsbereich, unter anderem vom DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz, Anm. d. Red.). Sie werden uns dabei unterstützen, solche Sprachmodelle entsprechend zu verbessern. Die Sprachmodelle ihrerseits werden natürlich mehrere Sprachen unterstützen – geplant sind Deutsch, Italienisch, Englisch und Französisch.
Future of Industrial Usability - Conference & Expo
Usability in der Industrie – Einfachheit ist Trumpf!
Die industrielle Zukunft ist benutzerfreundlich – Future of Industrial Usability weist den Weg, und dient als Plattform, auf der Expertinnen und Experten von neusten Entwicklungen berichten und echter Austausch möglich ist – branchenübergreifend und praxisnah. Neben Neuigkeiten zu Trends und Entwicklungen lernen die Teilnehmer Methoden, Vorgehensweisen und Techniken des Usability Engineerings kennen, kommen mit Vertretern aus unterschiedlichen Industrien zusammen und finden im Austausch Antworten auf aktuelle Herausforderungen.
Ein zweites Ziel des Projekts ist aber ja auch ein spezielles Schulungszentrum namens Fluently Robo Gym. Hier sollen Fabrikarbeiter und Roboter eine reibungslose Interaktion im Industrieprozess trainieren können. Welche Art von Training braucht es denn noch bei einem empathischen Roboter? Was wird hier vermittelt?
Das Robo Gym soll das erste und größte europäische Zentrum für die Mensch-Roboter-Interaktion in industriellen Anwendungen werden. Bei den Lerninhalten planen wir deswegen, sehr niederschwellig anzusetzen. Das heißt: Menschen, die bisher noch gar keine Erfahrung in der Zusammenarbeit mit Cobots haben, erhalten hier zunächst eine Grundschulung. Darüber hinaus ist das Zentrum auch als Trainingseinrichtung für die maschinellen Lernmodelle gedacht. Hier sollen sich Cobot und Mensch also sozusagen kennenlernen. Im Hintergrund werden dafür zum Beispiel Software-Setups vorbereitet oder geeignete KI-Methoden für neue Aufgaben ausgewählt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Durch das gemeinsame Training lernt der Roboter beispielsweise, wie sein menschlicher Kollege klingt, wenn er entspannt oder wenn er gestresst ist. Diese Information hilft ihm später, empathisch auf den Menschen einzugehen und zum Beispiel das eigene Arbeitstempo anzupassen oder eine Pause vorzuschlagen . Das Projekt soll also dabei helfen, die Maschinen gewissermaßen zu zähmen und den Menschen zu unterstützen.
Man kann sich das vorstellen wie bei einem rein menschlichen Team: Kommt jemand neues hinzu, muss er oder sie den Rest des Teams schließlich auch erst mal kennenlernen – vielleicht trinkt man mal ein Bier zusammen. Letztendlich ist ein gewisses Verständnis füreinander eine gute Voraussetzung für eine effektive Zusammenarbeit. Wie das letztendlich funktionieren wird, soll unser Demonstrator zeigen, dessen Fertigstellung wir für das Jahr 2025 planen.