Suchen

Mixed Reality

AR-Brille soll visuelle, auditive und taktile Reize geben

| Redakteur: Rebecca Vogt

Die Hololens projiziert 3D-Inhalte in die reale Umgebung ihres Nutzers. An der Hochschule Bonn-Rhein-Sieg (H-BRS) arbeitet ein Team daran, die visuellen Inhalte der Datenbrille um taktile und auditive Informationen zu ergänzen.

Firmen zum Thema

Die Hololens auf der Hannover Messe 2017.
Die Hololens auf der Hannover Messe 2017.
(Bild: Alex Schelbert/Microsoft)

Dr. Ernst Kruijff vom Institute of Visual Computing (IVC) der H-BRS arbeitet gemeinsam mit Partneruniversitäten aus den USA und Japan an dem Projekt auf dem Gebiet der Augmented Reality (AR). Ziel des Projekts ist es, Nutzern der Mixed-Reality-Brille Hololens künftig neben den visuellen auch auditive und taktile Reize zu senden. Die Deutsche Forschungsgemeinschaft (DFG) fördert das Projekt über drei Jahre mit rund 520.000 Euro.

Mit der Komplexität der Anwendungen steigt die Menge der Informationen. Jetzige AR-Brillen haben jedoch ein relativ kleines Sichtfeld. Erfahrungswerte zeigen, dass die Fülle von Bildinformationen eher reduziert werden muss, damit sie gewinnbringend verarbeitet werden kann – ohne dass Verständlichkeit oder Bedienbarkeit leiden.

Das Team um Dr. Ernst Kruijff, Interimsprofessor für interaktive Umgebungen an der H-BRS, arbeitet mit seinem neuartigen Ansatz an einer Kombination aus Augmented Reality und multisensorischem Feedback. Für die Wissenschaftler bedeutet dies, visuelle Reize und andere Informationen teilweise in taktile oder auditive Inhalte zu übersetzen.

Vibration deutet Informationsrichtung an

Eine Forschungsfrage in diesem Zusammenhang ist, ob der Nutzer Informationen mit multisensorischem Feedback besser verarbeiten kann. Diese Informationen könnten zum Beispiel durch eine leichte Vibration, ähnlich einem leichten Kribbeln am Kopf, weitergegeben werden. Die Vibration kann dabei von verschiedenen Seiten kommen, um dem Nutzer mitzuteilen, in welcher Richtung weiterführende Informationen zu finden sind.

Um zu bestimmen, welche Informationen übersetzt werden sollen, kommt das sogenannte Eye-Tracking zum Einsatz. Eye-Tracking berechnet die Blickrichtung des Nutzers, um zu verstehen, welche Objekte der Nutzer fokussiert, und ihm daraus resultierend die passenden Informationen zu geben.

Testreise in die USA

„Obwohl Einsatz- und Nutzungsmöglichkeiten von AR in hohem Maße von der visuellen Wahrnehmung abhängen, gibt es bislang dazu recht wenig Forschungsvorhaben“, sagt Dr. Ernst Kruijff. „Wir leisten mit dem Projekt einen wichtigen Beitrag zur Grundlagenforschung auf dem Gebiet der multisensorischen Darstellung von Informationen in AR-Systemen. Die erwarteten Ergebnisse sind für verschiedenste Applikationen und Systeme von großem Interesse“, so Kruijff weiter.

Kruijffs Team wird den neuen Ansatz sowohl unter kontrollierten Laborbedingungen als auch in Feldversuchen testen. Im Herbst 2017 reist das Forschungsteam zu diesem Zweck an die Columbia University und an die Mississippi State University. Mit im Gepäck ist dann ein neuer Prototyp der AR-Brille mit Eye-Tracking.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 44863238)