6. Juli 2015

ADAMAAS: Brille als mobiler Assistent

Eine unauffällige und einfache Hilfe bei alltäglichen Handlungen verspricht ein neues Assistenzsystem in Form einer Brille.

© 2015 Universität Bielefeld
Darstellung einer individualisierten Hilfe über eine virtuelle Ebene im Gesichtsfeld der Nutzerin. (Quelle: CITEC / Universität Bielefeld)

 

Im Rahmen des ADAMAAS-Forschungsprojekts Multi-modales Assistenz- und Diagnostiksystem für die Mensch-Technik-Interaktion im demografischen Wandel (Adaptive and Mobile Action Assistance in Daily Living Activities) wurde am Exzellenzcluster für Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld ein mobiles Assistenzsystem in Form einer Brille entwickelt, das auf der Technologie des Eye Tracking Spezialisten SensoMotoric Instruments (SMI) basiert. In einem Display an der Brille sollen die Nutzer bei ihren Handlungen direkte Unterstützung in Form von Texten, Bildern oder durch einen virtuellen Assistenten erhalten.

Die intelligente ADAMAAS-Brille assistiert bei komplexen Handlungsprozessen, indem sie diese Prozesse identifiziert, auf Handlungsfehler reagiert und situationsspezifische Hinweise und Hilfestellungen in textueller, visueller oder avatarbasierter Form ins Gesichtsfeld ihres Trägers einblendet.

Laut Thomas Schack, dem Leiter der Forschungsgruppe Neurokognition und Bewegung – Biomechanik (NCA) am CITEC, stellt ADAMAAS das erste anpassungsfähige und mobile System dar, das in der Lage ist, den Träger bereits während der Handlungsausführung zu unterstützen. Das System bemerkt noch während der Handlung, wo es Probleme gibt und schlägt über ein Display direkt Handlungsanweisungen vor.

Für die Entwicklung werden Technologien wie Gedächtnisforschung, Blickbewegungsmessung, Überwachen der Herz- und Pulsfrequenz und Objekt- und Handlungserkennung kombiniert. Die Augmented Reality, bei welcher der Realität eine Grafik, ein Erklärungsvideo oder ein Bild hinzugefügt wird und dem Betrachter suggeriert, dass sich die virtuellen Objekte in den Blickwinkel schieben, wird nun um moderne Diagnostik und korrigierende Interaktionstechnologie erweitert.

Die Forscher arbeiten daran, ein stationäres Diagnosesystem zu einem mobilen, dynamischen und adaptiven System weiterzuentwickeln, damit dieses individuell auf den einzelnen Nutzer abgestimmt werden kann und stetig dazulernt.

Quelle: Universität Bielefeld