Technik, die sich gut anfühlt

Heutige Assistenzsysteme agieren immer selbständiger – und in der Regel erhalten Nutzende keine direkte Rückmeldung. Die Anpassung von Assistenzverhalten an die individuellen Bedürfnisse der Nutzenden durch ein Brain-Computer Interface zur Affekterkennung kann Nutzungsbarrieren abbauen und Akzeptanz fördern.

Herausforderung

Fortschritte in der Sensortechnik und Künstlicher Intelligenz machen es möglich, dass technische Systeme immer flexibler und selbstständiger agieren können. Die Beispiele reichen von einer einfachen Anpassung der Bildschirmhelligkeit an Tageszeit und Umgebungsbeleuchtung über Spurhalte- und Abstandsassistenten im Fahrzeug bis zu kooperierenden Industrierobotern und Servicerobotern für die heimische Nutzung. Damit intelligente Technik auch im Kontakt mit Menschen gewinnbringend eingesetzt werden kann, ist es wichtig, dass auch emotionale Zustände und Präferenzen der Nutzenden angemessen berücksichtigt werden. Nur wenn die Technik sensibel und prompt auf ihre Nutzenden reagiert, werden intelligente Systeme als kooperativ und menschengerecht wahrgenommen und als Hilfestellung oder Partner akzeptiert. Hierfür kann es beispielsweise von Vorteil sein, die affektive Reaktion der Nutzenden kontinuierlich zu erkennen.

Methodik

Das Projekt EMOIO hat sich das Ziel gesetzt, die subjektiv empfundene Angemessenheit eines adaptiven Systemverhaltens live zu erkennen, um daraufhin die Assistenzfunktionen optimal an die individuellen Bedürfnisse und Präferenzen der Nutzenden anzupassen. In der ersten Projektphase wurden positive und negative Emotionen mithilfe von neurophysiologischen Verfahren (Elektroenzephalographie (EEG) und funktionale Nahinfrarotspektroskopie (fNIRS)) während der Mensch-Technik Interaktion erfasst und mittels maschineller Lernverfahren klassifiziert, sogenanntes Brain-Computer Interface. Diese Informationen können als Bewertung des Systemverhaltens (Zustimmung/ like und Ablehnung/ dislike) interpretiert werden. In der zweiten Projektphase wurden Mechanismen entwickelt, um die erkannten Affektreaktionen an das adaptive System zurückzumelden, sodass dieses seine systeminitiierten Assistenzfunktionen entsprechend anpassen kann.

Ergebnis

Das Projekt hat mehrere Studien zur Identifikation von positivem und negativem Affekt mittels neurophysiologischer Methoden (EEG und fNIRS) in der Mensch-Technik-Interaktion durchgeführt. In den Studien wurden Nutzende unterschiedlicher Altersstufen berücksichtigt. Diese dienten als Grundlage zur Entwicklung eines Algorithmus zur Live-Klassifikation von affektiven Nutzerreaktionen mittels neurophysiologischer Signale wie der EEG und fNRIS. Weiterhin wurde eine mobile App entwickelt, die Nutzenden die klassifizierten affektiven Reaktionen live anzeigt. Die Funktionsfähigkeit des Brain-Computer Interfaces wurde nun in realitätsnahen Anwendungsszenarien erprobt. Die betrachteten Anwendungsfelder umfassen interaktive Roboter, das smarte Zuhause und das Fahren im intelligenten Auto.