UHCI

Intuitive Bedienkonzepte für moderne Interaktionstechnologien im Smart Home

Kurzsteckbrief

Im Projekt UHCI sollen Anforderungen, Rahmenbedingungen und Umsetzungsoptionen für multimodale Interaktionsformen erforscht werden, mit deren Hilfe für die unterschiedlichen Anwendungen im Smart Home intuitiv zu bedienende Benutzerschnittstellen mit hoher Nutzerakzeptanz entwickelt werden können. Offene Standards garantieren die Kompatibilität zwischen Lösungen unterschiedlicher Branchen und Anbieter.

Herausforderung

Smart Home-Anwendungen bieten oftmals bei der Steuerung nur wenig Komfort und Nutzerfreundlichkeit. Einige Lösungen sind zudem nur eingeschränkt von unterwegs steuerbar oder verfügen über unterschiedliche Benutzeroberflächen bei mobilen und stationären Geräten. Zudem sind Lösungen von unterschiedlichen Herstellern oft nicht miteinander kompatibel. Dies führt häufig zu einer niedrigen Anwendungsakzeptanz und einer geringen Marktdurchdringung der einzelnen Lösungen.

Ziel

Im Projekt UHCI soll eine Testumgebung für Interaktionstechnologien im Smart Home aufgebaut werden. Innovative Interaktionstechnologien wie Touch-, Gesten oder Sprachsteuerung sollen dabei weiterentwickelt, miteinander kombiniert, auf ihre Benutzbarkeit (Usability) geprüft werden und in prototypischen Anwendungsszenarien im Heimumfeld getestet werden. Ziel ist die Entwicklung eines Benutzerschnittstellen-Schemas mit einem intuitiven Bedienkonzept, das für unterschiedliche Anwendungsfelder im Smart Home einsetzbar ist. Die Verwendung offener Standards soll die Kompatibilität zwischen Lösungen unterschiedlicher Branchen und Anbieter sicherstellen.

Technologien

Zunächst werden Anforderungen, Rahmenbedingungen und Umsetzungsoptionen für ein offenes User-Inter-face-Framework und entsprechende Usability-Guidelines erforscht und für verschiedene Anwendungen im Smart Home entwickelt. Mithilfe von Demonstratoren werden anschließend mehrere Anwendungsszenarien geschaffen und für unterschiedliche Zielgruppen individuell verändert. Anhand von Instrumenten zur Erwartungs- und Akzeptanzanalyse werden die Nutzungserlebnisse anschließend ausgewertet.

Use Case

Im Rahmen des Projektes sollen mehrere Anwendungsszenarien erprobt werden. Interaction Anywhere ist ein Szenario, das Nutzern je nach Aufenthaltsort und damit verbundener Verfügbarkeit durch die Gestaltung und Umsetzung multimodaler Oberflächen (also beispielweise Touch, Sprache, Gesten oder 3D-Modelle) von Ein- und Ausgabegeräten verschiedene Interaktionsmöglichkeiten bietet. Die Medienwiedergabe außerhalb des Heims erfolgt durch eine lokale Cloud. So wird zum Beispiel ein Szenario umgesetzt, in dem multimodale Oberflächen unter Berücksichtigung TV-spezifischer Anforderungen des Projektpartners Loewe angewendet werden. Zudem wird ein Demonstrator mit adaptiver Dialogsteuerung auf Basis eines digitalen Kochassistenten erstellt.

Konsortialpartner: Facit Research GmbH & Co. KG (Konsortialführer), ART+COM AG, Connected Living e.V., DAI-Labor und Quality and Usability Lab der TU Berlin, Design Research Lab der UdK, DiscVision GmbH, Fraunhofer IDMT, Loewe Technologies GmbH, UMAN Universal Media Access
Networks GmbH