Mehr noch: Die Bedienung ist intelligent und kommt auf die Nutzenden zu. Schauen diese im Raum umher, passiert erst einmal nichts. UI-Elemente, die verschiedene Bedienungen ermöglichen, bleiben inaktiv. Erst wenn eines dieser Elemente mit dem Auge fokussiert wird, also Interesse daran gezeigt wird, aktiviert es sich, kommt den Nutzenden virtuell entgegen und lässt sich mittels Geste im Raum bedienen. Ein konkretes Beispiel: Der sogenannte Audi dimensions anchor-point in der Tür des Audi activesphere concept ist als physisches Element vorhanden. Lässt man den Blick darauf ruhen, registriert das System zunächst das Interesse und zeigt beispielsweise die aktuelle Temperatur des Innenraums an. Fokussiert man länger, startet die Interaktion: Das UI-Element kommt auf die Nutzenden zu und lässt sich virtuell bedienen. Ist man damit fertig, verschwindet es nach wenigen Sekunden, alternativ wischt man den Inhalt mit einer Handbewegung weg und versetzt so das UI-Element wieder in den Ruhezustand. Es existieren also nicht einfach nur mit 3D-Bedienung überlagerte physische Elemente, sondern ein im Raum flexibel verfügbares intelligentes, kontextbasiertes User Interface, das sich nahtlos und bequem bedienen lässt. Audi dimensions stellt die Nutzenden in den Mittelpunkt und versteht deren Bedürfnisse.
Setzt man sich im Audi activesphere concept auf den linken vorderen Platz, ist das Lenkrad unsichtbar eingefahren. Wird in den Fahrmodus gewechselt, fährt das Lenkrad heraus und die Inhalte des User Interfaces passen sich entsprechend den Bedürfnissen des manuellen Fahrens an. Christina: „Auch bei der Navigation klickt man nicht nur klassisch über ein Icon einen Use Case an, sondern kann mit der Navigationskarte dreidimensional interagieren. Es gibt dabei verschiedene Ebenen für verschiedene Informationsstadien, die sich je nach Interesse nach und nach aufbauen.“
Wenn man das Fahrzeug verlässt, um sich zum Beispiel mit dem Mountainbike oder den Ski in der Natur zu bewegen, trägt man weiterhin die Brille und bekommt über sie relevante Informationen angezeigt, beispielsweise Wegenetze, Hangneigungen oder Warnungen vor eingeschränkter Sicht.
Jan: „Wir sorgen nicht nur zum ersten Mal dafür, dass man mit so einer Technologie mit dem Fahrzeug interagieren, also Fahrzeugfunktionen steuern kann, es geht weit darüber hinaus. Letztendlich ist das Fahrzeug eine digitale Mixed-Reality-Plattform, die bereit dafür ist, was uns zukünftig hoffentlich noch erwartet: Ich steige ins Auto ein und nutze es über alle Funktionen der Brille ganz selbstverständlich. Ich steige aus dem Auto aus und gehe meinen aktiven Tätigkeiten wie Ski- oder Radfahren nach, bei denen mich die Brille ebenso unterstützt. Das Fahrzeug ist mein verlängerter Begleiter, der diese nahtlose Erfahrung ermöglicht.“ Das Auto der Zukunft ist in ein Ökosystem eingebettet und reichert die reale Welt mit kontextbasiertem virtuellen Inhalt an.