Simsalabim & Abrakadabra – Oder: Das muss man bei intuitiven Gesten beachten!

Intuitive_Gestensteuerung

Intuitive Gestensteuerung oder Büffeln wie ein Zauberlehrling? Wie viel Wissen muss der Nutzer haben, um Gestensteuerung nutzen zu können?

Die Bedienung von Smartphone, Tablet & Co., also von den unterschiedlichsten Touch-Displays, ist inzwischen gelernt und es haben sich Guidelines für die Gestaltung von solchen Interfaces etabliert. Auf Basis von vielen Beobachtungen und Nutzertests kann inzwischen recht genau vorhergesagt werden, welche spezifischen Fingerbewegungen mit welcher Aktion in Zusammenhang gebracht werden. Ganz neue Herausforderungen bietet die nächste Stufe der Interaktion: Wie zum Beispiel die Xbox Kinect, werden inzwischen einige Geräte bzw. Anwendungen mittels Gestensteuerung bedient – ohne haptisches Interface. Im Falle der Xbox sogar kombiniert mit Sprachsteuerung.

Müssen die Nutzer jetzt wie in der Zauberschule von Harry Potter Sprüche und Bewegungsabläufe üben, um ein solches Device bedienen zu können?
Das wäre wohl der worst Case!

Wie immer wichtig ist dabei eine intuitive Gestaltung dieser neuen Interaktionsmethode. Und hier sind wir als UX-Experten wieder mal in der Pflicht. Elske Ludewig gab in ihrem Beitrag zum UX-Congress schon einen kleinen Einblick hierzu.

Im neuen BMW 7 ist es schon möglich, das iDrive System über Gesten zu steuern. Ein Anruf kann mit einem Fingertipp in die Luft angenommen, über ein Wischen abgewiesen werden. Auch Lautstärke ändern über kreisende Bewegungen des Fingers ist möglich. Hands-off-Steuerung, die nicht mal einen genauen Touch auf ein Element erfordert, steht damit auch schon im Fahrzeug bereit!

Leap Motion ist gerade dabei, eine controllerlose Steuerung via Gestenerkennung in Virtual und Augmented Reality voranzubringen. Auch wir haben im Selbstversuch mit der Samsung Gear gemerkt, dass die Wahrnehmung des eigenen Körpers, vor allem der eigenen Hände in der virtuellen Realität essentiell für Orientierung und Navigation ist. Trotz ausführlicher Erklärung und Einweisung ist die erste Tendenz unserer Versuchskaninchen gewesen, die Hände auszustrecken, um mit der virtuellen Realität zu interagieren.

Myo – Gestensteuerung via Muskelerkennung

Gestensteuerungsarmband Genauer haben wir uns das Gestensteuerungsarmband Myo angesehen. Es ermöglicht jedem Nutzer, die Gestensteuerung ohne großen Aufwand in den eigenen PC zu integrieren. (Begeistert hat mich hier nebenbei der Installationsprozess: Ein sehr gutes Beispiel für Usability und User Experience (und besonders für Fehlervermeidung)). Aber auch die Möglichkeiten des Armbandes an sich scheinen schier unbegrenzt: PowerPoint im Präsentationsmodus, Mausersatz, und und und (besonders der Entertainmentbereich scheint unerschöpflich! Hier lohnt ein Blick in den Shop der Website.). Das Armband wird mit dem mitgelieferten Bluetooth-Stick mit dem PC verbunden. Bei der Kalibrierung kann man dank der guten Nutzerführung eigentlich fast nichts falsch machen.

Möchte ich jetzt eine PowerPoint-Präsentation vorführen, ziehe ich das Armband an die dickste Stelle meines Unterarms – links oder rechts ist nicht vorgeschrieben. Das Armband muss dabei direkt auf der Haut sitzen, da es die Muskelaktivität misst. Je nach Anspannung und Position der Muskeln kann das Armband so auf die Geste schließen und die hinterlegte Aktion ausführen. Hier zeigt sich schon der erste Nachteil: Mit einem engen Oberteil wie z. B. einem Businesshemd fällt es einem deutlich schwer, das Armband an dieser Stelle zu positionieren: Der Ärmel muss hochgekrempelt werden (und auch bleiben). Ggf. kann man ein Sakko noch darüber ziehen – man hat allerdings dann diesen Knuppel aus Armband und Unterärmel in der Ellbogenbeuge.

Nachdem man das Armband richtig positioniert hat, muss man (bei erster Verwendung) es erst einmal kalibrieren. Das System lernt so die nutzereigenen Muskelbewegungen kennen. Dieser Vorgang dauert etwa 3 bis 4 Minuten: Das Programm zeigt ein Video mit einer einzelnen Geste, die man nachmachen soll. Insgesamt werden hier 4 Gesten kalibriert:


4_Gesten

Werden diese 4 Gesten zuverlässig erkannt, kann man beginnen.


Hier zeigt sich ein weiterer Nachteil: Einzelne Gesten werden deutlich besser erkannt als andere. „Spread Fingers“ wird bei mir meistens erst nach der dritten Kalibrierung richtig erkannt – und dann aber auch nicht zuverlässig. Ich muss die Geste wirklich genauso wie in der Kalibrierung ausführen: Hand- und Armhaltung, Muskelanspannung, …

Hat man diese Hürde gemeistert, kann es losgehen. Natürlich gibt es auch ein How-to-Video, in dem einem die einzelnen Gesten gezeigt werden. Um es dann auch wirklich richtig zu lernen, gibt es auch ein Tutorial. Hier steuert man sich mit Hilfe der Gesten von Aufgabe zu Aufgabe.

Wie wird PowerPoint nun damit gesteuert? Liebe Leser, nehmen Sie sich kurz Zeit und überlegen Sie, welche der oben gezeigten 4 Gesten Sie für welche Aktion im PowerPoint-Präsentationsmodus nutzen würden. Was wäre beispielsweise Ihre Aktion, um die nächste Folie zu präsentieren? Nach rechts winken? Falsch! Ein Doppeltipp von Mittelfinger und Daumen aufeinander! Diese Geste lernt man im Tutorial. Sie zeigt die nächste Folie an und beendet auch Funktionen wie den Laserpointer (Faust nach links drehen) oder die Vergrößerungsfunktion (Faust nach rechts drehen). Richtig! Vergrößern kann man, in dem man eine Faust macht und diese nach links (im Uhrzeigersinn) dreht. Verkleinern geht aber nicht etwa, indem man die Faust nach rechts dreht (Usability?!), sondern mit dem Doppeltipp von Daumen und Mittelfinger. Eine Folie zurück geht, indem man die Hand nach links einknickt – aber eine Folie nach vorne (na, aufgepasst?) mit einem Doppeltipp. Nicht, wie manche unserer Besucher auf dem UX Congress erwartet hätten, mit einem Einknicken der Hand nach rechts.

Unsere Learnings zu Myo

Myo ist ein gutes Tool, um berührungslos Anwendungen oder Devices zu steuern. Die Umsetzung der Gesten ist leider noch nicht ganz so intuitiv, wie es in den Videos dargestellt wird.

Die Kalibrierung einiger Gesten ist schwierig. Da hier nur die Muskelanspannung und Position gemessen wird, müssen diese später genauso wiedergegeben werden. Hier ist einiges an Übung notwendig. Vorher entsteht jedoch sehr viel Frust, wenn es mal wieder nicht klappt.

Nutzt man „wave right“ oder „wafe left“, fängt das Armband an zu vibrieren. Auf dem Bildschirm erscheinen rechts unten drei Statuspunkte, die sich während dieser Zeit füllen. Dies sind etwa 1,5 bis 2 Sekunden. So lange braucht das Armband, um die Geste zu erkennen. In unserer User Experience Area wollten viele Nutzer die Gesten schneller ausführen. Zwar wurde das Vibrieren wahrgenommen, aber erst nach ein paar Versuchen mit der „Rechenzeit“ des Armbandes wahrgenommen. Auch die oben beschriebene Zuordnung der Gesten zu den Aktionen ist nicht intuitiv. Analoge Gesten für vor- und zurück bzw. rein- und rauszoomen sucht man vergebens.

Auch die Position, in der man den Arm halten muss, ist nach einiger Zeit ermüdend und anstrengend. Führt man die Gesten in einer anderen Position aus (bspw. mit „hängendem“ Arm), werden die Gesten nicht mehr erkannt.

Was also bei Gestensteuerung im Allgemeinen beachten?

  • Bestehende und gelernte Bewegungen nutzen:
    • Auf Analogien zu bestehenden Systemen zurückgreifen. Beispiel: Lautstärke im BMW 7 wird über das Drehen eines imaginären Lautstärke-Rades getätigt,
    • Gegenläufige Aktionen wie „weiter“ und „zurück“ auch als gegenläufige Gesten nutzen: „Weiter“ als ein wischen von links nach rechts, „zurück“ umgekehrt.
  • Konsistenz zwischen Systemen:
    • Wichtige Gesten (vor, zurück, bestätigen, pause, …) sollten programm- und systemübergreifend nutzen. Nichts ist verwirrender, als eine sich ständig ändernde Bedienung. (man stelle sich für jedes Programm eine neue Tastatur vor…)
  • Deutlich wahrnehmbares Feedback geben:
    • Z. B. wenn Rechenzeit benötigt wird. Myo macht dies hier schon sehr gut mit Vibration und visuellem Feedback. Allerdings liegt die Aufmerksamkeit durch die Gestensteuerung weniger auf dem Output und auch nicht im Seitenbereich der Seite. Meldungen oder Fehlermeldungen müssen daher die Aufmerksamkeit des Nutzers (aber nicht des Publikums im Vortrag) auf sich ziehen.
    • Feedback, dass Gesten erkannt wurden. Meistens passiert dies durch ein direktes Feedback des Systems, in dem die gewünschte Aktion ausgeführt wird. In Spielen ist dies manchmal nicht direkt der Fall. Xbox Kinect ermöglicht dies über eine Ganzkörperdarstellung des Spielers und der Markierung der entsprechenden Körperteile.
  • Begrenzung der Gesten:
    • Gesten bzw. die damit verknüpften Aktionen sollten nur ausgeführt werden, wenn der Nutzer das auch wirklich möchte. Der Gestensteuerungs-Ring Zero löst dies über eine berührungssensitive Schnittstelle: Legt man den Daumen auf den Ring, wird die Geste vom System umgesetzt. Fehlt der Kontakt, passiert nichts.
    • Bei Myo oder Xbox ist dies nicht so einfach. Hier werden alle Gesten wahrgenommen. Hier sollten daher wichtige Gesten, die z. B. auch das Programm unter- / abbrechen so gewählt werden, dass sie nicht ausversehen ausgeführt werden können. Uns ist es hier passiert, dass beim normalen gestikulieren während des Sprechens plötzlich in die Präsentation gezoomt wurde oder der Laserpointer anging.

Die NN Group hat die Gestensteuerung der Xbox untersucht – ein sehr lesenswerter Artikel. Die Autorin zeigt hier sehr anschaulich, wie die Usability-Heuristiken, die wir sonst auf Websites und Touchinterfaces anwenden, auch sehr gut für Gestensteuerung funktionieren.
Kann man solche Tools auch im Usability Labor testen? Von uns kommt ein ganz klares Ja! In den Grundprinzipien unterscheidet es sich nicht von anderen Bedienkonzepten. Nur sollte hier der Fokus noch mehr als sonst auf der Bedienung an sich liegen: Interaktionsdesign kann hier nicht mehr in Wireframes gebastelt werden. Kreativität ist gefordert! Denn die Gesten werden auch immer kleiner. Eine Interaktion wie bei Minority Report ist nicht mehr weit entfernt!

Ich freue mich über einen regen Austausch zu Gestensteuerung und wie man sie testen kann!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.