Sind wir schon da? – die Zukunft von AR & MR

Vorschaubild AR

Neue Technologien kommen nie in einem Schritt, sondern sie schwappen heran wie Wellen an den Strand. Derzeit sind Virtual Reality (VR) und Augmented Reality (AR) gefühlt eher wieder auf dem Rückzug, man liest nicht mehr so viel darüber. Heißt das, die nächste Welle kommt bald? Oder war’s das?

Prognosen insbesondere zur Zeit bis zum Durchbruch auf dem Massenmarkt sind sinnlos – aber einig sind sich alle, dass beide Technologien im Kommen sind. Fragt sich nur, wann genau sie wirklich eine größere Nutzerschaft erreichen. Bis es soweit ist, können wir uns vorbereiten.

Nachdem ich mich schon ausführlicher mit VR befasst habe (siehe Virtual Reality – worauf dürfen wir uns freuen? und VR – Einsatzmöglichkeiten & UI-Konzepte) im Folgenden ein Blick auf Augmented Reality, AR.

Virtual Reality, Augmented Reality oder Mixed Reality?

Vorweg eine Begriffsklärung: Virtual Reality bedeutet, ich bewege mich in einer komplett computergenerierten Welt, habe also eine VR-Brille auf, die mich völlig von meiner Umgebung abschirmt. Beispiele: Oculus Rift, Sony Playstation VR.

Mit der VR-Brille bin ich komplett in der computergenerierten Welt.

Bei der Augmented Reality sehe ich dagegen weiterhin meine natürliche Umwelt. Und diese wird angereichert durch Informationen oder Elemente. Beispiele: Brillen wie Google Glass.

Verwirrend ist der Begriff Mixed Reality: Manche nennen so AR-Anwendungen, welche Elemente in meine Umgebung so einbinden, als wären sie Teil davon. Also nicht einfach nur einen Pfeil, der mir z.B. anzeigt, wo ich abbiegen muss. Sondern z.B. Monster, die auf meinem Küchentisch sitzen wie bei der Smartphone-Anwendung Pokemon Go.

Aber die meisten Experten bezeichnen mit Mixed Reality aber dagegen einfach das ganze Spektrum von der normalen, unveränderten Umgebung über AR bis hin zur VR über alle Mischformen hinweg.

Und dann gibt es noch viele weitere Wörter mit R, bei denen ich das Gefühl habe, dass sie vor allem Unternehmensberatungen erfinden, um noch mehr Unsicherheit bei Unternehmen zu schaffen und Beratungsbedarf zu generieren. So werden dann Begriffe wie „Extended Reality (XR)“ geprägt – die jeweils entweder Überbegriffe oder Teilbereiche bezeichnen. Davon sollte man sich nicht ins Bockshorn jagen lassen – eigentlich reichen die Begriffe VR und AR völlig aus, nur die lassen sich einigermaßen scharf voneinander trennen.

Apropos Unternehmensberater: Die Kollegen von Digi-Capital prognostizieren übrigens einen Markt von bis zu 90 Milliarden Dollar für AR in den nächsten fünf Jahren – für VR nur 15 Milliarden. Einige Experten halten insbesondere die Zahl für AR für vollkommen überzogen. Wer ist überhaupt auf dem Markt aktiv?

Wer sind die aktuellen AR-Treiber?

Derzeit sind vor allem folgende große Unternehmen im AR-Bereich unterwegs:

  • Apple
  • Google
  • Microsoft
  • Facebook
  • Intel

Aber auch Amazon und die Neugründung Magic Leap sollte man im Auge behalten.

Was haben diese Beteiligten jeweils vor, woran forschen sie und wann wird das für Endkunden zur Verfügung stehen? Hier gibt es viele Spekulationen, ich versuche, ein wenig Licht ins Dunkel zu bringen:

Apples AR Kit

Screenshot Squishy Hoops AR-Game

Das AR-Spiel Squishy Hops platziert Reifen in der eigenen Küche, durch die man Küken hüpfen lassen kann. Klingt so wenig aufregend, wie es auch ist.

Screenshot AR-App Measure Kit iPhone

Mit der App Measure Kit kann ich Abstände in meiner Umgebung messen – so einigermaßen genau.

Apples Chef Tim Cook gibt nicht viele Interviews – aber zum Thema AR hat er sich wiederholt geäußert. Er sieht die Zukunft von AR als deutlich größer – er meint, für VR gäbe es nur einen sehr kleinen Markt. Denn die Nutzer möchten sich aus seiner Sicht nicht abkapseln von ihrer Umgebung, sie wollen mit anderen Menschen interagieren und weiter sehen, was um sie herum vorgeht.

Fakt ist aber auch: Im AR-Markt ist Apple schon. Um in den VR-Markt einzusteigen, müsste es sich passende Hardware suchen. Klar, dass für Apple somit AR deutlich interessanter ist.

Die Einstiegshürde in AR ist recht gering – am einfachsten ist es, sein Smartphone dafür zu nutzen. Das Bild der Kamera wird dabei einfach aufs Display übertragen und mit computergenerierten Inhalten angereichert.

Die Prozessoren der neueren iPhones schaffen es ohne Probleme, ein ruckelfreies Bild darzustellen. Und seit einigen Wochen können Entwickler das AR Kit nutzen – eine Programmbibliothek, die den Umgang mit AR wesentlich erleichtert. Viele kleine AR-Helfer und noch mehr Spiele sind seitdem im AppStore aufgetaucht. An den Überraschungserfolg von Pokemon Go konnte aber bisher noch keines der Games anknüpfen.

Googles AR Core

Ähnlich wie fürs iPhone gibt es auch für Android eine AR-Bibliothek – AR Core. Darin aufgegangen ist das Project Tango, das auf eigene Hardware gesetzt hat. AR Core bietet einige interessante Funktionen. So passen sich die computergenerierten Objekte beispielsweise in der Beleuchtung an die Umgebung an. Schalte ich z.B. das Licht im Zimmer aus, dann werden auch die computergenerierten Dinge dunkler – das wirkt sehr realistisch.

Viele schöne Spielereien sind mit Google AR Core möglich.

Microsofts HoloLens

Microsoft hat anders als Apple und Google keine eigene Hardware mit weiter Verbreitung, auf der man mit AR loslegen kann. Dafür hat Microsoft die Smart-Glass-Lösung HoloLens. Diese kostet 3.000 Dollar als Entwickler-Lösung und ist nicht als Produkt für den Massenmarkt gedacht.

In der Brille ist ein vollwertiger Windows-PC und die Bilder, die das Gerät über die Brille für den Nutzer in dessen Umgebung setzt, wirken sehr real. Die Farben sind gut und vor allem ist die Positionierung perfekt – auch wenn ich den Kopf hin und her bewege, bleiben die virtuellen Objekte fest im Raum. Nachteil ist, dass der Bereich, in dem die Bilder eingeblendet werden, recht schmal ist. Man kommt sich ein bisschen vor, als würde man durch einen Briefkasten in die Umgebung sehen. Echte Immersion kommt so nicht auf.

Facebooks AR Studio

Screenshot Facebook App Kamera

Facebooks Kamera bietet die typischen AR-Spielereien wie man sie von Snapchat kennt.

Facebook hat zwar keine eigene Hardware, deren App ist aber auf vielen Smartphones bereits installiert. Und deren Kamerafunktion erlaubt einige AR-Spielereien. Am bekanntesten sind die Verfremdungen, die man vom Konkurrenten Snapchat kennt – Hasenohren oder Agentenoutfits für Selfies.

Nach eigenen Angaben plant auch Facebook in Zukunft mehr im Bereich AR – auch wenn das Unternehmen mit Oculus Rift einen der wichtigsten Anbieter von VR-Brillen in seinem Besitz hat.

Intels Vaunt

Neu in der Szene ist der Chip-Hersteller Intel. Vor wenigen Wochen hat er Vaunt vorgestellt. Das sind SmartGlasses, die aussehen wie eine ganz normale Brille. Damit hat Intel die Lehren aus Googles Misserfolg mit Google Glass gezogen. Diese kamen einfach nicht an bei den Nutzern – vor allem, weil andere Menschen negativ reagiert haben. Zum einen wegen der wenig ästhetischen Erscheinung der SmartGlasses, vor allem aber auch wegen der Kamera, die immer auf das Gegenüber gerichtet war und zu Unbehagen geführt hat.

Intels Vaunt hat keine Kamera und die ganze Elektronik wie auch der Akku sind unsichtbar im Brillenbügel verbaut.

Allerdings sind die Möglichkeiten der Brille stark eingeschränkt: Sie kann im Wesentlichen nur ein paar Informationen in einem sehr kleinen Teil des Sichtfeldes einblenden. Monochrom in Rot. Interessant ist: Die Anzeige ist so ausgerichtet, dass sie immer aktiv ist – aber der Nutzer sie nur wahrnimmt, wenn er seinen Blick dorthin richtet.

Vielleicht ist diese Konzentration auf eine kleine Funktion und die gelungene Ästhetik etwas, was bei den Nutzern ankommt. Aus konzeptioneller Sicht interessant ist das auch. Denn eine Anwendung für die Vaunt zu erstellen ist durch die Beschränkung deutlich leichter – wir können gespannt sein, welche Ideen die Kollegen hier haben.

Wir werden uns aber noch ein Weilchen gedulden müssen. Denn bisher gibt es nur einen einzigen Journalisten, der die Brille testen konnte. Wie genau das Bild aussieht, das der Nutzer sehen wir, das ist noch ziemlich unklar. Genauso, wie der Vertrieb laufen soll, wann man die Brille bekommen wird und was sie kostet.

Amazon, Magic Leap & andere

Amazon arbeitet angeblich auch an Smart Glasses. Bisher wurde aber nur Vuzix vorgestellt, eine Brille eines Drittanbieters, die Alexa integriert. Interessant ist diese Kombination von intelligenter Brille mit Sprachsteuerung – denn damit ist eine Bedienung ohne Hände nicht nur für den akustischen Kanal sondern auch für den optischen möglich.

Und schließlich sei noch das Startup Magic Leap erwähnt – mit 1,4 Milliarden Dollar von Risikokapital arbeitet das Unternehmen an einer technisch sehr fortgeschrittenen Smart Glass-Lösung. Diese hat es vor wenigen Wochen nach jahrelanger Geheimniskrämerei erstmals vorgestellt – angeblich sollen erste Entwicklerversionen noch im Lauf dieses Jahres erhältlich sein. Wir können gespannt sein. Klar ist aber: Die Brille sieht aus wie aus einem dsytopischen Science-Fiction Film – und man trägt einen dicken Computer am Hosenbund, der das leistungsfähige Gerät steuert. Ein ganz anderer Ansatz als Intels Vaunt.

Welche Möglichkeiten bieten sich?

Interessant aus UX-Sicht sind die neuen Möglichkeiten, welche AR bietet. Theoretisch haben wir eine 360-Grad-Sicht und das ganze Sichtfeld zur Verfügung für Interfaces bzw. die Darstellung von Informationen. Unbegrenzte Screens sind also damit kein Problem.

Aber wird das nicht zum Problem? Welchen Vorteil hat es, den Nutzer mit Informationen zu überschütten?

Einen ganz anderen Weg geht Intel mit seinem Vaunt. Hier passiert genau das Gegenteil: Es wird nur ein winziger Teil des Sichtfelds genutzt, um mit dem Nutzer zu kommunizieren. Mir erscheint dieser Ansatz hoch interessant, weil er in eine neue Richtung geht und den eingeschränkten Verarbeitungsmöglichkeiten unserer menschlichen Wahrnehmung entgegenkommt.

Screenshot Ikea Place AR-App

Naheliegend – funktioniert aber schon heute gut: Möbel testweise in der eigenen Umgebung platzieren mit der IKEA-Place App.

Auch interessant: Die Steuerung bei der Vaunt erfolgt über das Smartphone. Bzw. die Steuerung erfolgt gar nicht. Die Idee dahinter: Kombiniert mit einem Virtuellen Assistenten zeigt die jeweilige App auf der Brille das an, was der Nutzer in seiner aktuellen Situation wissen muss. Das erfordert sorgfältige Konzeption mit genauer Analyse der Nutzungssituation, der Bedürfnisse und Erwartungen und der Aufnahmefähigkeit der Nutzer. Und es erfordert in den meisten Fällen extrem gute Personalisierung, um die Inhalte auf die Anforderungen jedes Nutzers abzustimmen.

Bei der Steuerung von AR ist sicher noch nicht das letzte Wort gesprochen. Aus meiner Sicht ist ein No-UI, also ein gar nicht mehr vorhandenes User Interface, in kaum einem Fall möglich. Irgend etwas will ich ja als Resultat sehen oder hören – und damit brauche ich ein UI. Aber ein Low-UI ist dank intelligenter Assistenten sicher möglich.

Und auch sinnvoll. Denn welche Möglichkeiten haben wir zur Interaktion mit AR?

Wenn AR auf unserem Smartphone stattfindet, dann ist das Haupt-UI natürlich weiterhin der Touchscreen. Und außerdem das Gerät selbst, das ich um alle seine Achsen neige, drehe und es hin und her bewege.

Für Brillen aber gibt es:

  • Berührung (Antippen von Buttons, z.B. am Brillenbügel)
  • Räumliche Position (also Ändern meiner Position, Drehen/Neigen des Kopfes)
  • Gesten (Bewegung der Finger, Hände & Arme)
  • Blicke („gaze“)
  • Bewegung der Gesichtsmuskeln
  • Gehirnwellen (Prototypen funktionieren schon)

Heute klingt vieles davon wie Zukunftsmusik. Aber es schadet nicht, wenn wir uns schon mal konzeptionelle Gedanken zur UI machen – die Kollegen in den Forschungslabors von Unis und Unternehmen sind manchmal überraschend schnell. Und dann ist es gut, wenn wir schon Ideen haben, wie wir die User Experience von neuartigen Geräten in den Griff bekommen.

Die wird nämlich darüber entscheiden, ob die Geräte letztlich beim Nutzer ankommen, neben Verfügbarkeit und Preis. Wenn schließlich ein Produkt auf den Markt kommt, das Bequemlichkeit und Immersion bzw. Integration in unseren Alltag hinbekommt, dann wird es richtig spannend mit der Augmented Reality. Und wir sehen endlich mehr außer die ewigen Mechaniker, die mit Hilfe von AR Motoren reparieren oder die Touristen, die in Japan durch die Straßen navigieren.

Weiterführende Infos

Wer in einzelne Themen tiefer einsteigen will, findet hier ein paar ausgewählte Links.

Apple Human Interface Guidelines für AR-Anwendungen: https://developer.apple.com/ios/human-interface-guidelines/technologies/augmented-reality/

Google Dokumentation zu ARCore: https://arstechnica.com/gadgets/2017/08/googles-arcore-brings-augmented-reality-to-millions-of-android-devices/

Gute Zusammenfassung des aktuellen Standes bei Magic Leap: https://www.heise.de/newsticker/meldung/Magic-Leap-stellt-futuristische-Augmented-Reality-Brille-vor-3924787.html

Kritischer Bericht zu Intels Brille Vaunt: https://www.cnbc.com/2018/02/23/intels-vaunt-ar-glasses-stylish-but-basic-sources.html

Höchst optimistische Prognosen zum AR-Markt von einer Unternehmensberatung: https://www.digi-capital.com/news/2018/01/ubiquitous-90-billion-ar-to-dominate-focused-15-billion-vr-by-2022/

Aktuelle Links zu Zahlen aus verschiedenen Quellen zur AR-Szene (monatlich aktualisiert): https://medium.com/super-ventures-blog/the-ar-round-up-february-2018-f9dc60aa49c

 

Habt Ihr noch andere lohnende Quellen? Und welche Herausforderungen bei der Konzeption von AR-Anwendungen reizen euch?

Portraitfoto: Jens Jacobsen

Jens Jacobsen

Inhaber

benutzerfreun.de

Bisher veröffentlichte Beiträge: 47

3 Kommentare

  • Patrick Harms

    Vielen Dank für diesen Überblick über den aktuellen Stand. Die Definition der Begriffe ist allerdings nicht ganz korrekt. Mixed Reality umschreibt den gesamten Bereich zwischen Realität und Virtualität. Dazu zählt Augmented Reality als der Bereich, in dem virtuelle Elemente in die reale Welt eingeblendet werden, wie oben in ihren Beispielen. Es ist dabei nicht definiert, ob diese Elemente zwei oder dreidimensional sind. Man kann allerdings auch anders herum reale Elemente in eine virtuelle Welt einblenden. Auch das ist Mixed Reality. Microsoft nutzt deshalb für seine Produkte genau diesen Begriff, da sie mit ihren Produkten das gesamte Spektrum abdecken.

    Augmented Reality ist also eine Variante von Mixed Reality. Die Definition und Abgrenzung der Begriffe wurde ursprünglich von Paul Milgram u.a. in „A Taxonomy of Real and Virtual World Display Integration“ vorgenommen.

  • Hallo Herr Harms, vielen Dank für den wertvollen Kommentar. Sie haben Recht, die vorherrschende Definition von MR ist so, wie Sie schreiben. Dank Ihrer Hilfe ist das jetzt auch im Artikel klargestellt.

  • Ein sehr schöner Überblick über die aktuelle Situation. Ich denke, wir stehen erst am Anfang eines der größten Tech-Hypes unserer Zeit und eine Menge Möglichkeiten sind aufgrund begrenzter technischer Kapazitäten noch längst nicht ausgeschöpft. Ich hoffe und bin mir sicher, dass hier in den nächsten Jahren Großes auf uns zukommen wird.

    MfG
    Kevin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.