Chatbots – Ein Erfahrungsbericht mit Fails und Good Practices

Nicht selten werden Conversational User Interfaces eine glorreiche Zukunft vorausgesagt. Dazu gehören neben Sprachassistenten mit ihrem entsprechenden Voice User Interface auch Chatbots. Tipps zur Konzeption von Sprachassistenten finden Sie beispielsweise in dem Artikel von Lorena Meyer, oder in diesem Artikel von Jens Jacobsen.
In diesem Artikel wird es um Chatbots gehen. Ich habe diverse Chatbots ausprobiert. Welche Erfahrungen ich dabei gemacht habe, über welche Fails ich mich ärgerte und über welche Good Pracitices ich mich freute, können Sie im Folgenden lesen.

Einfach mal drauflos chatten …

Das soll heißen: Es war kein wirklich strukturiertes Vorgehen, wie man es bei einer Evaluation durch einen UX Experten erwarten könnte. Es wurden keine Personas, Usecases oder User Stories erstellt. Ich ging als „ich“ ins Web, suchte (Messenger-) Chatbots und probierte diese anhand für mich relevanter Usecases aus. Meine bisherige Erfahrung in der (unprofessionellen, persönlichen) Nutzung von Chatbots tendiert gegen Null.

Aufgrund des Vorgehens mündet der Beitrag auch nicht in eine Guideline zur Optimierung der UX von Chatbots, sondern in einer Sammlung von Fails und Good Practices aktueller Chatbots. Und da ich nicht alle X-tausend verfügbare Chatbots angesehen habe, schreibe ich von Good Practices und nicht von Best Practices.

Das Thema Urlaub erscheint mir als Einstieg geeignet

Also startete ich mit dem Ziel, mir eine nette Urlaubsreise über einen Chatbot zu suchen. Und zwar nach Rom, im August.

Ich probierte den Chatbot der Lufthansa aus, um mir einen Flug zu buchen.

Bis hier klappte es super.

    Good Practice #1: Der Bot versteht sowohl Stichworte, als auch (fast) ganze Sätze.

Jetzt stellt sich mir die Frage, wie ich eine Verbindung finde, die mich auch im August wieder zurück bringt.

02_Screenshot_Chatbot_Lufthansa_Flugbuchen

Erfolgreich, aber leider erst beim zweiten Versuch. Nur möchte ich nicht 4 Wochen nach Rom, sondern nur zwei:

03_Screen_Chatbotverlauf_Lufthansa

Und ehrlich gesagt, dann habe ich aufgegeben. Der Bot hat mich erst nicht verstanden, und dann „falsche“ Ergebnisse geliefert.

    Fail #1: Ich kann relevante Kriterien einer Flugverbindung nicht intuitiv ändern.
    Fail #2: Die Suche einer Verbindung im August liefert Verbindungen im September.

Im Web findet man auf der Suche nach Chatbots auch einen von Kayak. Es ist an der Zeit, diesen auszuprobieren – selbe Aufgabe, neuer Bot:

Okay, soweit so gut. Relevante Kriterien werden schrittweise abgefragt, die Eingabe wird verstanden.
Aber was soll ich denn mit 14.001 Angeboten?
Und wie kann ich diese weiter einschränken?

Super wäre, wenn der Bot hier einen Vorschlag machen würden.

    Good Practice #2: Die schrittweise Abfrage und Eingabe der relevanten Kriterien klappt.
    Fail #3: Es werden – für ein Chatbot-Interface – sehr viele Angebote angezeigt. Und leider keine Option, wie man die Auswahl weiter einschränken könnte.

Na gut, wenn mir der Bot keine Optionen anbietet, versuche ich es eben selbst. Ich will am 5.8. losfliegen:

Der erste Versuch schlägt fehl (siehe Fail #1). Ich starte einen neuen Versuch:

Das war erfolgreich. Und ich war tatsächlich etwas stolz auf diese erfolgreiche Chatbot-Interaktion. Ich sehe jetzt das beste Preis-Leistungs-Angebot, sowie die günstigste Option, und könnte den Flug für 124 € buchen.

Der Flug ist gebucht, jetzt habe ich Hunger.

Der Chatbot von Food Network soll helfen. Dieser liefert erstmal ein „langes“ Intro.

Ich weiß nicht, wie das lange Intro auf mobilen Devices wirkt, aber auf dem Desktop gefällt es mir. Die Kombination aus der Geschichte zu Ina Garten und dem Bild inspirieren dazu, das Rezept auszuprobieren.

    Good Practice #3: Inspirierendes Intro mit einem Bezug zu dem ersten inhaltlichen Vorschlag.

Ich will das Rezept ansehen:

Doch leider scheitere ich. Der Bot versteht den Befehl, den er selbst vorschlägt, nicht.

    Fail #4: Die in den interaktiven Elementen vorgeschlagene Befehle werden über eine Texteingabe nicht verstanden.

Ich probiere noch einen weiteren Anwendungsfall aus und nenne dem Bot die Zutaten, die ich zur Verfügung habe.

Das ist klasse, und funktioniert wie erwartet.

Darüber hinaus zeigt der Bot ein weiteres Good-Practice Beispiel. Die interaktiven Elemente und die entsprechenden Icons sind beschriftet. Das ist verständlich.

    Good Practice #4: Die interaktiven Elemente sind verständlich beschriftet.

Ich will eines der Rezepte ansehen. Wie ich bereits – etwas ärgerlicherweise – festgestellt habe, erkennt der Bot den Befehl „get recipe“ nicht. Also klicke ich auf interaktive Element. Und ein neuer Browser-Tab öffnet sich. Das Element verlinkt auf eine Webseite. Das ist nicht ganz das, was ich erwartet oder erhofft hatte. Eine im Chatfenster sichtbare Zutatenliste, mit vielleicht einer step-by-step Anleitung zum Zubereiten des Gerichts wäre eher „chatbot-like“.

    Fail #5: Frühe (im Sinne der User Journey) Verlinkung auf weitere Seiten, so dass der Chatbot verlassen werden muss.

Zwei ergänzende Beobachtungen

Ich habe noch ein paar weitere Chatbots ausprobiert. Dabei fiel mir auf, dass Fail #4: „Die in den interaktiven Elementen vorgeschlagene Befehle werden über eine Texteingabe nicht verstanden.“ kein Einzelfall ist.

Zu dem Good Practice Beispiel #4: „Die interaktiven Elemente sind verständlich beschriftet.“ Gibt es auch entsprechende Fails. Der Bot Mica ist ein Hipster, und findet für den Nutzer die besten Hotspots für Hipster in der Wunsch-Stadt (es gibt zwar noch nicht so viele Städte zur Auswahl, aber das ist hier Nebensache).

Mica bietet nach einer Suche viele interaktive Elemente an. Leider sind die verwendeten Icons teilweise unbeschriftet, und mir ist deren Bedeutung nicht ganz klar.

    Fail #6: Unbeschriftete, intuitiv nicht verständliche Icons auf den interaktiven Elementen.

Fazit

Zusammenfassend habe ich bei meinen ersten privaten Chatbot Nutzungserfahrungen folgende Good Pracitices erlebt:

    Good Practice #1: Der Bot versteht sowohl Stichworte, als auch (fast) ganze Sätze.
    Good Practice #2: Die schrittweise Abfrage und Eingabe der relevanten Kriterien.
    Good Practice #3: Inspirierendes Intro mit einem Bezug zu dem ersten inhaltlichen Vorschlag.
    Good Practice #4: Die interaktiven Elemente sind verständlich beschriftet.


Und über folgende Fails ärgerte ich mich:

    Fail #1: Ich kann relevante Kriterien einer Suche (Flugverbindung) nicht intuitiv ändern.
    Fail #2: Eine Suche liefert keine passenden Ergebnisse.
    Fail #3: Es werden – für ein Chatbot-Interface – sehr viele Angebote angezeigt. Und leider keine Option, wie man die Auswahl weiter einschränken könnte.
    Fail #4: Die in den interaktiven Elementen vorgeschlagene Befehle werden über eine Texteingabe nicht verstanden.
    Fail #5: Frühe (im Sinne der User Journey) Verlinkung auf weitere Seiten, so dass der Chatbot verlassen werden muss.
    Fail #6: Unbeschriftete, intuitiv nicht verständliche Icons auf den interaktiven Elementen.


Was können Sie aus diesem Beitrag über ihren Chatbot, oder ihr Chatbot-Vorhaben mitnehmen?

Erstens: Schauen Sie sich die Liste der Fails und Good Pracitices an (und setzen Sie die daraus ableitbaren Folgerungen entsprechend um).
Und zweitens, bevor Sie loslegen und ihren Chatbot weiterentwickeln, oder einen neuen Chatbot entwickeln: Probieren Sie selbst ein paar Chatbots aus! Dadurch bekommen Sie ein Gefühl dafür, wie sich die Art und Weise der Interaktion mit einem Chatbot für den/ihre Nutzer anfühlt.

Haben Sie auch schon Fails und/oder Good-Practices mit Chatbots erlebt? Dann lassen Sie uns gerne daran teilhaben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.