Nutzerzentrierte künstliche Intelligenz

Kaum ein Tag vergeht, an dem nicht eine neue Story über künstliche Intelligenz herausgebracht wird: selbstfahrende Autos, autonom arbeitende Roboter oder ein Computer, der den Weltmeister im Go besiegt. Das wirkt alles immer etwas mysteriös. Die künstliche Intelligenz wird als magische Black Box beschrieben, die quasi kein normaler Mensch verstehen kann. Das Thema ist definitiv extrem komplex. Aber es ist nicht so komplex, dass Normalsterbliche die Grundzüge nicht verstehen könnten. Künstliche Intelligenz verändert schon jetzt die Möglichkeiten digitaler Produkte und wird immer mehr Innovationen hervorbringen, die wir uns noch nicht richtig vorstellen können. Das wird viele von uns User Experience Professionals dazu zwingen uns mit dem Thema auseinandersetzen.

Ich möchte mich heute auf einen Teilbereich der künstlichen Intelligenz fokussieren, das Machine Learning. Beim traditionellen Programmieren müssen die Entwickler dem Computer eine genaue Anleitung schreiben, die er zu befolgen hat. Machine Learning bedeutet dagegen ganz einfach, dass der Computer aus Daten lernt und daraus seine Entscheidungen ableiten kann, ohne dass ein Entwickler dieses Verhalten explizit definiert haben muss. Anwendungen von Machine Learning sind bereits völlig alltäglich, wenngleich wir es nicht immer wissen: Onlineshops, die personalisierte Empfehlungen basierend auf meinem bisherigen Verhalten erstellen, Netflix schlägt Serien vor, die mir wahrscheinlich gefallen werden oder Siri lernt mit jedem meiner eingesprochenen Befehle meine Intentionen besser zu interpretieren.

Anwendungen müssen echte Probleme für echte Menschen lösen

Ein Klassiker, um zu veranschaulichen was Machine Learning leisten kann, ist der Software beizubringen, ob auf einem Foto eine Katze zu sehen ist oder nicht. Dazu zeigt man ihr hunderte Bilder von Katzen sowie hunderte Bildern von Nicht-Katzen und sagt ihr jedes Mal Katze ja oder nein.

Der Aufschwung des Machine Learning birgt ungeahnte Möglichkeiten. Aber wie das Beispiel mit den Katzenbildern zeigt, werden viele aufwändig entwickelte Produkte entstehen, die nicht unbedingt ein wirklich existierendes Problem lösen. Wir müssen halt nach wie vor Tage in Usability-Labs verbringen, Interviews führen, Umfragen erstellen, Fokusgruppen moderieren, usw. um zu lernen, was die Nutzer des Produkts wirklich wollen und benötigen. Jess Holbrook, UX Manager und Researcher bei Google fasst es so zusammen: „if you aren’t aligned with a human need, you’re just going to build a very powerful system to address a very small — or perhaps nonexistent — problem”. An der Stelle ändert sich für uns UXler also erst einmal gar nichts.

Prototyping von Machine Learning Experiences

Machine Learning Systeme haben die Eigenschaft, dass sie recht aufwendig angelernt werden müssen und zudem echte Daten benötigen, bis sie so weit entwickelt sind, dass sie für einen Usabilitytest geeignet wären. Wir wollen im User-Centered-Design aber nicht so viel Aufwand reinstecken bis wir die ersten Nutzertests durchführen können. Also müssen wir in unseren frühen Prototypen das intelligente Verhalten irgendwie simulieren. Seitdem Voice User Interfaces in Mode gekommen sind, erlebt die Wizard-of-Oz Methode eine Renaissance. Bei der Methode denkt ein Proband im Test er würde mit einem echten System interagieren, dabei steuert im Hintergrund ein Mensch die Interaktionen. Mit dieser Herangehensweise können wir schon sehr früh in der Entwicklung lernen, ob die Nutzer einen Mehrwert in der Anwendung sehen, wie sie damit interagieren (wollen) und welche mentalen Modelle sie in Bezug darauf haben, wie die Systeme dazulernen.

Doch das ist oftmals nur die halbe Miete. Viele Machine Learning Produkte haben ihre Stärke darin, die Software individuell auf die Nutzer anzupassen. Nehmen wir z. B. das Netflix-Feature, dass mir Vorschläge macht, welche Serien mir noch gefallen könnten. Wenn ich das als Prototyp mit Fantasie-Daten umsetze, kann sich kein Nutzer wirklich vorstellen, was dieses Feature für sie bedeuten würde. Das bedeutet, ich brauche eigentlich einen Einblick in ihre Nutzungsverhalten. Für dieses Beispiel bräuchte ich im Vorfeld eine Reihe an Serien, die sie schauen und ggf. weitere Daten über sie, um daraus abzuleiten, wie sich unser Machine Learning unterstütztes Feature verhalten würde. Das kann ich dann im Usabilitytest simulieren und bekomme von den Nutzern wertvolles Feedback. Die Lieblingsserien in einem Usabilitytest preiszugeben ist noch nicht sonderlich heikel. Schwieriger wird es, wenn z. B. persönliche Fotos, Kontoauszüge oder andere sehr private Daten benötigt werden. Hier ist es extrem wichtig die Nutzer vor den Tests detailliert darüber aufzuklären welche Daten von ihnen benötigt werden und wie damit umgegangen wird, damit am Test-Tag keine Überraschungen entstehen.

Feedback im Livebetrieb sammeln

Machine Learning nimmt Daten und versucht daraus Ableitungen zu erstellen. Ob es nun darum geht mir ein Produkt vorzuschlagen, dass ich wahrscheinlich gerne kaufen möchte oder aus einem Sprachbefehl abgeleitet werden soll, was ich am wahrscheinlichsten gesagt habe: Die künstliche Intelligenz kann und wird in manchen Fällen einfach falsch liegen. Um hier das System zu verbessern, können wir im Livebetrieb explizites Feedback der Nutzer einholen. Beispielsweise mit Fragen der Form „War XY hilfreich für dich? Ja/nein“. Oder wie es Google bei seiner Autovervollständigung macht.

Quelle: Google.de

Hier lassen sich fragwürdige Inhalte nicht nur aus moralisch-ethischen Gründen melden, sodass sie manuell entfernt werden, sondern sie beeinflussen ebenfalls das Modell der zugrundeliegenden künstlichen Intelligenz.

In welcher Form auch immer das explizite Feedback eingeholt wird: Wann und wie wir danach fragen hat einen extremen Einfluss auf die Qualität der Nutzer-Rückmeldungen. Wenn ständig Dialoge im Weg stehen á la „War diese Information für dich hilfreich? Ja/nein“ kann das ziemlich nerven und die Nutzer versuchen es einfach nur weg zu klicken. Die Kunst liegt darin das richtige Maß zu finden, so dass sowohl ausreichend viele Antworten gegeben werden als auch nicht zu sehr von der eigentlichen Software abgelenkt wird.

Künstliche Intelligenz ist Teamwork

Für UXler im E-Commerce-Bereich ist das Thema künstliche Intelligenz gar nicht mal neu. Man hat dort in irgendeiner Form mittlerweile ja fast immer mit Empfehlungs-Algorithmen nach dem Motto „Diese Produkte könnten dir auch gefallen“ zu tun. Zumindest nach meiner persönlichen Erfahrung werden die Empfehlungs-Algorithmen häufig von externen Dienstleistern geliefert und die UXler sollen einfach einen Bereich im User Interface reservieren, an dem dann die personalisierten Produkte angezeigt werden. Liebe UXler, schreit auf, wenn jemand einfach nur sagt die Inhalte seien „personalisiert“. Was soll das denn heißen? Zu viele Leute schrecken zurück vor dem Begriff der Personalisierung, weil sie denken, sie könnten die Methodik dahinter auf keinen Fall verstehen. Die Implementierung von Personalisierungs-Algorithmen ist natürlich komplex. Aber die grundsätzliche Art wie personalisiert werden soll, lässt sich für Jedermann vereinfacht erklären. Beispiel: Amazon zeigt eher Produkte, die den bisherigen Käufen eines Nutzers ähneln. Netflix empfiehlt eher Serien, auf welche die Nutzer von selbst wohl nie gekommen wären. Sie werden im übertragenen Sinne in die Ecken der Videothek geleitet, in die sie nie gegangen wären und jetzt aber total begeistert sind. Die Ansätze von Amazon und Netflix sind grundverschieden. Und trotzdem wird es genug Leute geben, die beides unter „Da wird halt was personalisiertes angezeigt“ zusammenfassen würden. Das geht so nicht. Das muss (!) ein Thema sein bei dem die UX-Abteilung mitredet.

Die Experten für Machine Learning sind dafür zuständig, dass das System korrekt aus (Nutzer-)Daten lernt, daraus Ableitungen trifft und am Ende das ausgibt, was den Nutzern am meisten bringt. Bis das gut funktioniert, ist da in den meisten Fällen ein langwieriger Prozess, in dem das Finetuning von kleinen Details am Ende eine Menge ausmachen. Unser Job als UXler ist es sie mit dem Wissen auszustatten, dass sie befähigt sich in die Nutzer hineinzuversetzen und eigenständig die richtigen Entscheidungen im Sinne nutzerzentrierter künstlicher Intelligenz treffen zu können. Und das sind nicht einfach nur technische Spezifikationen. Es sind Storyboards, Prototypen, Videos von Nutzertests – einfach alles was sie dazu befähigt nicht nur die Algorithmen zu sehen, sondern die Vision vom finalen Produkt. Aber ich gehe noch weiter. Mindestens einige Vertreter der Entwickler der künstlichen Intelligenz sollten Beobachter in wichtigen Usabilitytests sowie Teilnehmer von Kreativworkshops und Design-Besprechungen sein. So stelle ich mir Teamwork zwischen UX und Machine Learning Experten vor. Nur so bekommen wir die Nutzer und ihre Bedürfnisse ins Zentrum von Features und Produkten, die Machine Learning in ihrem Kern haben.

Portraitfoto: Richard Bretschneider

Richard Bretschneider

Senior User Experience Consultant

eresult GmbH

Bisher veröffentlichte Beiträge: 15

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.