[SL] Frühzeitig realistisches Feedback einholen, Beispiel Produkt-Empfehlungen

Gutes Scope Management heißt auch: Scope so strukturieren, dass man frühzeitig realistisches Feedback einholen kann. Nicht nur Feedback hinsichtlich der Qualität des Codes, sondern auch hinsichtlich des zu erwartenden Nutzens. Ich will das heute mal an einem Beispiel erläutern: Auf der Detailsseite zu einem Produkt sollen weitere Produkte zum Kauf empfohlen werden, es geht also um eine “Recommendation Engine” für unseren Webshop.

Wonach kann man diese Empfehlungen machen? Da gibt es viele Möglichkeiten. Man kann nach Produkteigenschaften gehen, also für einen grünen Rock einfach weitere grüne Röcke vorschlagen. Oder, das wohl bekannteste Verfahren, Warenkörbe auswerten: Kundinnen, die grüne Röcke gekauft haben, haben auch weiße Handtaschen gekauft. Wenn man eine Fachabteilung fragt, wird sie sich wahrscheinlich alle denkbaren Möglichkeiten wünschen. Besonders, wenn das Budget nur einmal im Jahr freigegeben wird, bestellt man im Fachkonzept lieber alles auf einmal.

Diese Fragen sollten im Konzept unbedingt beantwortet werden:

Für den Erfolg einer Recommendation Engine kann man verschiedene Metriken ansetzen:

Frühzeitiges Feedback ist wichtig, weil wir so unsere (immer begrenzten) Mittel sinnvoll konzentrieren können. Dazu sollten wir uns immer fragen: Wie können wir so früh wie möglich Feedback bekommen? In der Lean-Startup-Bewegung hat man das verinnerlicht: Wie erfahre ich möglichst früh, ob überhaupt jemand mein neuentwickeltes Produkt haben will? Dazu erstellt man ein “Minimum Viable Product” (MVP), das gerade genug Funktionalität hat, um am Markt Feedback zu bekommen. Das MVP ist oft überraschend klein, meist viel kleiner als man zunächst denken würde.

Für unsere Produktempfehlungen sollten wir das Projekt so aufbauen, dass wir eine ganze Reihe von Feedback-Zyklen durchlaufen können, statt nur eine einzige Maximalvariante zu implementieren und ganz am Ende zu testen. Für den ersten Feedback-Zyklus können wir gewissermaßen mit zwei MVPs starten:

Die erste Methode (zufällige Auswahl) ist nicht nur sehr einfach zu implementieren. Sie gibt uns auch die erste Messlatte: alle weiteren Methoden sollten signifikant besser sein.

Ich weiß nicht, ob man eine sorgfältig gemachte manuelle Empfehlung mit einem automatisierten Verfahren überbieten kann. Wir sollten es auf jeden Fall versuchen. Das wird also unser Benchmark: Ein Algorithmus, der manuelle Empfehlungen signifikant übertrifft, ist richtig gut.

Manuelle Empfehlung wird wahrscheinlich nicht für alle Artikel möglich sein, es heißt dann “That won’t scale”. Zum Vergleich: der Adidas Onlineshop hat “über 7000 Produkte”. Wir könnten einfach eine zufällig gewählte Teilmenge von 200 Podukten manuell bearbeiten, um damit eine Grundlage für Tests zu haben.

Obwohl: man sollte die manuelle Empfehlung nicht voreilig verwerfen. Derek Sivers hat als CEO bei CD Baby anfangs alle neu hereinkommenden CDs persönlich mit Empfehlungen versehen. Als es dann 100 Alben pro Tag waren, haben sie jemanden in Vollzeit eingestellt, um sich das anzuhören. Mit ein bißchen Unterstützung kann man bestimmt 10 Produkte pro Stunde mit Empfehlungen versehen, das wären dann einmalig 700 Stunden Zeitaufwand für den ganzen Adidas Onlineshop.

Übrigens: Die Alternative “es von Hand machen” wird oft voreilig ausgeschlossen, analog zum Make or Buy Test für gutes Scope Management können wir formulieren:

Wenn das Scope Management nicht zugunsten einer manuellen Lösung entscheiden kann, dann ist es nicht hoch genug angesiedelt.

Wir machen also die beiden Minimalvarianten (zufällige und manuelle Empfehlungen) zuerst, um so frühzeitig eine Recommendation Engine im Produktivbetrieb zu haben. Das hat etliche Vorteile:

Apropos Feedback: Haben Sie auch schon mal erlebt, dass eine eher “primitive” Ausbaustufe eines Features überraschend effektiv war? Antworten Sie einfach auf diese Email.

Matthias Berth

Alle Emails