#12: Jag har struntat i att skicka A/B-testdata till mitt analysverktyg
Det har hänt att jag glömt, eller struntat i, att integrera mitt A/B-testverktyg med Google eller Adobe Analytics. Det leder till två problem:
- Jag saknar data för viktiga metrics och segment eftersom A/B-testverktyget oftast inte spårar allt som mitt analysverktyg kan göra.
- Jag har bara en källa till data vilket blir en risk om implementationen av testet varit felaktig.
Jag är noga med att integrera t.ex. Optimizely med Google eller Adobe Analytics. Jag följer upp att resultatet ser likadant ut i både A/B-testverktyg och analysverktyg.
#13: Jag har missat att segmentera A/B-test
Flera gånger har jag för tidigt avfärdat hypoteser när jag gått igenom resultat av genomförda A/B-test. Det har på ytan visat sig att det generiska resultatet inte visat på någon förbättring av effekter alls.
Testa inte samma generiska upplevelse. Uppsidan blir ofta större vid kontextoptimering.
I själva verket har det visat sig att det funnits stora förbättringar inom vissa segment (förstagångsbesökare, besökare från kampanjer, mobilanvändare, etc) som inte syns på den aggregerade nivån.
Förutom att vi kan personalisera upplevelse, design och landningar är det också mycket svårt att få till stora positiva förändringar på generiska besökare i A/B-test. Generiskt testande ger generiska resultat, som någon skrev.
Jag tycker att det bästa är att segmentera redan innan en genomför test. Alltså sätta upp olika test per segment istället för att segmentera resultatet. Användare i segment har inte sällan olika behov. Försök förstå dem, adressera dem och utnyttja optimeringsmöjligheten. Testa inte samma generiska upplevelse. Uppsidan blir ofta större vid kontextoptimering.
Förutsättningar
#14: Jag har underskattat användarens motivation
Det är inte ovanligt att intressenter och beställare går på konferenser och läser bloggar som visar på fantastiska resultat av A/B-test. På små förändringar. Förväntningar på stora, varaktiga resultat av A/B-test är höga. Flera gånger har jag accepterat uppdrag där utsikterna för att förbättra effekterna har varit små.
I många fall har det har visat sig att användarna har varit så motiverade att lösa sina problem att en kommer undan med ganska usel UX. T.ex. boka läkartid online, göra en adressändring, ansöka om bygglov, köpa en produkt som bara finns på ett ställe. Det behöver inte vara waste att jobba med dessa processer, men risken finns att förbättringarna blir så små att optimeringsarbetet inte blir kostnadseffektivt.
Nu försöker jag först förstå hur stor motivationen är hos användaren. Om användaren kan genomföra processen på andra sätt eller hos konkurrenter. Och hur höga barriärerna är för alternativa sätt.
#15: Jag har lagt ned analyticstid på saker som jag inte kan påverka
Det är inte ovanligt att jag tagit uppdrag där kunden “vill börja jobba datadrivet”. Kunden har många gånger varit bestämd kring vad som ska göras, och det har varit svårt att påverka detta. Det kan handla om att genomföra A/B-test eller sätta upp prydnadsdashboards och rapporter.
När kultur och politik sätter stopp finns det bara en sak att göra om du vill växa eller åstadkomma något: byta uppdrag eller arbetsgivare.
I själva verket har mycket av arbetet varit ren och skär waste. Kultur och politik hos organisationen har ändå gjort att beslut inte tas på data. Bara på “rätt” data. Dashboards och rapporter används inte för analys och hypotesgenerering utan bara för rapportering. A/B-test sätts upp på för lite trafik. En propsar på att genomföra experiment som ger uppenbart begränsat värde och insikter.
Fler av dessa frustrerande problem kan lösas med hjälp av kunskap och coachning. Men när kultur och politik sätter stopp finns det bara en sak att göra om du vill växa eller åstadkomma något: byta uppdrag eller arbetsgivare.
Nuförtiden är jag noggrann med att åtminstone försöka förstå hur kultur och politik fungerar i organisationen innan jag tackar ja till ett uppdrag. En bra fråga att ställa för att snabbkolla kulturen är “När tog ni senast bort en skeppad feature från er produkt?”. Svaret visar ofta på hur väl organisationen följer upp business outcome och agerar på data.
#16 Jag har jobbat som specialist utanför utvecklingsteamet
Ganska ofta har jag jobbat som analysresurs utanför utvecklingsteamet, speciellt när jag jobbat med flera team samtidigt. Det brukar inte sluta bra av flera skäl.
- Det är svårt att påverka prioriteringar i backloggen (som kan hindra mig).
- Det blir ofta en extra uppförsbacke trovärdighetsmässigt när en presenterar analys eller föreslår hypoteser att validera (not invented here-syndromet).
- Jag har missat produktjusteringar, buggar och insikter som bara kommuniceras inom teamet.
- Avståndet mellan konceptutvecklare/UX:are och mig har blivit för stort.
Nu försöker jag alltid se till att jag är en del av ett utvecklingsteam. Analyticsrollen ger bäst utväxling när metoderna naturligt integreras i det vanliga produktutvecklingsarbetet. I research, i hypotesvalidering, i uppföljning och i prioritering.
Ständigt lärande
Misstag gör jag hela tiden. Det är inget jag oroar mig för så länge jag lär mig och inte gör om dem (för ofta). Snarare skulle jag oroa mig om jag inte vågar testa nya metoder, verktyg eller infallsvinklar till problemlösning, förståelse och hypotesgenerering.
Kör hårt. Det är kul på vägen.