Net als je website kan het A/B-testen van je e-mail marketing campagnes een enorm verschil maken in je conversiepercentages. Het is veruit de beste manier om er achter te komen of je ontwerp, tekst en verzendschema succesvol is.
Maar ook e-mail marketing heeft zo zijn eigen uitdagingen. Daarom delen we in dit artikel van Marketingprofs 10 do’s en don’ts voor het A/B-testen van e-mail marketing campagnes.
Doen: test zaken die terugkerende voordelen hebben
Er zijn enorm veel verschillende variabelen die je in je e-mails kunt testen. En hoewel sommige variabelen intrigerend zijn (wat gebeurt er als je in het onderwerp hoofdletters gebruikt voor elk woord?), zijn sommige tests onnodig. Artikelen als deze zijn bedoelt om je te inspireren, niet om je een to-do-lijst te geven met allemaal tests die misschien voor jou niet relevant zijn. Jouw publiek is uniek voor jouw campagne.
Maar goed dan, ter inspiratie. Als je bijvoorbeeld afbeeldingen voor sportkleding test, kan je bijvoorbeeld variabelen testen als productafbeeldingen op een achtergrond, het gebruik van modellen, of geposeerde foto’s vs. actiefoto’s. Probeer factoren te kiezen die je inzichten geven die je ook in toekomstige e-mail campagnes kunt gebruiken.
Wees geduldig: A/B-testen is een wetenschap. Leren wat te A/B-testen is een kunst.
Niet doen: zaken testen die maar op één e-mail van toepassing zijn
We snappen het: toen wij net begonnen met A/B-testen wilden we ook de hele wereld testen! Maar A/B-testen kost ook tijd en dus moet je soms beslissingen maken. Als je één keer per jaar al je klanten een kerstwens toestuurt, dan is het waarschijnlijk niet de moeite waard om de kleur van de kerstballen te testen.
Als je die kerst e-mail dan toch nuttig wilt gebruiken, test dan een algemene variabele waar je bij een vorige test niet aan toe kwam.
Doen: test als een wetenschapper
De wetenschap lijkt heel snel te gaan, maar een wetenschappelijk proces gaat eigenlijk heel langzaam. Als ze een geneesmiddel tegen een bepaalde ziekte willen testen, dan gooien ze niet twee dingen naast elkaar en kijken ze welke het beste werkt. Een wetenschappelijke testmethode kijkt naar details, zodat ze alle andere mogelijke antwoorden uit kunnen sluiten.
Een slechte manier om e-mail headlines te testen is bijvoorbeeld:
A: Koop nu!
B: T-shirts nu in de uitverkoop vanaf €4,99
Stel dat één van de twee testen het beter doet, weet je dan waarom?
Een betere test zou zijn:
A: Koop nu een t-shirt vanaf €4,99
B: Koop nu een t-shirt vanaf €4,99 in allemaal kleuren en stijlen
Niet doen: ‘voor en na’ testen
Een e-mail versturen in de ene week, en de andere e-mail versturen in de andere week lijkt een interessante test zolang alle andere factoren gelijk blijven. Maar hoe weet je dat? Misschien is het juist wat er in die week gebeurt is dat een doorslaggevende factor blijkt te zijn.
Ideaal wil je beide testvarianten op precies hetzelfde moment versturen. En als je bijvoorbeeld de dag of het tijdstip wilt testen, zorg dan dat je goed rekening houdt met de overige variabelen.
Doen: vertaal data als observaties
Als je data alleen maar cijfers laat zijn kan het nogal verwarrend zijn. Test B resulteerde in 5% minder kliks, maar een 8% hogere click-through rate. Is dat… goed? Gebruik duidelijke verklaringen om te communiceren wat er nu gebeurt is.
Als je kijkt naar het aantal kliks, vraag jezelf dan af: voor iedereen die deze e-mail ontvangen heeft, zorgde deze test er voor dat er meer mensen de e-mail opende?
Als je een inter element test:
Voor iedereen die deze e-mail opende, verbeterde deze test de click-through rate?
Voor iedereen die deze e-mail opende, zorgde deze test voor meer bestellingen?
Voor iedereen die doorklikte vanuit deze e-mail, veranderde dit de waarschijnlijkheid dat ze iets bestelden?
Het vertalen van de data naar resultaten maakt duidelijk wat er nu daadwerkelijk verandert is en welke informatie niet relevant is voor je A/B-test.
Niet doen: te snel conclusie trekken
Natuurlijk is het hartstikke mooi als je binnen de eerste 2 uur al fantastische data binnen ziet stromen, maar trek niet te vroeg je conclusies. De eerste uren van een e-mail marketingcampagne zijn vaak niet representatief. Mensen die snel reageren op een e-mail gedragen zich vaak anders dan mensen die de e-mail pas later lezen.
Een goede richtlijn is om 24 uur, of zelfs 48 uur te wachten tot je conclusies begint te trekken. Uiteraard kunnen observaties tussen de resultaten in de eerste 2 uur en de uiteindelijke resultaten de inspiratie vormen om tests te doen die inzicht geven in het verschil in de snelle reageerders en de late lezers.
Doen: wees realistisch
Doe geen tests waarvan je eigenlijk al verwacht dat ze statistisch niet significant zullen zijn. Of als je ze dan wilt doen, bewaar deze test dan voor een keer dat je niets anders te testen hebt. Een tool als abtestguide.com kan je helpen om te berekenen wanneer een test significante resultaten toont.
Niet doen: deel je ontvangers niet te veel op
Stel je hebt 5000 ontvangers van je nieuwsbrief en je verstuurd 2 nieuwsbrieven per week. Hoeveel varianten kan je dan iedere week testen? Het antwoord verschilt per doelgroep, maar het is belangrijk dat je je e-mail lijst niet te vaak opdeelt. Niet alleen is het dan moeilijker om significante resultaten te krijgen, maar de kans wordt ook kleiner dat iedere testpopulatie nog representatief is.
Doen: handelen naar je resultaten
Wanneer je de data hebt bekeken en vertaald naar bruikbare tips, handel er dan ook naar! Als de afmetingen van je call-to-action afbeelding er toe hebben geleid dat je meer click-throughs heb gekregen, gebruik die nieuwe afmetingen dan in je volgende tests.
Niet alleen laat je conversie liggen door verbeteringen niet door te voeren, maar het doorvoeren van significante inzichten kan leiden tot nog meer significante inzichten. Gebruik in je volgende e-mail niet alleen de nieuwe afbeelding, maar test dan bijvoorbeeld de kleur van de tekst, of de tekst zelf.
Niet doen: aannemen dat je resultaten permanent zijn
Een van de redenen dat A/B-testen is ontstaan is omdat de wereld van e-mail, e-commerce en consumentgedrag constant aan verandering onderhevig is. Toen je de keuze had tussen een zwarte T-Ford of een zwarte T-Ford was het idee van A/B-testen nog niet echt relevant, maar dat is niet meer het tijdperk waarin we leven.
Resultaten van een A/B-test die je vandaag gedaan hebt, zijn mogelijk over een jaar al niet meer relevant. Of misschien morgen al niet meer. Wees niet bang om belangrijke factoren meerdere keren te testen voordat je ze doorvoert. En zorg dat je regelmatig eens goed nadenkt waarom je bepaalde keuzes maakt, en hoe oud de inzichten zijn waarop je die keuzes baseert. Misschien is het inmiddels toch tijd om die link naar je eens zo populaire Hyves-pagina weg te halen..
Reacties (1)