Versnel je groei in 2024

  • Inzichten van 24 digitale experten
  • 47 concrete tips die je kan toepassen
  • Thema’s rond: data, contentmarketing, videomarketing, customer experience, social selling, customer journeys, …
  • 63 pagina’s vol groeiversnellers
  • 4 podcasts met 4 topmarketeers
Download whitepaper

Een A/B-test voor contentmarketing, hoe doe je dat?

In marketing is de A/B-test zowat de oermethode om uit te zoeken of je acties werken. Kan je het dan ook toepassen op contentmarketing? Zeker wel. We reiken een aantal manieren aan om dat concreet te maken.

Een A/B-test, ook wel bekend als een splittest, is een methode die twee versies van bijvoorbeeld een pagina op je site of een app met elkaar vergelijkt. Doel van de vergelijking is uitzoeken welke versie de beste prestaties op de mat legt.

Op die manier is een A/B-test in essentie een experiment waarbij je de content willekeurig aan gebruikers voorlegt. Daarna bewijst statistiek vaak welke variant het beter doet in functie van de contentdoelstelling die je nastreeft.

Alternatieven bedenken voor een A/B-test is geen nattevingerwerk, maar in het beste geval een invulling ontstaan uit de data over je publiek, hun customer journey en de manier waarop ze content consumeren.

Share on Twitter:

> Lees ook: Goede content is niet goedkoop

Hoe werkt een A/B-test?

Elke A/B-test kan je volgens een vaste procedure laten verlopen. Afhankelijk van de schaal en de regelmaat kan je daarvoor ook software inzetten. Dit zijn de grote stappen van een A/B-test:

– Kies je content. Selecteer bijvoorbeeld een artikel op je corporate site. Veelal testen bedrijven landingspages, maar je kan het net zo goed doen met e-mails of met een call-to-action. Daarbij is het goed om rekening te houden met de specifieke kenmerken van de content in kwestie. (zie verderop in dit artikel).

– Denk over een betere variant. Maak van de geselecteerde pagina een versie die beter zou kunnen zijn. Dat is geen nattevingerwerk, maar in het beste geval een invulling ontstaan uit de data over je publiek, hun customer journey en de manier waarop ze content consumeren.

– Laat de twee varianten testen. Toon beide varianten aan een publiek. Split test software, beschikbaar in onder andere marketing automation pakketten, kan hier van pas komen om versie A naast versie B te plaatsen.

– Verzamel data over de twee varianten. Dat kan gaan om info over het clickgedrag, het invullen van formulieren of de leesduur per pagina. Laat de test lang genoeg lopen om significante info te verzamelen.

– Vergelijk de resultaten statistisch en kies de variant die het best scoort.

Denk mediumspecifiek

Nu is content een brede paraplu en is het goed om te kijken hoe je een A/B-test op elk van de belangrijke componenten kan toepassen. Je hoeft niet altijd een hele pagina te testen, maar kan ook onderdelen splitten. Enkele voorbeelden.

1. A/B-test voor titels

A/B-test titelDe titel is zonder twijfel een van de kernelementen van je content. Of het nu gaat om de titel boven een artikel of die boven een YouTube-filmpje. Is het de bedoeling van een A/B-test om de perfecte titel te vinden? Neen. Selecteer een reeks van goede opties, beperk de shortlist tot de twee beste en leg ze voor.

Genereert je site de meeste bezoekers via je e-newsletter, test de titels dan via e-mail. Zend de ene helft van je database een mail met titel A en de andere helft met titel B.

Share on Twitter:

Dat doe je best door de ene titel voor te leggen aan de helft van je publiek, de tweede aan de andere helft. Denk daarbij na over je distributie. Genereert je site de meeste bezoekers via je e-newsletter, test de titels dan via e-mail. Zend de ene helft van je database een mail met titel A en de andere helft met titel B.

Idem voor social media. Post bijvoorbeeld een tweet op verschillende momenten met verschillende titels op verschillende kanalen om te leren welke post de meeste impact heeft. Je kan het ook paid uitproberen, met bijvoorbeeld sponsored content in twee varianten.

2. A/B-test voor foto’s

A/B-testDat beelden als content voor meer engagement zorgen, is al lang een vast principe, maar de keuze voor de juiste beelden kan je ook met een splittest verfijnen. Het is uiteraard niet de bedoeling om bij elk artikel de keuze voor deze of andere foto te splittesten, maar je kan wel uitzoeken welke soort foto’s het best werken.

Zo kan je rond een kernonderwerp een reeks van beelden selecteren. Allen hebben ze op een of andere manier te maken met je onderwerp, maar ze hebben een verschillend uitgangspunt. Onderscheid bijvoorbeeld beelden die steevast mensen tonen, animatie- of getekende beelden, beelden die een keyword tonen,…

Zorg altijd voor beelden van gelijke kwaliteit, zodat dit het oordeel niet kan beïnvloeden. Eens je de set klaar hebt, kan je aan de slag en eenzelfde artikel met verschillende kopbeelden verspreiden om het succes te vergelijken.

3. A/B-test voor de lengte van je content

Houd je publiek van lange artikels of van korte? Van snelle filmpjes of van heuse docu’s. Data over hoe lang je kijkers blijven kijken, vertellen al iets, maar bijvoorbeeld leestijd is al een pak moeilijker in te schatten. De tijd die een lezer op een pagina doorbrengt (via Google Analytics) zegt al iets, maar is niet altijd een indicatie van lezen.

Je kan terugvallen op studies, zoals deze van Medium, die de ideale lengte van een artikel 1.600 woorden of om en bij 2.000 tekens schat. Zo’n lengte staat voor een leesduur van zeven minuten. Maar met evenveel goed wil, kom je uit bij studies die voorspellen dat lange teksten (longreads) in opmars zijn en op de gratie van Google kunnen rekenen.

Je kan ook kiezen voor een meer complex opzet en binnen je verschillende buyer persona’s een split maken om te kijken hoe zij reageren.

Share on Twitter:

Dit kan bovendien ook nog eens sterk variëren volgens onderwerp en sector. Testen kan met andere woorden zeer goed van pas komen. Werk eenzelfde onderwerp uit op 2.000, 4.000 en 8.000 tekens. Stuur deze gesplit naar je database en bekijk de resultaten (geen A/B maar A/B/C-vergelijking dus). Je kan hetzelfde doen voor korte en lange video’s.

Je kan echter ook gaan voor een meer complex opzet en binnen je verschillende buyer persona’s een split maken om te kijken hoe je verschillende doelgroepen reageren. Op zich een principe dat je ook bij titels of foto’s kan toepassen, maar dat bij lengte wel aan relevantie wint.

4. A/B-test je invulformulieren

Je wil leads verzamelen en misschien werkt je content daar uitstekend voor, maar wringt het schoentje bij de invulformulieren. Ook die kan je testen. Form A/B-testJe kan variëren met de lengte (het aantal in te vullen velden), maar bijvoorbeeld ook met het type vragen (wat gaat te ver en wat niet?). Of nog: waar plaats je het formulier op een pagina?

Selecteer vervolgens een stuk content met een goede conversiegraad en bezorg het met de verschillende formulieren aan je publiek.

5. A/B-test je CTA’s

CTA A/B-testOok voor calls-to-action kan je zeer specifiek gaan splitten. Of een CTA aanslaat, hangt samen met de inhoud uit de content waarop een CTA bijvoorbeeld volgt. Je kan de coherentie testen (horen content asset en CTA wel samen?), maar net zo goed of een onderwerp sterk genoeg is om er via de CTA vervolgens een formulier aan te koppelen.

Naast het inhoudelijke kan je bijvoorbeeld de vormgeving van je CTA’s in een split vergelijken of opnieuw de plaatsing ervan.

Conclusie: test je performantie

Content maken en verspreiden, is een proces van keuzes maken. Hoe meer zicht je krijgt op de impact van dat radarwerken aan beslissingen (het hoeft niet altijd ‘goed’ of ‘fout’ te zijn), hoe beter het eindresultaat uiteindelijk wordt.

Een A/B-split klinkt een beetje als rocket science, maar is het niet. Doe het zo vaak je kan en durf de lessen nadien integreren in de dagelijkse praktijk.

14 redenen waarom jouw contentmarketing niet werkt

Heb je weinig of zwakke leads, weinig bezoekers, weinig clicks? We sommen in deze whitepaper 14 redenen op waardoor het fout kan lopen en geven tips hoe je dit kan vermijden.