“Vind het best mogelijke antwoord voor zoekmachines en gebruikers”

SEO was altijd een proces waarvan het resultaat duidelijk werd na invoering van de aanpassing. Dus vragen als: “Wat gaat het ons opleveren?”, “Wat is het effect van deze (specifieke) optimalisatie?”, “Is deze uplift ons werk of komt het misschien door een Google update?”, “Wat voor een toename van het organisch verkeer richting de website levert dit op?” werden pas na de implementatie beantwoord.

Met een SEO A/B test kun je SEO optimalisaties (gesegmenteerd) valideren, zodat je de bewezen beste variant site-breed kan doorvoeren.

Met SEO A/B testen kun je er op vertrouwen dat alle wijzigingen die worden doorgevoerd ook positieve resultaten opleveren. Daarmee kan voorkomen worden dat je als organisatie tijd, geld en energie verspilt aan wijzigingen die uiteindelijk geen of een beperkt positieve bijdrage leveren.

SEO A/B testen maakt het mogelijk om op gedetailleerd niveau de geplande wijzigingen te testen. We gaan op zoek naar het best mogelijke antwoord voor zowel gebruikers als (zoek)machines.

Hoe werkt SEO A/B testen?

Het A/B testen voor SEO-doeleinden functioneert anders dan bijvoorbeeld CXO testen. Bij een CXO test worden de bezoekers verdeeld in twee groepen waarbij elke groep één van de twee varianten aangeboden krijgen. Bij een SEO test worden echter de aangeboden pagina’s verdeeld in twee groepen. Op de variant-paginagroep wordt een SEO wijziging doorgevoerd en de controle-paginagroep blijft onveranderd. Alle gebruikers krijgen pagina’s vanuit de variant-paginagroep en controle-paginagroep te zien. Zoekmachinebots, zoals Googlebot, crawlen pagina’s vanuit zowel de variant-paginagroep als de controle-paginagroep en ervaren daarbij altijd hetzelfde als een gebruiker.

Met SEO A/B testen worden de groepen onderverdeeld vanuit een set pagina’s met gelijke kenmerken, bijvoorbeeld categoriepagina’s op een e-commerce website. Op deze manier krijg je twee groepen aan categoriepagina’s in de index van de zoekmachine, waarbij elke groep anders presteert in de organische zoekresultaten. Wanneer de variant-paginagroep nu beter presteert dan de controlegroep pagina’s, zal dat resulteren in (relatief) meer organisch zoekverkeer of zichtbaarheid van die pagina’s.

Onze aanpak

Onze aanpak is gebaseerd op een wetenschappelijk voorspellingsmodel. Dit stelt ons in staat om de variant en de (gemodelleerde) controle te isoleren en te vergelijken. Het model is contrafeitelijk, wat betekent dat we willen weten wat er gebeurd zou zijn wanneer de wijziging niet zou zijn doorgevoerd. Dat vergelijken we met de prestaties van de variant-paginagroep. Om dit te kunnen doen hebben we een forecast nodig die gevormd wordt door historische data.

Elke test heeft een pre-interventie en post-interventie periode. In de pre-interventie periode wordt het model gevormd, hiervoor gebruiken we historische data van de twee groepen. Wanneer de test wordt gestart gaat de post-interventie periode in, wat betekent dat de wijziging is doorgevoerd. Tijdens deze periode wordt het model toegepast. De set aan controlepagina’s wordt gebruikt om het model context te geven aan eventuele externe invloeden. Hierdoor houdt het model rekening met:

  • Seizoensinvloeden
  • Google algoritme-updates
  • SEO-wijzigingen van concurrenten
  • Overige externe factoren

Wanneer er tijdens onze test iets anders verandert (bijvoorbeeld de seizoensinvloeden), dan zal het model dat detecteren en daar rekening mee houden. Het model herkent dus dat een toenemende zoekvraag (beïnvloed door het seizoen) niet het resultaat is van onze wijziging maar afkomstig is uit externe factoren. Door deze externe factoren te filteren krijgen we het inzicht in wat de impact van een SEO wijziging werkelijk is.

Doordat onze methodiek van SEO A/B testen platform onafhankelijk is, kunnen onze tests worden uitgevoerd via bijvoorbeeld een CMS of een (Server side) Testing tool.

SEO A/B Dashboard

De resultaten van de test worden gepresenteerd in een dashboard. Hierop is per metric (bijvoorbeeld non-branded kliks) het volgende overzicht is te zien. (zie figuur 1)

Fig 1. Dashboard weergave van de non-branded click impact

Naast de diagrammen evalueren we per metric een viertal zaken om een beeld te krijgen van de impact van de wijziging:

  • Procentuele impact van de SEO wijziging
  • Mate van statistische zekerheid zodat we weten dat het effect volledig te herleiden is tot de wijziging
  • Dagelijks additioneel verkeer of zichtbaarheid
  • Cumulatief additioneel verkeer of zichtbaarheid (inclusief betrouwbaarheidsinterval)

We kijken uiteindelijk naar het prestatieverschil tussen de gemodelleerde controlegroep en de variant ongeacht de trend. Waarmee een betrouwbare uitkomst over onze SEO aanpassing is gewaarborgd.

Conclusie

SEO is altijd een wereld geweest van invoeren en afwachten. Met de invoering van onze op een voorspellingsmodel gebaseerde SEO A/B test methodiek, is een bewezen, significant en betrouwbare oplossing gevonden om wijzigingen met een zekere uitkomst door te voeren, of wellicht uit te stellen.

Voor organisaties die het belang van SEO onderkennen is SEO A/B testen een effectief middel om nog meer (zoek)resultaat te behalen. Door de testresultaten in een dashboard inzichtelijk te maken is het maken van de (business)beslissingen eenvoudig te onderbouwen. SEO A/B testen is dus inderdaad: De datagedreven benadering van de beste SEO keuze.

Lees meer over SEO A/B testen in de praktijk in onze succescase bij Hunkemöller.