A/B-Testing: Der große Starter-Guide

Was ist ein A/B-Test?

BLOG Artikel Bookmrk / QUELLE / Artikel  gefunden bei:
 www.t3n.de

Ein A/B-Test vergleicht die Performance mehrerer Variationen einer Website hinsichtlich ihrer Konversionen. Anders als der Name suggeriert, handelt es sich nicht zwangsweise um den Vergleich von nur zwei Variationen, sondern beliebig vielen.

Beispiel: Der für A/B-Tests zuständige Marketer eines Onlinehändlers registriert geringe Klickzahlen auf die „Kaufen“-Buttons der Produktseiten. Seine Vermutung ist, dass Besucher den unauffälligen Button nicht wahrnehmen und testet deshalb eine Version mit höherem Kontrast.

Marketer hoffen durch stetiges Testen auf eine schrittweise Verbesserung der Website hinsichtlich ihrer ganz besonderen Zielsetzung. Die erhofften Ergebnisse unterscheiden sich demnach je nach Geschäftsmodell. Deutlich wird das an folgenden Beispielen:

  • Ein Online-Händler hofft auf steigende Umsätze durch den Abverkauf seiner Produkte. Er testet beispielsweise Variationen seiner Produktseite.
  • Ein SaaS-Anbieter will die Anzahl seiner zahlenden Kunden steigern. Seine Taktik: das Testing der „Pricing“-Seite.
  • Ein werbefinanzierter Publisher hofft auf zusätzliche Besucher und testet bei jedem Artikel mehrere Variationen der Überschriften.

Warum ein A/B-Test?

Besucher wachsen nicht auf Bäumen. Sie kosten Geld, ganz egal ob man sie einkauft (bspw. AdWords) oder anlockt (bspw. Facebook). Mit cleverem A/B-Testing generieren Unternehmen höhere Umsatz- trotz gleichbleibender Besucherzahlen. Marketer steigern durch A/B-Testing demnach die Effizienz dieser „begrenzten Ressource“.

Beispiel: Eine Agentur für Webdesign aus Hannover kauft Besucher über AdWords für je einen Euro. Jeder zehnte Besucher kontaktiert die Agentur über das entsprechende Formular, eine Kontaktanfrage kostet demnach 10 Euro. Durch eine Reihe von Tests steigert die Agentur die Effizienz ihrer Landingpage und senkt die Kosten pro Kontaktanfrage damit auf 6 Euro.

Wie sollten Marketer testen?

Erfahrene Marketer raten beim A/B-Testing zu einem strikten Schema, das Testreihen die notwendige Struktur gibt. Es erleichtert Einsteigern aus den Ergebnissen ihrer Testreihen nachhaltige Erkenntnisse zu ziehen.

  1. Problem: Du identifizierst ein Problem auf deiner Website, beispielsweise geringe Klickraten auf ein wichtiges Element.
  2. Recherche: Es folgt die Recherche der einflussnehmenden Faktoren, beispielsweise ein niedriger farblicher Kontrast.
  3. Hypothese: Du formst auf Basis deiner Recherche eine Hypothese für den A/B-Test.
  4. Test: Du erstellst eine Variation der bestehende Webseite und testest sie im Rahmen eines A/B-Tests gegen das Original.
  5. Analyse: Es ist soweit, du ermittelst den Gewinner. Sollte deine Variation gewonnen haben, wird sie zum neuen „Original“. Hat sie verloren, kehrst du zum dritten Schritt zurück.

Prinzipiell lässt sich jedes auf einer Website befindliche Element testen – von Überschriften über Absätze bis hin zu Formularen und Suchboxen. Die Entscheidung für oder gegen das Testen eines Elements treffen Marketer im Rahmen der Hypothese.

 

Optimal für den Einstieg ist das Ausblenden von Elementen“, weiß Jörg Dennis Krüger von Conversionboosting . „Man lernt, welche Elemente wirklich wichtig sind und erreicht durch das Weglassen von unnötigen Elementen oft bereits merkliche Steigerungen der Conversion Rate.“

Weil Marketer in Anbetracht der begrenzten Ressource „Besucher“ nicht beliebig viele A/B-Tests einer Webseite starten können, lohnt das Priorisieren. Dabei wird vorab geschätzt, wie groß der Einfluss eines A/B-Tests ist. Auf Basis dieser Schätzung priorisieren Marketer anschließend die geplanten A/B-Tests.

Statistisches Basiswissen schützt vor Fehlentscheidungen

Varianz spielt beim Testing eine große Rolle. Viele Faktoren beeinflussen die Ergebnisse, darunter beispielsweise die Trafficquellen und die Nutzungshäufigkeit.

Auch negative Veränderungen können aus diesen Gründen kurzzeitig positive Ergebnisse erzielen. Wichtig ist, sich davon nicht aus der Ruhe bringen zu lassen und auf statistische Validität zu prüfen.

Den idealen Zeitraum für einen A/B-Test gibt es in den seltensten Fällen, man kann sich ihm aber nähern. Mithilfe von Rechnern kann man schon vor einem Test abschätzen, wie lange er wohl laufen muss.

 

Darüber hinaus raten Experten, einen A/B-Test für mindestens zwei Wochen sowie einen ganzen Kaufzyklus laufen zu lassen. Unter einem Kaufzyklus versteht man den Zeitraum vom ersten Kontakt bis zur Conversion.

Wer den Hintergrund dieser Anforderungen genauer verstehen möchte, findet auf konversionskraft.de einendetaillierten Artikel . Er erklärt die Hintergründe und gibt Hinweise zur Bestimmung des Testzeitraums.

Was ist das beste Tool?

Die Frage nach dem richtigen Tool lässt sich nicht pauschal beantworten, trotzdem gibt es einige häufig empfohlene Favoriten. Jörg Dennis Krüger rät zu VWO , AB Tasty , eTracker , Convert oder Optimizely .

Auf Anfrage von t3n.de schreibt er: Optimizely ist für alle, die „nur mal etwas rumprobieren möchten und technisches Wissen haben“. Sein eigentlicher Tipp ist aber VWO. Der Dienst hat „vielfältige Funktionen, skalierbare Angebote und eine große Community.“

„Teste mehrere Lösungen, um die Details kennenzulernen“

Wichtig sei laut Krüger, sich frühzeitig mit jQuery zu befassen oder jemanden zu finden, der sich auskennt. Die mitgelieferten Editor der meisten Anbieter, die das einfache Anpassen von Webseiten versprechen, stoßen schnell an ihre Grenzen.

Ähnlich offen äußert sich auch Nils Kattau der Berliner Agentur Conversionlift : „Alle Programme haben ihre Vor- und Nachteile. Adobe Test & Target würde ich beispielsweise niemandem empfehlen, der das noch nie gemacht hat.“

Wichtige Auswahlkriterien sind laut Krüger deshalb die einfache Integration der Webanalyse, Funktionen zum Targeting und der Qualitätssicherung. Er rät Einsteigern, „ruhig mal mehrere Lösungen ausprobieren, um die Details kennenzulernen“.