10 0

Warum A/B-Tests wichtig sind

29. Mai 2022

Leitlinien für wirksame A/B-Tests 

Wenn Du mit A/B-Tests beginnst, stellen sich Dir gleich viele Fragen. Welche Variable solltest Du testen? Wie lange sollte der Test dauern? Was macht einen Test signifikant? Die Dinge werden schnell verwirrend. Es gibt bestimmte Richtlinien, die Du beachten solltest, bevor Du Tests durchführst. 

1. Führe jeweils nur einen Test durch 

Nehmen wir an, Du hast ein neues Angebot, das über eine E-Mail mit einem Link zu einer Landing Page beworben wird. Du könntest Dich entscheiden, das Zielgruppensegment zu testen, an das Du das Angebot sendest, und Du könntest auch daran interessiert sein, zu testen, welches Bild der Landing Page die Conversions verbessert. Wenn Du jedoch beide Tests gleichzeitig durchführst, bringst Du die Ergebnisse durcheinander. Woher willst Du wissen, welche Änderung sich letztlich auf die Konversionsraten ausgewirkt hat? Vielleicht war es die Zielgruppe, vielleicht war es das Bild, oder vielleicht war es beides! Wenn Du jedoch eine Hypothese nach der anderen testest, erhältst Du Ergebnisse, die zu eindeutigen Schlussfolgerungen führen. 

2. Teste auch kleinere Änderungen 

Auch wenn es naheliegend ist, dass große, weitreichende Änderungen Deine Konversionsraten erhöhen können, sind die kleinen Details oft genauso wichtig. Denke bei Deinen Tests daran, dass selbst eine einfache Änderung, wie z. B. die Änderung der Farbe Ihrer Call-to-Action-Schaltfläche, große Verbesserungen bewirken kann. 

3. Du kannst das gesamte Element einem A/B-Test unterziehen 

Du kannst zwar eine Buttonfarbe oder einen Hintergrundton testen, aber Du solltest auch in Erwägung ziehen, Deine gesamte Landing Page, Call-to-Action oder E-Mail zu einer einzigen Variablen zu machen. Anstatt einzelne Designelemente wie Überschriften und Bilder zu testen, entwirfst Du zwei völlig unterschiedliche Seiten und testest sie gegeneinander. Jetzt arbeitest Du auf einer höheren Ebene. Diese Art des Testens führt zu den größten Verbesserungen, daher solltest Du damit beginnen, bevor Du Deine Optimierung mit kleineren Optimierungen fortsetzt. 

4. Messe so weit unten im Trichter wie möglich 

Sicher, Dein A/B-Test könnte sich positiv auf die Konversionsrate Deiner Landing Page auswirken, aber wie sieht es mit Ihren Verkaufszahlen aus? A/B-Tests können einen erheblichen Einfluss auf Dein Endergebnis haben. Vielleicht stellst Du sogar fest, dass eine Landing Page, die weniger Interessenten konvertiert hat, zu mehr Verkäufen geführt hat. Achte bei der Erstellung Deines A/B-Tests darauf, wie er sich auf Kennzahlen wie Besuche, Klickraten, Leads, Konversionsraten von Besuchern zu Leads und Demo-Anfragen auswirkt. 

5. Kontrolle und Treatment einrichten 

Bei jedem Experiment musst Du eine Version des ursprünglichen Elements, das Du testest, behalten. Wenn du A/B-Tests durchführst, richtest Du Deine unveränderte Version als "Kontrolle" ein: die Landing Page, den Call-to-Action oder die E-Mail, die Du normalerweise verwenden würdest. Von dort aus erstellst Du Variationen oder "Treatments": Seiten, Aufrufe zu Aktionen oder E-Mails, die Du im Vergleich zu Deiner Kontrollversion testest. Wenn Du Dich beispielsweise fragst, ob die Aufnahme eines Testimonials auf einer Landing Page einen Unterschied macht, erstellst Du Deine Kontrollseite ohne Testimonials. Erstelle dann Deine Variation(en). 

Variante A: Kontrolle (die unveränderte, ursprüngliche Version) 

Variante B: Treatment (die optimierte Version, von der Du eine bessere Leistung erwartest) 

Du kannst die Kontrollseite ganz einfach klonen und sie verändern, um eine Treatmentseite zu erstellen.

6. Teile Deine Stichprobengruppe nach dem Zufallsprinzip auf 

Um aussagekräftige Ergebnisse zu erzielen, musst Du mit zwei oder mehr gleichwertigen Zielgruppen testen. Bei A/B-Tests für E-Mails beispielsweise muss jede Deiner E-Mail-Varianten eine möglichst ähnliche Empfängergruppe haben. Listenquellen, Listentypen und die Dauer, die ein bestimmter Name auf einer Liste steht, sind alles Faktoren, die große Unterschiede bei den Antwortquoten verursachen können. Wenn Du Deine Listen nicht nach dem Zufallsprinzip aufteilst, werden Deine Testergebnisse nicht aussagekräftig sein oder Du kannst die falschen Schlüsse ziehen. Wenn Du die Leistung von zwei oder mehr Listen vergleichen willst , solltest Du alle anderen Aspekte des Designs und des Zeitplans identisch halten, damit Du saubere Ergebnisse erhältst, die auf der Liste und nichts anderem basieren. 

7. Teste zur gleichen Zeit 

Der Zeitpunkt spielt eine wichtige Rolle für die Ergebnisse Deiner Marketingkampagne - sei es die Tageszeit der Woche oder der Monat des Jahres. Wenn Du in einem Monat Test A und einen Monat später Test B durchführst, weisst Du nicht, ob die veränderte Antwortquote auf die andere Vorlage oder den anderen Monat zurückzuführen ist. A/B-Tests erfordern, dass Du zwei oder mehr Varianten gleichzeitig durchführst. Ohne gleichzeitige Tests sind Deine Ergebnisse fragwürdig.

8. Entscheide vor dem Test über die notwendige Signifikanz 

Bevor Du Deinen Test startest, solltest Du Dir überlegen, wie signifikant Deine Ergebnisse sein müssen, damit Du entscheiden kannst, ob eine Änderung an Deiner Website oder E-Mail-Kampagne vorgenommen werden sollte. Lege das Ziel der statistischen Signifikanz für Deine Gewinner-Variante fest, bevor Du mit den Tests beginnst. Eine statistische Signifikanz von 95-99 % ist in der Regel ein guter Wert, den Du anstreben solltest. 

Webseiten und Landing Pages chevron-down