Kontakt aufnehmen
Hendrik Herms

Hendrik Herms

Geschäftsführer
Consulting
+49 531 80163311

    Ich habe die Datenschutzerklärung gelesen und erkläre mich damit einverstanden, dass die von mir im Kontaktformular eingegebenen Daten elektronisch erhoben und gespeichert werden.

    A/B-Testing

    Stand: 13.10.2022

    A/B-Testing ist ein Werkzeug zur Optimierung von Webangeboten. Nachdem das Problem einer Website genau analysiert wurde, werden Lösungsstrategien entwickelt, um die Problematik zu beheben und anschließend die beste Lösung zu ermitteln. Diese Strategien werden mittels einer alternativen Webseite getestet. Nach Ende dieses Tests werden diese Änderungen bei erfolgreichem Verlauf übernommen oder bei Bedarf noch verbessert.

     

    Definition

    Beim A/B-Testing, auch Split-Test genannt, werden zwei Varianten derselben Webseite miteinander verglichen, um die Performance zu verbessern. Damit ist nicht zwangsläufig das Laden der Seite gemeint, sondern vielmehr die Art, wie Nutzer das entsprechende Webangebot annehmen. Eine Optimierung zeigt sich dementsprechend an einer Steigerung an Traffic, Umsatz, Registrierungen oder Downloads, je nach Zielsetzung des Webangebots. Beispielsweise lassen sich dadurch Ursachen für Kaufabbrüche und Usability-Hürden identifizieren und beheben.

    Um einen A/B-Test durchzuführen, wird auf Basis der bisherigen Webseite eine weitere erstellt, die sich in einem vorher festgelegten Element unterscheidet. Die Original-Webseite (A) wird dann in der Live-Anwendung mit der neuen Variante (B) hinsichtlich ihrer Effizienz verglichen. Daher stammt der Name A/B-Testing. Durch das Setzen von Cookies wird dabei sichergestellt, dass jedem User für die Dauer seines Besuchs nur die ihm zugeordnete Variante angezeigt wird.

    Auf Basis des A/B-Tests kann anschließend eine entsprechende Marketingstrategie entwickelt werden.

    A/B-Tests werden dabei von unterschiedlichen Berufsgruppen angewendet. Dazu gehören Datenspezialisten, Marketing-Manager, Designer, Softwareentwickler und Unternehmer.

     

    Ablauf

    Zunächst muss eine Hypothese erstellt werden, die untersucht werden soll. Wo liegt das Problem? Es könnte sein, dass Kunden regelmäßig vor dem Kaufabschluss abspringen. Eine Lösungsmöglichkeit könnte es sein, den Aufbau des Warenkorbs zu ändern, sodass die Kunden den Bestellbutton schneller finden. Ob diese Lösung wirklich zum Ziel führt, wird dann mit der zu messenden KPI abgeprüft.

    Bei einem A/B-Test wird immer die Performance der gesamten Webseite verglichen. Dies ergibt besonders dann Sinn, wenn beispielsweise ein neuer Designansatz oder die Wirkung einzelner Elemente getestet werden. Wenn mehrere Elemente verwendet werden, kann nicht eindeutig bestimmt werden, wie diese sich im Einzelnen auswirken.

    Ein Beispiel: Werden bei einem Bestellbutton Text und Farbe verändert, um ihn optisch auffallender zu gestalten, zeigt das Testergebnis zwar einen Umsatzzuwachs. Jedoch ist nicht nachvollziehbar, welche Veränderung dazu beigetragen hat. Möglicherweise wirkt sich eine neue Buttonfarbe stärker aus, die Beschriftung ist nicht eindeutig genug und hält weiterhin Kunden vom Kauf ab. Hier wurde unbemerkt Potenzial verschenkt.

     

    Welche Seiten können getestet werden?

    Grundsätzlich können alle Internetseiten mit einem A/B-Test analysiert werden. Jedoch sollten vor Beginn je nach Zielsetzung Schwerpunkte gesetzt werden. Es ergibt wenig Sinn, eine FAQ-Seite zu überarbeiten, wenn das zu lösende Problem darin liegt, dass sich zu wenig Nutzer für einen Newsletter registrieren.

    Für eine Priorisierung ist es außerdem sinnvoll, Seiten mit einem hohen Traffic zu wählen, beispielsweise die Landingpages. Hierauf bewegen sich im besten Fall meist viele Nutzer, sodass auf diesen Seiten am schnellsten auswertbare Testergebnisse generiert werden. Denn für die Auswertung von A/B-Tests ist eine bestimmte Menge an Zugriffen erforderlich, die mit Landingpages oftmals erreicht werden können.

    A/B-Tests können nicht nur für Desktop-Webseiten, sondern auch für mobile Darstellungen verwendet werden. Im Zeitalter von Mobile First wird das immer wichtiger. Nur bei mobilen Apps für Android oder iOS ist das etwas schwieriger, da die Seiten hier bereits auf dem Smartphone gespeichert sind. Hierfür gibt es eigene separate Tools.

     

    Welche Elemente werden getestet?

    Welche Elemente einem A/B-Testing unterzogen werden, hängt stark davon ab, worin das Problem vermutet wird. Eine Standardlösung gibt es hierfür aber nicht. Jeder Fall ist immer ein wenig anders. Das liegt auch daran, dass sich Webseiten, deren Zielstellungen und Zielgruppen von Webangebot zu Webangebot unterscheiden.

    Allerdings können die folgenden Elemente einen Ansatzpunkt bieten, um zu entscheiden, welche Aspekte getestet werden können:

    • Titel und Überschriften: z. B. Inhalte, Position, Farbe, Formatierung
    • CTA: z. B. eindeutige Sprache, Platzierung, Farbe, Formatierung
    • Buttons/weitere Schaltflächen: Größe, Form, Farbe
    • Bilder/Images: Fokus auf technische Details oder Erzeugen einer Emotion
    • Seitenstruktur: Design, Lesefluss, Positionierung von Bildern und Text
    • Formulare: Verständlichkeit, Länge, Struktur
    • Navigation: Seitenfolgen, Formatierung, Art und Anordnung von Navigationselementen

    Anpassungen hier können die Performance signifikant beeinflussen. Die Art der Veränderung ist dabei voll und ganz abhängig von der jeweiligen Zielgruppe. Deshalb ist es unverzichtbar, die Anforderungen der jeweiligen Zielgruppe zu verstehen, um die Anpassungen entsprechend vornehmen zu können.

     

    A/B-Testing unterstützen

    Eine der wichtigsten Grundlagen eines A/B-Tests ist eine klare Bestimmung der Zielstellung. Hierbei können Web-Analytics-Daten helfen, das aktuelle Problem zu umreißen. Diese zeigen z. B., mit welcher Intention Nutzer zu einer Webpräsenz finden und auf welche Webseiten von welcher Quelle aus am häufigsten zugegriffen wird. Dies hilft u. a. bei der bereits erwähnten Priorisierung.

    Mit der Unterstützung von Heatmaps und Session-Recordings kann die Sicht des Nutzers eingenommen werden: Wie bewegt er sich über die Seite, wo liegen die Eyecatcher, wo springt der User möglicherweise ab? In Nutzer-Feedbacks wurden Problemstellungen möglicherweise bereits definiert. Feedbacks können in unterschiedlicher Form hinterlegt werden: in einem eigenen Bereich auf der Website, via Chat, E-Mail oder persönlich. Nutzer-Feedbacks stellen ein nicht zu unterschätzendes Potenzial dar.

    Usability-Tests fokussieren die technische Komponente einer Webseite. Möglicherweise ist es ein kleiner, unbemerkter Fehler im Aufbau, der dafür sorgt, dass Nutzer ab einem bestimmten Punkt nicht weiterkommen. Besonders bei responsiven Angeboten kann ein solcher Test aufschlussreiche Ergebnisse ermitteln.

     

    Vergleichbare Testmethoden

    Neben dem klassischen A/B-Testing, bei dem in der Regel nur 2, selten bis zu 4 Varianten und eine Anpassung geprüft werden, gibt es noch weitere, komplexere Testansätze.

    Zum Beispiel den Multivariate-Test (MVT), der, wie der Name vermuten lässt, mehrere Varianten testet. Hierbei wird der Traffic ebenfalls auf mehrere alternative Webseiten aufgeteilt. Die Unterschiede, die Nutzer zu sehen bekommen, bestehen jedoch aus mehreren Designelementen statt aus einzelnen. Die Seiten unterscheiden sich anders als beim klassischen A/B-Testing zudem weniger deutlich, stattessen werden die einzelnen neuen Elemente bei jeder Alternative unterschiedlich miteinander kombiniert. Bei ausreichendem Traffic kann daher sowohl auf positive als auch auf negative Wirkungen einzelner Änderungen geschlossen werden.

    Multivariate-Test und A/B-Testing stehen dabei nicht in Konkurrenz zueinander, sondern sind vielmehr zwei Methoden zur Optimierung, die einander optimal ergänzen.

     

    Bedeutung für die SEO

    A/B-Testing ist ein verhältnismäßig einfaches Werkzeug, um Lösungsansätze auf ihre Eignung zu testen. Durch das Verfahren können schnell aussagekräftige Analysen erstellt werden, die sich besonders für kleinere Veränderungen, aber auch für Webseiten mit geringem Traffic eignen. Daher spielt es auch in der SEO eine bedeutende Rolle.

    Hendrik Herms
    Über den Autor
    Hendrik Herms
    Hendrik Herms ist Geschäftsführer der Löwenstark Consulting GmbH. Meine Mission: „Ich entwickle und führe Digitalstrategien durch Beratung, Konzeption und Projektmanagement zum Erfolg.

     

    Warum A/B-Testing?

    A/B-Tests sind wichtig, weil sie Ihnen helfen können, herauszufinden, welche Version Ihrer Website oder Ihrer E-Mail-Kampagne bei Ihrer Zielgruppe am besten ankommt. Es ist eine Möglichkeit, zwei Versionen von etwas gegeneinander zu testen, um zu sehen, welche Version besser abschneidet.
    So könnten Sie beispielsweise zwei verschiedene Betreffzeilen für eine E-Mail-Kampagne testen, um zu sehen, welche mehr Öffnungen erhält. Oder Sie testen zwei verschiedene Layouts für eine Website, um zu sehen, welches Layout zu mehr Konversionen führt. Durch A/B-Tests können Sie Ihre Marketingergebnisse verbessern, indem Sie herausfinden, was bei Ihrer Zielgruppe funktioniert und was nicht.

    Was versteht man im Hinblick auf E Mail Marketing unter A/B-Tests?

    Beim A/B-Testing des E-Mail-Marketings werden zwei verschiedene Versionen einer E-Mail mit leichten Abweichungen an eine Gruppe von Personen gesendet, um zu sehen, welche Version besser abschneidet. Ziel ist es, die Effektivität Ihrer E-Mail-Kampagnen durch ständiges Testen und Optimieren kleiner Elemente zu verbessern.
    So könnten Sie beispielsweise verschiedene Betreffzeilen, Handlungsaufforderungen oder sogar die Tageszeit, zu der Sie Ihre E-Mails versenden, testen. Indem Sie herausfinden, was für Ihre Zielgruppe am besten funktioniert, können Sie Ihre Öffnungs- und Klickraten verbessern und Ihr E-Mail-Marketing letztlich erfolgreicher machen.

    Welche Faktoren sollten vor einem A/B-Test optimiert sein?

    Es gibt ein paar wichtige Faktoren, die Sie optimieren sollten, bevor Sie einen A/B-Test auf Ihrer Website durchführen.
    Erstens sollten Sie sicherstellen, dass Ihre Website schnell und effizient geladen wird. Wenn Ihre Website langsam oder träge ist, wirkt sich dies auf die Ergebnisse Ihres A/B-Tests aus und könnte zu ungenauen Ergebnissen führen.
    Zweitens sollten Sie sich vergewissern, dass alle Elemente auf Ihrer Website richtig ausgerichtet und einfach zu bedienen sind. Wenn Benutzer Schwierigkeiten haben, Ihre Website zu nutzen oder die gesuchten Informationen zu finden, wird sich dies wiederum auf die Ergebnisse Ihres Tests auswirken.
    Und schließlich sollten Sie überprüfen, ob alle Links auf Ihrer Website korrekt funktionieren. Wenn Benutzer auf einen Link klicken und dieser nicht funktioniert, werden sie Ihre Website wahrscheinlich ganz verlassen.
    Generell lassen sich A/B-Test im gesamten Online-Marketing unter bestimmten Voraussetzungen durchführen:
    • Stellen Sie sicher, dass Sie eine ausreichend große Stichprobe haben. So stellen Sie sicher, dass Ihre Ergebnisse statistisch signifikant sind.
    • Wählen Sie die richtigen Metriken. Vergewissern Sie sich, dass Sie wissen, was Sie messen wollen und dass Ihre Kennzahlen mit Ihren Zielen übereinstimmen.
    • Reduzieren Sie störende Variablen so weit wie möglich. So erhalten Sie ein klareres Bild davon, wie sich Ihre Änderungen auf die von Ihnen verfolgte Kennzahl auswirken
    • Richten Sie Ihr Experiment korrekt ein, damit es statistisch valide ist. Dazu gehören Dinge wie Randomisierung, Zuweisung oder Hypothesentests
    • Planen Sie, wie Sie die Ergebnisse Ihres Experiments analysieren werden, sobald es abgeschlossen ist.

    Wie funktioniert ein A/B-Test?

    Wenn Sie einen A/B-Test durchführen, testen Sie im Wesentlichen zwei verschiedene Versionen einer Webseite oder einer E-Mail, um herauszufinden, welche besser abschneidet. Sie stellen eine Hypothese auf und teilen dann Ihr Publikum in zwei Gruppen ein – Gruppe A sieht Version A, Gruppe B sieht Version B. Anschließend verfolgen Sie die Ergebnisse, um zu sehen, welche Gruppe besser abschneidet.
    Der Zweck eines A/B-Tests besteht darin, festzustellen, ob eine Änderung des Designs (Version A) zu einem statistisch signifikanten Unterschied bei den Konversionsraten (die Anzahl der Personen, die die gewünschte Aktion ausführen, z. B. sich für einen Newsletter anmelden) im Vergleich zum ursprünglichen Design (Version B) führt. Wenn es einen statistisch signifikanten Unterschied gibt, dann können Sie mit Sicherheit sagen, dass Version A effektiver ist als Version B.

    Wie viele Kontakte müssen auf ihrer Liste sein damit sie einen A/B-Test durchführen können?

    A/B-Tests sind ein wertvolles Instrument für Online-Vermarkter, und die Anzahl der Kontakte, die Sie für Ihre Tests verwenden, hängt von einigen Faktoren ab. Wenn Sie gerade erst mit A/B-Tests beginnen, sollten Sie eine kleinere Anzahl von Kontakten verwenden, damit Sie sich ein genaues Bild davon machen können, wie sich Ihre Änderungen auf Ihre Ergebnisse auswirken. Wenn Sie mehr Erfahrung mit A/B-Tests sammeln, sollten Sie die Anzahl der Kontakte in Ihren Testgruppen erhöhen, um zuverlässigere Daten zu erhalten.
    Es gibt keine perfekte Anzahl von Kontakten für jeden A/B-Test, eine gute Faustregel ist jedoch, dass Sie mindestens 10-15% Ihres Traffics für jede Variante testen sollten. Nehmen wir zum Beispiel an, Sie wollen testen, ob eine neue E-Mail-Betreffzeile die Klickrate für Ihre E-Mails erhöhen wird. Wenn in der Regel jeden Tag 100 Personen auf Ihre E-Mails klicken und Sie mit 95 %-iger Sicherheit wissen möchten, dass Ihre neue Betreffzeile besser ist als die alte, mit einer Fehlermarge von plus/minus 5 %, dann bräuchten Sie eine Gesamtstichprobe von 400 Kontakten (200 in jeder Gruppe).

     

    Auch interessant:

     

    Ihr Kontakt zu uns
    Adresse
    Löwenstark Digital Group GmbH
    Petzvalstraße 38,
    38104 Braunschweig

      Jetzt kostenlose Analyse anfordern

      * Pflichtfeld