Zum Inhalt springen
· 8 Min. Lesezeit

A/B-Testing: Der vollständige Guide für mehr Conversions

So führst du A/B-Tests durch die wirklich funktionieren. Hypothesen bilden, Tools auswählen, statistische Signifikanz und häufige Fehler vermeiden.

cro a-b-testing conversion

“Wir haben die Farbe des Buttons von Gruen auf Rot geaendert und die Conversions sind um 30% gestiegen!” Solche Geschichten kursieren in Marketing-Kreisen. Was dabei meistens fehlt: Statistische Signifikanz, ausreichende Stichprobengroesse und ein konsistentes Bild ueber mehrere Seiten hinweg.

A/B-Testing ist maechtiger als sein Ruf als “Button-Farbe-aendern” vermuten laesst, aber nur wenn man es richtig macht. Dieser Guide zeigt dir den vollstaendigen Prozess: Von der Hypothese bis zur Entscheidung, inklusive der Fehler die 90% der Teams machen.

Was A/B-Testing wirklich ist (und was nicht)

A/B-Testing ist ein kontrolliertes Experiment. Du zeigst zwei (oder mehr) Varianten einer Seite unterschiedlichen Nutzer-Segmenten gleichzeitig, misst die Performance und entscheidest datenbasiert welche Version besser funktioniert.

Was A/B-Testing IST:

  • Ein statistisches Experiment mit Kontrollgruppe und Testgruppe
  • Ein Lernprozess, auch “verlorene” Tests liefern wertvolle Erkenntnisse
  • Eine systematische Methode zur Conversion-Optimierung

Was A/B-Testing NICHT ist:

  • Einfach etwas aendern und hoffen dass es besser wird
  • Eine einmalige Massnahme (“wir haben das getestet”)
  • Ein Ersatz fuer User Research und qualitative Erkenntnisse
  • Immer notwendig, bei sehr wenig Traffic kann Direktoptimierung sinnvoller sein

Statistische Grundlagen verstaendlich erklaert

Viele A/B-Tests werden falsch ausgewertet, weil statistische Grundbegriffe missverstanden werden. Hier die wichtigsten erklaert ohne Mathematikstudium.

Statistische Signifikanz und p-Wert

Der p-Wert gibt an wie wahrscheinlich es ist, dass du ein Ergebnis durch Zufall erhaelst, auch wenn es eigentlich keinen Unterschied gibt.

  • p < 0,05 (95% Signifikanz): Weniger als 5% Wahrscheinlichkeit, dass das Ergebnis Zufall ist. Standard-Schwelle
  • p < 0,01 (99% Signifikanz): Noch staerkeres Ergebnis, empfohlen bei wichtigen Entscheidungen

Praktisches Beispiel: Variante B hat eine Conversion-Rate von 3,8% vs. 3,2% bei Variante A. Klingt gut. Aber wenn du nur 200 Besucher pro Variante hattest, ist der p-Wert wahrscheinlich 0,3, also statistisch irrelevant. Der Unterschied koennte reiner Zufall sein.

Stichprobengroesse

Bevor du einen Test startest, berechne die benoetigte Stichprobengroesse. Dafuer brauchst du:

  1. Deine aktuelle Conversion-Rate (z.B. 3%)
  2. Minimaler erkennbarer Effekt (MDE), wie gross muss die Verbesserung sein um relevant zu sein? (z.B. 20% relativ = 3,6%)
  3. Gewuenschte Signifikanz (95% Standard)
  4. Statistische Power (80% Standard, 20% Chance einen echten Effekt zu verpassen)

Verwende einen Sample-Size-Rechner wie den von Optimizely oder AB Tasty. Das Ergebnis: Bei 3% Baseline und 20% MDE brauchst du ca. 4.700 Nutzer pro Variante.

Faustregel: Die meisten Teams testen mit zu wenig Traffic zu kurz. Lieber 4 Wochen warten als nach 3 Tagen falsche Entscheidungen treffen.

Business Significance vs. Statistische Signifikanz

Ein Test kann statistisch signifikant sein aber trotzdem keine Relevanz haben. Wenn eine Variante 0,1% besser konvertiert und der Test 3 Monate lief, ist das ein Gewinner? Nein, weil der Implementierungsaufwand und das Risiko den Nutzen ueberwiegen.

Definiere vor dem Test: Was ist die minimale Verbesserung die fuer euch relevant ist?

Der komplette Test-Prozess

Schritt 1: Daten sammeln und Hypothese bilden

Gute A/B-Tests beginnen mit Daten, nicht mit Meinungen.

Quantitative Analyse:

  • Welche Seiten haben hohe Bounce Rates?
  • Wo steigen Nutzer im Checkout-Funnel aus?
  • Welche CTA-Buttons haben niedrige Klickraten?
  • Heatmaps: Worauf klicken Nutzer? Was wird nicht gescrollt?

Qualitative Erkenntnisse:

  • Session Recordings (Hotjar, Microsoft Clarity): Wo frustrieren sich Nutzer?
  • Usability-Tests: Lasse echte Nutzer Aufgaben erledigen und beobachte
  • Kundenbefragungen: Was hat dich fast davon abgehalten zu kaufen?

Hypothese formulieren: Schlecht: “Wir aendern den CTA-Button.” Gut: “Wenn wir den CTA-Text von ‘Absenden’ auf ‘Kostenlos testen’ aendern, wird die Conversion-Rate steigen, weil Nutzer derzeit den Wert der Aktion nicht klar sehen. Erwartet: +15% CTR auf dem CTA.”

Schritt 2: Priorisierung

Du hast 20 Test-Ideen aber Ressourcen fuer 2,3 Tests gleichzeitig. Priorisiere mit dem PIE-Framework:

  • Potential: Wie gross ist der moegliche Uplift?
  • Importance: Wie wichtig ist die Seite/Element fuer dein Business?
  • Ease: Wie aufwenig ist die Implementierung?

Vergib fuer jeden Faktor 1,10 Punkte, errechne den Durchschnitt. Hoehere Scores zuerst testen.

Schritt 3: Test-Setup

  • Klare Varianten definieren (A = Control, B = Variation)
  • Nur eine Variable aendern (oder bei MVT bewusst mehrere)
  • Ziel-Metrik (Primary Metric) festlegen vor dem Test, nicht danach anpassen!
  • Segmente definieren: Alle Nutzer oder nur neue Nutzer? Mobile oder Desktop?
  • Stichprobengroesse berechnen und Mindestlaufzeit festlegen

Schritt 4: Test durchfuehren

  • Beide Varianten gleichzeitig ausspielen (kein “zuerst A, dann B”)
  • Auf gleichmaessige Traffic-Verteilung achten (50/50 Standard)
  • Storende Faktoren vermeiden: Keine grossen Marketingaktionen waehrend des Tests
  • Sample Ratio Mismatch (SRM) pruefen: Stimmt die Nutzerverteilung?

Schritt 5: Analyse

  • Warte bis zur berechneten Stichprobengroesse, nicht fruehzeitig abbrechen!
  • Statistische Signifikanz pruefen (95% Minimum)
  • Segmentierte Analyse: Funktioniert die Variante bei mobilen Nutzern anders als bei Desktop?
  • Sekundaere Metriken betrachten: Hat die Variante andere Metriken verschlechtert?

Schritt 6: Entscheidung und Implementierung

  • Klarer Gewinner (>95% Signifikanz): Implementieren
  • Kein klarer Gewinner: Learnings dokumentieren, neue Hypothese entwickeln
  • Verlierer: Auch wertvolle Erkenntnis, warum hat es nicht funktioniert?

Was man testen sollte (Priorisierung)

Hoeher priorisieren (grosses Impact-Potenzial)

  1. Value Proposition / Headline: Was ist das erste was Nutzer lesen? Riesiger Einfluss
  2. CTA-Text und CTA-Position: “Kostenlos starten” vs. “Jetzt testen” kann 30%+ ausmachen
  3. Formular-Laenge: Weniger Felder = mehr Submissions (fast immer)
  4. Pricing-Darstellung: Monatlich vs. jaehrlich, Vergleichspreise, Anchoring
  5. Social Proof: Testimonials, Zahlen, Logos, Position und Format

Niedriger priorisieren (geringeres Potenzial)

  • Button-Farben (ausser bei starkem UX-Problem)
  • Bildwechsel (ohne strategischen Hintergrund)
  • Kleinteilige Textaenderungen ohne strategische Hypothese
  • Footer und Navigation (wenig Einfluss auf Conversion)

Tools im Vergleich

VWO (Visual Website Optimizer)

Sehr maechtig, DSGVO-konform, gute Segmentierung. Preis: ab ca. 200 EUR/Monat. Fuer mittelgrosse bis grosse Teams.

Optimizely

Marktfuehrer im Enterprise-Segment. Vollstaendige Experimentation-Plattform. Sehr teuer (ab 50.000 EUR/Jahr). Nur fuer grosse Unternehmen relevant.

AB Tasty

Europaeischer Anbieter, DSGVO-nativ, gutes UI. Ab ca. 150 EUR/Monat. Sehr empfehlenswert fuer DACH-Unternehmen.

Hotjar (Experiments)

Einfaches A/B-Testing direkt in Hotjar integriert. Gut fuer Einsteiger, weniger maechtig als dedizierte Tools. Ab ca. 80 EUR/Monat.

Ohne Budget

Google Optimize wurde eingestellt. Alternativen ohne Kosten: Manuelle Split-Testing-Implementierung im Code (fuer technische Teams), Unbounce oder Instapage fuer Landing Pages.

Empfehlung: Fuer die meisten mittelstaendischen B2B-Unternehmen ist AB Tasty oder VWO die beste Wahl.

Haeufige Fehler und wie man sie vermeidet

Fehler 1: Zu frueh abbrechen (Peeking)

Der haeufigste Fehler ueberhaupt. Du schaust jeden Tag nach dem Stand und brichst ab wenn du einen Gewinner siehst, auch nach 3 Tagen und 200 Conversions.

Loesung: Laufzeit und Stichprobengroesse VOR dem Test festlegen. Nicht zwischendurch schauen.

Fehler 2: Zu viele Variablen gleichzeitig aendern

Wenn du Headline, CTA, Bild und Formular gleichzeitig aenderst, weisst du nicht was die Verbesserung ausgeloest hat.

Loesung: Pro Test eine Variable aendern. Fuer mehrere Aenderungen: Multivariate Testing mit entsprechend groesserem Traffic-Bedarf.

Fehler 3: Falsches Ziel messen

Micro-Conversions optimieren die keine Auswirkung auf das eigentliche Business-Ziel haben. Z.B. Klickrate auf den CTA verbessern, aber die Gesamtconversion sinkt weil die Qualitaet der Leads schlechter wird.

Loesung: Immer das eigentliche Business-Ziel als Primary Metric messen (Leads, Kaeufe, Revenue), nicht intermediare Metriken.

Fehler 4: Seasonalitaet ignorieren

Montag bis Freitag verhaelt sich anders als das Wochenende. November/Dezember anders als Januar. Ein Test der nur montags laeuft ist nicht repraesentativ.

Loesung: Tests immer ueber volle Wochen laufen lassen, mindestens 2 Wochen.

Fehler 5: Verlierer ignorieren

“Negativer” Test = verschwendete Zeit. Falsch! Ein Test der zeigt dass Variante B nicht funktioniert, ist genauso wertvoll wie ein Gewinner.

Loesung: Jeden Test dokumentieren, Hypothese, Ergebnis, Erkenntnisse. Das ist euer Wissensschatz.

Fallbeispiele mit Zahlen

Case 1: Formular-Optimierung SaaS

Hypothese: Reduzierung von 8 auf 4 Felder erhoet Anmelderate. Test-Dauer: 3 Wochen, 1.200 Nutzer pro Variante Ergebnis: +41% mehr Anmeldungen (statistische Signifikanz: 99%) Lerneffekt: Das “Firmengroesse”-Feld war der groesste Abbruchpunkt

Case 2: Headline-Test B2B-Dienstleister

Variante A: “Professionelle Beratung fuer Ihr Unternehmen” Variante B: “Mehr Umsatz in 90 Tagen, oder wir arbeiten kostenlos weiter” Ergebnis: +28% mehr Kontaktanfragen bei Variante B (Signifikanz: 97%)

Case 3: Pricing-Page E-Commerce

Test: Monatspreis gross anzeigen vs. Jahrespreis mit Ersparnis-Badge Ergebnis: Jahresplan-Variante +19% hoehere Revenue per Visitor (Signifikanz: 95%)

Checkliste: A/B-Test richtig aufsetzen

  • Quantitative Daten analysiert (Analytics, Heatmaps, Recordings)
  • Klare Hypothese formuliert (Wenn… dann… weil…)
  • Stichprobengroesse berechnet (Sample Size Calculator)
  • Mindestlaufzeit definiert (mindestens 2 Wochen, empfohlen 4)
  • Primary Metric festgelegt (vor dem Test, nicht danach)
  • Nur eine Variable veraendert
  • Test-Tool korrekt eingerichtet (50/50 Split, kein Sample Ratio Mismatch)
  • Signifikanzschwelle definiert (95% Standard)
  • Laufzeit eingehalten ohne fruehzeitigen Abbruch
  • Ergebnisse dokumentiert (auch Verlierer)

Haeufige Fragen zu A/B-Testing

Wie viel Traffic brauche ich fuer sinnvolle A/B-Tests? Als Faustregel: mindestens 1.000 Besucher pro Variante und Monat. Mit weniger als 500 Conversions im Monat ist traditionelles A/B-Testing oft nicht sinnvoll, dann eher auf User Research und direkte Optimierung setzen.

Wie lange sollte ein A/B-Test laufen? Mindestens 2 Wochen (um Wochentag-Effekte auszugleichen), empfohlen 4 Wochen. Die berechnete Stichprobengroesse ist wichtiger als die Laufzeit.

Kann ich mehrere Tests gleichzeitig laufen? Ja, wenn sie auf unterschiedlichen Seiten/Elementen sind und sich nicht gegenseitig beeinflussen. Vorsicht bei Tests die dieselbe Nutzergruppe betreffen.

Was tun wenn mein Test keinen Gewinner hat? Erkenntnisse dokumentieren und neue Hypothese entwickeln. “Kein Unterschied” ist ein valides Ergebnis, es zeigt dass das getestete Element nicht der Hebel ist.


Willst du systematische CRO fuer dein Business aufsetzen? Scaleee hilft dir mit datengetriebener Conversion-Optimierung. Jetzt CRO-Leistungen entdecken oder direkt Kontakt aufnehmen.

PP

Philipp Pötzinger

Performance Marketing Experte bei Scaleee

Ich helfe Unternehmen dabei, mit datengetriebenem Marketing mehr Leads und Umsatz zu generieren.

Mehr über mich →

Weitere Artikel

Passende Services

Professionelle Unterstützung zu diesem Thema

Bereit für messbares Wachstum?

Lass uns in einem kostenlosen Erstgespräch herausfinden, wie wir dein Business skalieren können.

Antwort innerhalb von 24h · Keine versteckten Kosten

Kostenlose Beratung