Zurück zum Blog

So A/B-testen Sie Ihren Ad-Waterfall, ohne Umsatz zu verlieren

2. April 2026 · AdReact Team

Jedes Monetarisierungsteam kennt das Gefühl: Sie sind überzeugt, dass eine Waterfall-Änderung den Umsatz steigert, aber sobald Sie sie live schalten, halten Sie den Atem an. Was, wenn es nach hinten losgeht? Was, wenn die Fill Rates einbrechen? Was, wenn Sie Ihr Unternehmen gerade Tausende Dollar kosten, bis der Fehler bemerkt und zurückgerollt wird?

Diese Angst ist nicht irrational — sie ist der Grund, warum die meisten Publisher ihre Waterfall-Konfigurationen monatelang unangetastet lassen und dabei erheblichen Umsatz liegen lassen. Die Lösung ist nicht, keine Änderungen mehr vorzunehmen, sondern sie richtig zu testen, bevor man sich festlegt.

Warum Waterfall-Tests anders sind

Einen Waterfall per A/B-Test zu prüfen ist nicht wie das Testen einer Button-Farbe oder eines Onboarding-Flows. Werbeeinnahmen sind von Natur aus verrauscht — sie schwanken nach Stunde, Wochentag, Saison und Dutzenden Faktoren. Eine Änderung, die am Montag wie eine 10-prozentige Verbesserung aussieht, kann vollständig durch normale wöchentliche Variation erklärt sein. Und anders als bei Produkt-A/B-Tests, wo eine schlechte Variante nur das Nutzererlebnis leicht verschlechtert, kann eine schlechte Waterfall-Variante Tausende Dollar pro Tag an verlorenem Umsatz bedeuten.

Der Traffic-Split-Ansatz

Der sicherste Weg, Waterfall-Änderungen zu testen, ist, Ihren Traffic zwischen der aktuellen Konfiguration (control) und der vorgeschlagenen Änderung (variant) aufzuteilen. Die meisten Mediation-Plattformen — darunter AppLovin MAX und Unity LevelPlay — unterstützen Traffic Segmentation, mit der Sie einen Prozentsatz der Nutzer auf eine andere Waterfall-Konfiguration leiten können.

So richten Sie einen sauberen Test ein

Beginnen Sie mit einem 90/10-Split: 90 Prozent des Traffics bleiben auf Ihrem aktuellen Waterfall, 10 Prozent erhalten die neue Konfiguration. Das begrenzt Ihr Abwärtsrisiko auf 10 Prozent und liefert genug Daten, um bedeutungsvolle Unterschiede zu erkennen. Lassen Sie den Test mindestens sieben Tage laufen, um die wöchentliche Zyklizität der Anzeigen-Nachfrage zu erfassen.

Was Sie messen sollten

Messen Sie nicht nur eCPM. Verfolgen Sie für beide Gruppen: Gesamtumsatz pro tausend täglich aktiven Nutzern (revenue per mille DAU), Fill Rate, durchschnittlichen eCPM, Impressions pro Sitzung und — entscheidend — die User Retention. Eine Waterfall-Änderung, die eCPM um 15 Prozent anhebt, aber die Ad-Ladezeit verlängert und die 7-Tages-Retention um 2 Prozent senkt, ist ein Nettoverlust.

Die Holdout-Gruppen-Methode

Für bedeutendere Änderungen — etwa das Hinzufügen oder Entfernen einer Demand Source oder eine Umstrukturierung des gesamten Waterfalls — verwenden Sie eine Holdout-Gruppe. Halten Sie 20 Prozent des Traffics dauerhaft (oder für die Testdauer) auf der alten Konfiguration und rollen Sie die neue Konfiguration auf die verbleibenden 80 Prozent aus. Das gibt Ihnen eine dauerhafte Baseline zum Vergleich, besonders wertvoll für Änderungen, deren Wirkung Wochen braucht, um sich voll zu entfalten.

Inkrementelle Rollouts

Sobald ein Test bei 10 Prozent positive Ergebnisse zeigt, pushen Sie nicht sofort auf 100 Prozent. Erhöhen Sie für einige Tage auf 25 Prozent, dann 50, dann 75, dann 100. Jeder Schritt ist ein Prüfpunkt, um zu verifizieren, dass die Verbesserung auch bei höheren Traffic-Volumina bestehen bleibt, und um Probleme zu erkennen, die erst bei Skalierung auftauchen — etwa ein Demand-Partner, der bei geringem Volumen gut performt, die Fill Rate bei mehr Traffic aber nicht halten kann.

Die Publisher, die ihren Werbeumsatz konsequent steigern, sind nicht die mit den kühnsten Änderungen — es sind die, die jede Änderung methodisch testen und sich nur für Gewinner entscheiden. Kleine, validierte Verbesserungen summieren sich über die Zeit zu massiven Gewinnen.

Häufige Testfehler

Zu viele Variablen auf einmal testen

Ändern Sie pro Test nur eine Sache. Wenn Sie gleichzeitig Floor Prices anpassen, eine neue Demand Source hinzufügen und die Waterfall-Priorität umordnen, können Sie das Ergebnis keiner einzelnen Änderung zuschreiben. Isolieren Sie die Variablen.

Tests zu früh beenden

Werbeeinnahmen haben starke Wochentagseffekte. Ein Test von Montag bis Mittwoch zeigt ein anderes Bild als einer, der ein komplettes Wochenende einschließt. Lassen Sie Tests immer mindestens sieben volle Tage laufen, idealerweise vierzehn.

Statistische Signifikanz ignorieren

Eine 5-prozentige Umsatzverbesserung auf einem kleinen Traffic-Segment kann Rauschen sein. Bevor Sie einen Gewinner küren, stellen Sie sicher, dass der Unterschied statistisch signifikant ist — die meisten Mediation-Plattformen liefern Confidence Intervals, oder Sie nutzen Standard-Statistikwerkzeuge zur Überprüfung.

Den Prozess automatisieren

Ein Managed-Monetization-Partner kann kontinuierliche Waterfall-Tests für Sie durchführen, mit automatisierten Systemen, die Traffic aufteilen, Ergebnisse messen und Gewinner-Konfigurationen promoten — ohne dass Ihr Engineering-Team Test-Infrastruktur aufsetzen und verwalten muss. Das verwandelt die Waterfall-Optimierung von einem gelegentlichen manuellen Prozess in einen kontinuierlichen Verbesserungsmotor.