Tillbaka till bloggen

Så A/B-testar du din ad waterfall utan att förlora intäkter

2 apr. 2026 · AdReact Team

Varje monetiseringsteam känner igen känslan: du är säker på att en waterfall-ändring kommer att öka intäkterna, men i det ögonblick du lanserar den håller du andan. Vad händer om det slår tillbaka? Vad händer om fill rate sjunker? Vad händer om du just kostade ditt företag tusentals dollar under den tid det tar att upptäcka och återställa?

Denna rädsla är inte irrationell — det är anledningen till att de flesta publishers låter sina waterfall-konfigurationer vara orörda i månader, vilket lämnar betydande intäkter på bordet. Lösningen är inte att sluta göra ändringar. Det är att testa dem ordentligt innan du går live.

Varför waterfall-testning är annorlunda

Att A/B-testa en waterfall är inte som att testa en knappfärg eller ett onboarding-flöde. Annonsintäkter är i grunden bullriga — de fluktuerar per timme, veckodag, säsong och dussintals andra faktorer. En ändring som ser ut som en 10-procentig förbättring på måndagen kan helt förklaras av normal veckovariation. Och till skillnad från produkt-A/B-tester där en dålig variant orsakar en något sämre användarupplevelse, kan en dålig waterfall-variant innebära tusentals dollar i förlorade intäkter per dag.

Metoden med trafikuppdelning

Det säkraste sättet att testa waterfall-ändringar är att dela upp din trafik mellan den nuvarande konfigurationen (control) och den föreslagna ändringen (variant). De flesta mediation-plattformar — inklusive AppLovin MAX och Unity LevelPlay — stöder trafiksegmentering som låter dig dirigera en procentandel av användarna till en annan waterfall-konfiguration.

Så sätter du upp ett rent test

Börja med en 90/10-uppdelning: 90 procent av trafiken fortsätter på din nuvarande waterfall, och 10 procent får den nya konfigurationen. Detta begränsar din nedsidesrisk till 10 procent av trafiken samtidigt som du får tillräckligt med data för att upptäcka meningsfulla skillnader. Kör testet i minst sju dagar för att fånga veckocyklicitet i annonsefterfrågan.

Vad du ska mäta

Mät inte bara eCPM. Spåra dessa mätvärden för båda grupperna: total intäkt per tusen dagliga aktiva användare (revenue per mille DAU), fill rate, genomsnittligt eCPM, impressions per session och — kritiskt — användarretention. En waterfall-ändring som lyfter eCPM med 15 procent men ökar laddningstiden för annonser och sänker 7-dagars retention med 2 procent är ett nettominus.

Metoden med holdout-grupp

För mer betydande ändringar — som att lägga till eller ta bort en demand-källa, eller omstrukturera hela din waterfall — använd en holdout-grupp. Behåll 20 procent av din trafik på den gamla konfigurationen permanent (eller under testets varaktighet) och rulla ut den nya konfigurationen till de återstående 80 procenten. Detta ger dig en bestående baslinje att jämföra mot, vilket är särskilt värdefullt för ändringar vars påverkan kan ta veckor att fullt materialiseras.

Inkrementella utrullningar

När ett test visar positiva resultat vid 10 procent, tryck inte omedelbart till 100 procent. Öka till 25 procent i några dagar till, sedan 50, sedan 75, sedan 100. Varje steg ger dig en kontrollpunkt för att verifiera att förbättringen håller vid högre trafikvolymer och för att fånga eventuella problem som bara dyker upp i skala — som en demand-partner som presterar bra vid låg volym men inte kan upprätthålla fill rate när den får mer trafik.

De publishers som konsekvent ökar sina annonsintäkter är inte de som gör de djärvaste ändringarna — de är de som testar varje ändring metodiskt och bara engagerar sig i vinnare. Små, validerade förbättringar förenas till massiva vinster över tid.

Vanliga testmisstag

Testa för många variabler samtidigt

Ändra en sak per test. Om du samtidigt justerar golvpriser, lägger till en ny demand-källa och omarrangerar waterfall-prioritet, kan du inte tillskriva resultatet till någon enskild ändring. Isolera variabler.

Avsluta tester för tidigt

Annonsintäkter har betydande veckodagseffekter. Ett test som körs från måndag till onsdag kommer att ge dig en annan bild än ett som inkluderar en hel helg. Kör alltid tester i minst sju hela dagar, helst fjorton.

Ignorera statistisk signifikans

En 5-procentig intäktsförbättring på ett litet trafiksegment kan vara brus. Innan du utropar en vinnare, säkerställ att skillnaden är statistiskt signifikant — de flesta mediation-plattformar tillhandahåller konfidensintervall, eller så kan du använda standard statistiska verktyg för att verifiera.

Att automatisera processen

En managed monetization-partner kan köra kontinuerliga waterfall-tester åt dig, med automatiserade system som delar upp trafik, mäter resultat och befordrar vinnande konfigurationer — allt utan att kräva att ditt ingenjörsteam sätter upp och hanterar testinfrastruktur. Detta förvandlar waterfall-optimering från en tillfällig manuell process till en motor för kontinuerlig förbättring.