Tilbage til blog

Sådan A/B-tester du dit ad-waterfall uden at miste omsætning

2. apr. 2026 · AdReact Team

Ethvert monetiseringsteam kender følelsen: du er overbevist om, at en waterfall-ændring vil forbedre omsætningen, men i det øjeblik du pusher den live, holder du vejret. Hvad hvis det giver bagslag? Hvad hvis fill rate falder? Hvad hvis du lige har kostet din virksomhed tusindvis af dollars i den tid, det tager at opdage fejlen og rulle tilbage?

Denne frygt er ikke irrationel — det er grunden til, at de fleste publishers lader deres waterfall-konfigurationer være urørte i månedsvis og efterlader betydelig omsætning på bordet. Løsningen er ikke at holde op med at lave ændringer. Løsningen er at teste dem ordentligt, før du forpligter dig til dem.

Hvorfor waterfall-test er anderledes

At A/B-teste en waterfall er ikke som at teste en knapfarve eller et onboarding-flow. Annonceomsætning er i sin natur støjende — den svinger efter time, ugedag, årstid og dusinvis af andre faktorer. En ændring, der ligner en 10 procents forbedring om mandagen, kan fuldt ud forklares af normal ugentlig variation. Og i modsætning til produkt-A/B-tests, hvor en dårlig variant medfører en lidt ringere brugeroplevelse, kan en dårlig waterfall-variant betyde tusindvis af dollars i tabt omsætning om dagen.

Traffic-split-tilgangen

Den sikreste måde at teste waterfall-ændringer på er at splitte din trafik mellem den nuværende konfiguration (control) og den foreslåede ændring (variant). De fleste mediation-platforme — inklusive AppLovin MAX og Unity LevelPlay — understøtter traffic segmentation, som lader dig dirigere en procentdel af brugerne til en anden waterfall-konfiguration.

Sådan opsætter du en ren test

Start med et 90/10-split: 90 procent af trafikken fortsætter på din nuværende waterfall, og 10 procent får den nye konfiguration. Det begrænser din downside-risiko til 10 procent af trafikken og giver dig samtidig nok data til at opdage meningsfulde forskelle. Kør testen i mindst syv dage for at fange den ugentlige cyklus i annonceefterspørgslen.

Hvad du skal måle

Mål ikke kun eCPM. Track disse metrikker for begge grupper: samlet omsætning per tusind daglige aktive brugere (revenue per mille DAU), fill rate, gennemsnitlig eCPM, impressions per session og — kritisk vigtigt — user retention. En waterfall-ændring, der løfter eCPM med 15 procent, men øger annoncens indlæsningstid og sænker 7-dages retention med 2 procent, er et nettotab.

Holdout-gruppe-metoden

Til mere betydelige ændringer — som at tilføje eller fjerne en demand source eller omstrukturere hele din waterfall — skal du bruge en holdout-gruppe. Hold 20 procent af din trafik på den gamle konfiguration permanent (eller i hele testens varighed) og rul den nye konfiguration ud til de resterende 80 procent. Det giver dig en vedvarende baseline at sammenligne med, hvilket er særligt værdifuldt for ændringer, hvis effekt kan tage uger om at vise sig fuldt ud.

Inkrementelle udrulninger

Når en test viser positive resultater ved 10 procent, skal du ikke straks pushe til 100 procent. Øg til 25 procent i endnu et par dage, så 50, så 75, så 100. Hvert trin giver dig et kontrolpunkt til at verificere, at forbedringen holder ved højere trafikvolumener, og til at fange eventuelle problemer, der kun opstår ved skalering — som en demand partner, der præsterer godt ved lav volumen, men ikke kan opretholde fill rate, når den får mere trafik.

De publishers, der konsekvent øger deres annonceomsætning, er ikke dem, der laver de dristigste ændringer — det er dem, der tester hver ændring metodisk og kun forpligter sig til vindere. Små, validerede forbedringer bygger sig op til massive gevinster over tid.

Almindelige testfejl

At teste for mange variabler på én gang

Skift én ting per test. Hvis du samtidig justerer floor prices, tilføjer en ny demand source og omarrangerer waterfall-prioriteten, kan du ikke tilskrive resultatet til nogen enkelt ændring. Isolér variablerne.

At afslutte tests for tidligt

Annonceomsætning har betydelige ugedagseffekter. En test, der kører fra mandag til onsdag, vil give dig et andet billede end en, der inkluderer en hel weekend. Kør altid tests i mindst syv fulde dage, ideelt fjorten.

At ignorere statistisk signifikans

En forbedring på 5 procent i omsætning på et lille trafiksegment kan være støj. Før du udråber en vinder, skal du sikre, at forskellen er statistisk signifikant — de fleste mediation-platforme leverer confidence intervals, eller du kan bruge standard statistiske værktøjer til at verificere.

At automatisere processen

En managed monetization-partner kan køre kontinuerlige waterfall-tests på dine vegne ved hjælp af automatiserede systemer, der splitter trafik, måler resultater og promoverer vinderkonfigurationer — alt sammen uden at kræve, at dit engineering team skal opsætte og administrere testinfrastruktur. Det forvandler waterfall-optimering fra en lejlighedsvis manuel proces til en løbende forbedringsmotor.