Torna al blog

Come fare A/B test del waterfall pubblicitario senza perdere ricavi

2 apr 2026 · AdReact Team

Ogni team di monetizzazione conosce quella sensazione: siete convinti che una modifica al waterfall migliorerà i ricavi, ma quando la mandate in produzione trattenete il respiro. E se si ritorcesse contro? E se il fill rate crollasse? E se aveste appena fatto perdere alla vostra azienda migliaia di dollari nel tempo per accorgervene?

Questa paura non è irrazionale — è il motivo per cui la maggior parte degli editori lascia intatte le configurazioni waterfall per mesi, lasciando ricavi significativi sul tavolo. La soluzione non è smettere di fare modifiche. È testarle correttamente prima di adottarle.

Perché il testing del waterfall è diverso

L'A/B test di un waterfall non è come testare il colore di un pulsante o un flusso di onboarding. I ricavi pubblicitari sono intrinsecamente rumorosi — fluttuano per ora, giorno della settimana, stagione e decine di altri fattori. Una variazione che sembra un miglioramento del 10 percento di lunedì potrebbe essere interamente spiegata dalla normale variazione settimanale. E a differenza degli A/B test di prodotto in cui una variant cattiva causa un'esperienza utente leggermente peggiore, una variant waterfall cattiva può significare migliaia di dollari di ricavi persi al giorno.

L'approccio della divisione del traffico

Il modo più sicuro per testare le modifiche al waterfall è dividere il traffico tra la configurazione attuale (control) e la modifica proposta (variant). La maggior parte delle piattaforme di mediation — inclusi AppLovin MAX e Unity LevelPlay — supporta la segmentazione del traffico che permette di instradare una percentuale di utenti su una diversa configurazione waterfall.

Come impostare un test pulito

Iniziate con una divisione 90/10: il 90 percento del traffico continua sul waterfall attuale, e il 10 percento riceve la nuova configurazione. Questo limita il rischio al ribasso al 10 percento del traffico, dandovi comunque dati sufficienti per rilevare differenze significative. Eseguite il test per almeno sette giorni per catturare la ciclicità settimanale della domanda pubblicitaria.

Cosa misurare

Non misurate solo l'eCPM. Tracciate queste metriche per entrambi i gruppi: ricavi totali per mille utenti attivi giornalieri (revenue per mille DAU), fill rate, eCPM medio, impression per sessione e — in modo cruciale — la retention degli utenti. Una modifica waterfall che alza l'eCPM del 15 percento ma aumenta il tempo di caricamento degli annunci e riduce la retention a 7 giorni del 2 percento è negativa in termini netti.

Il metodo del gruppo holdout

Per modifiche più significative — come aggiungere o rimuovere una fonte di domanda, o ristrutturare l'intero waterfall — usate un gruppo holdout. Mantenete il 20 percento del traffico sulla vecchia configurazione in modo permanente (o per la durata del test) e distribuite la nuova configurazione al restante 80 percento. Questo fornisce un baseline persistente con cui confrontarsi, particolarmente prezioso per modifiche il cui impatto potrebbe richiedere settimane per manifestarsi completamente.

Rollout incrementali

Una volta che un test mostra risultati positivi al 10 percento, non passate subito al 100 percento. Aumentate al 25 percento per altri giorni, poi 50, poi 75, poi 100. Ogni passo vi dà un checkpoint per verificare che il miglioramento regga a volumi di traffico più alti e per intercettare problemi che emergono solo su scala — come un partner di domanda che performa bene a basso volume ma non riesce a mantenere il fill rate quando riceve più traffico.

Gli editori che fanno crescere costantemente i propri ricavi pubblicitari non sono quelli che fanno le modifiche più audaci — sono quelli che testano ogni modifica in modo metodico e si impegnano solo con i vincitori. Piccoli miglioramenti validati si compongono in enormi guadagni nel tempo.

Errori comuni nel testing

Testare troppe variabili alla volta

Modificate una cosa per test. Se regolate simultaneamente i floor price, aggiungete una nuova fonte di domanda e riordinate le priorità del waterfall, non potete attribuire il risultato a nessuna singola modifica. Isolate le variabili.

Terminare i test troppo presto

I ricavi pubblicitari hanno effetti significativi legati al giorno della settimana. Un test che gira da lunedì a mercoledì vi darà un quadro diverso da uno che include un intero fine settimana. Eseguite sempre i test per almeno sette giorni interi, idealmente quattordici.

Ignorare la statistical significance

Un miglioramento dei ricavi del 5 percento su un piccolo segmento di traffico potrebbe essere rumore. Prima di dichiarare un vincitore, assicuratevi che la differenza sia statistically significant — la maggior parte delle piattaforme di mediation fornisce confidence intervals, oppure potete usare strumenti statistici standard per verificare.

Automatizzare il processo

Un partner di monetizzazione gestita può eseguire test waterfall continui per vostro conto, usando sistemi automatizzati che dividono il traffico, misurano i risultati e promuovono le configurazioni vincenti — senza che il vostro team debba gestire l'infrastruttura di test. Questo trasforma l'ottimizzazione del waterfall da processo manuale occasionale in un motore di miglioramento continuo.