INGEGNERIA DI CONVERSIONE
CRO — Ottimizzazione del Tasso di Conversione
Ipotesi research-driven, A/B test Bayesian + sequential e analisi segment-level per un aumento misurabile della conversione; non congetture, ma disciplina di test.
Il CRO non è un cambio di design; è un sistema decisionale in cui l'ipotesi viene validata con disciplina di test.
La maggior parte dei team consuma il CRO con varianti casuali tipo 'colore del bottone' o 'cambio di icona'. I team vincenti, invece, partono dalla ricerca cliente, costruiscono ogni test attorno a un problema, calcolano in anticipo la dimensione del campione con la power-analysis e analizzano il vincitore per segmento per portarlo in modo permanente nel prodotto. L'operazione CRO di Roibase è costruita su sei principi e ogni principio viene misurato uno per uno nella tua scorecard di fine mese.
METODOLOGIA
RESEARCH → HYPOTHESIZE → DESIGN → TEST → ANALYZE → SHIP
Non congetture, ma ipotesi; non ipotesi, ma impatto sul business. Il flusso a sei livelli mette in sicurezza la decisione di ogni test all'interno di una cornice statistica + business metric.
RESEARCH
Ricerca dati + utente
Funnel GA4, heatmap, session replay, 6-10 interviste cliente, on-site survey e analisi verbatim NPS; ne esce la 'mappa del dolore'.
HYPOTHESIZE
Hypothesis canvas + ICE scoring
Ogni ipotesi su una pagina sola: problema, target, cambio comportamentale atteso, lift, dimensione del campione, metrica di successo, scenario di rischio.
DESIGN
Wireframe + high-fidelity + copy
Il design della variante deriva dalla research; il copy chiarisce la promessa dell'ipotesi, i token del design system vengono preservati.
TEST
Deploy + QA + traffic allocation
Deploy con VWO / Optimizely / GrowthBook; flicker check, validazione analytics, QA cross-device, audit del traffic split.
ANALYZE
Bayesian + segment deep-dive
Probability to beat baseline, expected loss, effect size per segmento; piani d'azione separati per vincenti, perdenti e inconclusive.
SHIP
Productize + codifica l'apprendimento
La variante vincente viene committata nel design system e aggiunta al regression test; gli insight entrano nel learning database e alimentano lo sprint successivo.
— CONFRONTO
Dove sta la differenza? Approccio classico vs. disciplina di test Roibase
La differenza tra team che trattano il programma CRO come un esercizio di design e team che lo costruiscono come disciplina di test si riflette in un anno direttamente sulla curva CR media.
| Dimensione | In-house tentativi-errori | Agenzia di design classica | Disciplina di test Roibase |
|---|---|---|---|
| Test framework | Frequentist, controllato ogni settimana | Assente o gut-feel | Sequential + Bayesian, peeking safe |
| Qualità dell'ipotesi | Colore bottone, cambio icona | Interpretazione di design | Problem-driven dalla ricerca cliente |
| Power & sample calc | Spesso assente | Non applicato | Obbligatorio prima di ogni test, documentato |
| Analisi per segmento | Focalizzata sulla media | Assente | Device × audience × source in ogni test |
| Research ops | Ad-hoc, un'intervista ogni 6 mesi | Limitata alla discovery UX | 6-10 interviste/mese + survey continue |
| Win productization | Il vincitore viene dimenticato | Resta nel documento di design | Design system + regression test obbligatori |
| Cultura dell'apprendimento | I risultati si perdono | Limitata ai case study | Learning database — 80+ apprendimenti in 12 mesi |
| Reporting | Report del test una sola volta | Quarterly review | Dashboard settimanale + executive summary mensile |
PROOF
Outcomes, measured
Portafoglio test vincenti su 12 mesi (media ponderata).
Ogni test con potenza statistica minima dell'85%.
Ricavo aggiuntivo annualizzato / investimento in test.
Media di settore 14-20%, Roibase ne è 2x sopra.
Numero di idee prioritizzate e scorate nella backlog pool.
Giorni fino al deploy del primo test (kick-off incluso).
WHAT WE DO
Engagement scope
Every offering is an outcome-based work package. Roibase blends strategy and execution inside a single team — no hand-offs.
Sequential + Bayesian testing
Framework Bayesian che permette decisioni anticipate senza problema di peeking; rispetto al frequentist classico, infrastruttura di test ad alta velocità decisionale ed efficiente in termini di campione.
Funnel + heatmap + replay triangulation
GA4 / PostHog funnel + Hotjar / Clarity heatmap + session replay: tre fonti dati legate a una sola ipotesi; vediamo insieme il 'cosa' e il 'perché'.
Backlog research-first
6-10 interviste utente al mese, survey e on-site survey; ogni test nasce dalla risposta alla domanda 'perché abbandonano', mai da varianti casuali.
ICE × PIE backlog scoring
Con punteggi Impact, Confidence, Ease, da oltre 50 ipotesi vengono filtrati 4-8 test di qualità al mese; non scelta soggettiva, ma prioritizzazione a punteggio.
Analisi segment-level del vincitore
Spaccatura device × audience × source × new vs. returning; un vincitore 'in media +4%' può essere in realtà +22% sui mobile new.
Win productization
La variante vincente viene committata nel design system, entra in storybook ed è collegata al regression test; nessun 'test finito, dimenticato'.
Personalization & segment targeting
Apri il test vincente non a tutti gli utenti, ma al segmento dove ha reso meglio; logica di 3-5 esperienze parallele sulla stessa pagina.
Mobile-first experimentation
Se il 65-80% del traffico arriva da mobile, infrastruttura di test e ipotesi vengono costruite prima per il mobile — flusso di varianti per viewport.
Server-side + edge testing
Infrastruttura di test server-side flicker-free e SEO-safe (Edge Functions / Cloudflare Workers / custom); nei flussi critici, zero flicker lato client.
Learning database
Ogni test (vincente + perdente + inconclusive) viene documentato; dopo 12 mesi una memoria aziendale di oltre 80 apprendimenti.
— VANTAGGI
Il valore di business misurabile del CRO
L'ottimizzazione della conversione non è 'rendere bello il sito'; significa ricavi aggiuntivi che entrano nel P&L, ciclo decisionale più veloce e apprendimento aziendale.
Crescita misurata, non ipotizzata
Ogni cambio è validato statisticamente; +18% di CR medio si riflette nel P&L come crescita di ricavo.
Decisioni data-informed
Dati invece di HiPPO (highest paid person's opinion); le discussioni si riferiscono all'ipotesi e alla tabella dei risultati.
Guadagni segment-level
Dietro un '+4% medio' può esserci un +22% sugli utenti mobile new; con la personalizzazione, sul segmento giusto si ottiene un impatto 2-3x.
Iterazione veloce
6-8 test/mese, risultato in 2 settimane; ciclo decisionale 6x più veloce della classica quarterly review.
Apprendimento aziendale
Test vincenti, perdenti e inconclusive nel learning database; 80+ apprendimenti in 12 mesi diventano memoria aziendale.
Infrastruttura stack-ready
VWO / Optimizely / GrowthBook / Statsig — quello che serve; ibrido server-side + client-side, flicker-free.
DELIVERABLE
Output mensili + trimestrali
Output concreti, in produzione, consegnati ogni mese al tuo team. Ognuno alimenta l'ipotesi del test successivo.
Report di funnel audit
Mappa del drop-off passo per passo, opportunità quick-win e stima del ricavo perso annualizzato.
Dossier di insight da ricerca qualitativa
Trascrizione, tematizzazione, prioritizzazione di 6-10 interviste cliente al mese e mappa del dolore basata su quote.
Backlog di ipotesi + punteggi ICE
Lista viva di 50+ ipotesi; punteggi Impact, Confidence, Ease e prioritizzazione trimestrale.
Roadmap di test trimestrale
Piano di test delle prossime 12 settimane; capacità, dipendenze e impatto di business atteso messi a fuoco.
Hypothesis canvas (per ogni test)
Problema, target, lift atteso, calcolo del campione, metrica di successo — standard su una sola pagina.
Design variante + copy + QA
Pacchetto di design dal wireframe al deploy; token del design system e checklist QA cross-device incluse.
Dashboard settimanale di stato test
Dashboard live di probability-to-beat, expected loss e trend di segmento dei test attivi.
Executive summary mensile
Test vincenti / perdenti / inconclusive, stima dell'impatto sul ricavo e action list per il mese successivo.
Report di segment deep-dive
Spaccatura device × audience × source × new vs. returning; candidati per personalizzazione segnalati.
Brief di win productization
Piano di commit nel design system della variante vincente, entry su storybook e cornice di regression test.
Learning database
Registro come memoria aziendale di tutti i test (vincenti, perdenti, inconclusive); alimenta le ipotesi successive.
Configurazione del tool stack
Documento di setup, integrazione e governance di VWO / Optimizely / GrowthBook / Statsig.
— PERIMETRO
Cosa è incluso e cosa no?
I confini dell'abbonamento CRO sono chiari. Vedere in anticipo il perimetro elimina aspettative sbagliate, scope creep e la domanda 'cosa stiamo facendo davvero?'.
Cosa copre questo servizio
- 6-8 A/B test live al mese, in cornice Sequential + Bayesian
- 6-10 interviste cliente al mese + trascrizione + tematizzazione
- Backlog di 50+ ipotesi e aggiornamento mensile dei punteggi ICE
- Per ogni test: hypothesis canvas + wireframe + checklist QA
- Analisi segment-level + documento di raccomandazioni di personalizzazione
- Setup e gestione di VWO / Optimizely / GrowthBook / Statsig
- Integrazione e validazione di GA4 + PostHog + Hotjar / Clarity
- Win productization: commit nel design system + entry su storybook
- Learning database — registrazione completa di vincenti / perdenti / inconclusive
- Dashboard di stato settimanale + executive summary mensile
- Quarterly strategy review e aggiornamento della roadmap a 12 settimane
- Infrastruttura research ops: on-site survey, recruiting interviste, repo
Lavori non inclusi (ambito opzionale aggiuntivo)
- Full-funnel redesign / re-design dell'intero sito
- Brand identity e progetti di identità visiva
- Custom backend development (API, schema database)
- Integrazioni profonde lato ERP / CRM
- Gestione campagne paid media (PPC è servizio separato)
- Produzione di content / SEO (SEO è servizio separato)
- CRO per app mobile native (perimetro separato)
- Team QA di regressione separato — noi facciamo il QA dell'ipotesi
HOW WE WORK
Processo: dalla ricerca della Settimana 1 all'iterazione del Mese 5+, l'operazione CRO
Settimana 1 — Discovery + funnel audit
Audit GA4, analisi del funnel, setup heatmap, analisi session replay; principali punti di dolore e opportunità quick-win.
Settimana 2 — Operazione di research
6-10 interviste cliente, deploy on-site survey, scansione verbatim NPS; mappa del problema con le parole dell'utente.
Settimana 3 — Backlog di ipotesi + prioritizzazione
50+ ipotesi, punteggi ICE, roadmap trimestrale; hypothesis canvas dei primi 4 test approvato.
Settimana 4 — Deploy del primo test
Setup degli strumenti completato, QA + flicker check + validazione analytics fatti, traffico in flusso.
Settimana 5-8 — Test cycle 1 (4 test)
Durata media test di due settimane; 2-3 test in parallelo, analisi segment-level, report con risultati azionabili.
Mese 3 — Segment deep-dive + personalizzazione
Trasformiamo i test vincenti in personalizzazioni per segmento; mobile, new visitor, high-intent vengono separati.
Mese 4 — Win productization + design system
Le varianti vincenti vengono committate nel design system, entrano in storybook; la suite di regression test si espande.
Mese 5+ — Iterazione + apprendimento
Dashboard settimanale + executive review mensile; il learning database alimenta la roadmap del trimestre successivo.
— STACK STRUMENTI
Test, analytics, qualitativo e reporting
L'infrastruttura di ogni team è diversa; nemmeno la soluzione è univoca. Scegliere lo strumento giusto su quattro livelli è prerequisito per testare velocemente l'ipotesi giusta.
TEST & PERSONALIZZAZIONE
ANALYTICS & DATI
QUALITATIVO & RICERCA
REPORTING & WORKFLOW
QUESTIONS
Frequently asked
— GLOSSARIO
Terminologia CRO
Il linguaggio condiviso del tuo team. Quando lo stesso termine indica la stessa cosa, le discussioni si avvicinano all'ipotesi e si allontanano dalle interpretazioni.
- Conversion Rate (CR)
- Percentuale di utenti che completano un dato obiettivo; calcolata con formule come transaction / session o signup / visit.
- A/B Test
- Esperimento in cui controllo (A) e variante (B) vengono confrontati statisticamente con suddivisione casuale del traffico.
- MVT (Multivariate Test)
- Esperimento in cui vengono testate contemporaneamente diverse combinazioni di più elementi; richiede traffico elevato.
- Sequential Testing
- Cornice di test in cui i risultati possono essere monitorati continuamente e l'arresto anticipato è statisticamente sicuro.
- Bayesian Testing
- Approccio di test che decide su distribuzioni di probabilità; produce output intuitivi come 'probabilità che la variante vinca'.
- Statistical Power
- La probabilità che un A/B test rilevi un effetto (lift) effettivamente presente. Target standard: 80 % di power; effetti più piccoli richiedono campione maggiore o minimum detectable effect (MDE) ridefinito. Un calcolo di power pre-test è non negoziabile per un buon disegno sperimentale.
- Sample Size
- Numero minimo di utenti per variante necessario perché un A/B test arrivi a una conclusione statisticamente affidabile. Calcolato da power, alpha (di solito 0,05), baseline conversion e MDE; un campione insufficiente gonfia il rischio sia di falsi positivi sia di falsi negativi.
- Funnel
- Rappresentazione sequenziale dei passi che l'utente compie verso un obiettivo; ogni passo si misura con un tasso di drop-off.
- Heatmap
- Tool che visualizza con palette colore l'intensità delle interazioni utente sulla pagina (click, scroll, hover, attention). Generato da Hotjar, Microsoft Clarity, Mouseflow e simili; nel CRO è fonte di ipotesi, mai decisione da solo — va validato con un A/B test.
- Session Replay
- Tool che registra in modo anonimo la sessione utente sul sito (mouse, click, scroll, form input) e la rivede come un video. Hotjar, FullStory, Microsoft Clarity sono i leader; il masking dei PII e il consent sono temi critici — oro per il debugging CRO.
- ICE / PIE Scoring
- Cornice di prioritizzazione delle ipotesi con criteri Impact-Confidence-Ease oppure Potential-Importance-Ease.
- Feature Flag
- Meccanismo che permette di attivare/disattivare una feature senza modifiche al codice ed è la spina dorsale dell'infrastruttura di test e continuous delivery.
- Multi-armed Bandit
- Approccio di testing adattivo che sposta dinamicamente il traffico sulla variante vincente durante l'esperimento, anziché uno split A/B classico. Minimizza il regret totale; ideale per test design/raccomandazione/banner con quick win, meno per misurazioni precise.
- SRM (Sample Ratio Mismatch)
- Scostamento significativo tra lo split di traffico reale (es. 49,2/50,8) e l'atteso 50/50 in un A/B — di solito segnale di un bug tecnico. Se il chi-quadro dà p<0,001 i risultati non sono affidabili; cause: bot, perdite di redirect, cookie leak.
— DIAGNOSI RAPIDA
Il programma CRO è giusto per me?
Un navigatore interattivo a quattro domande che ti mostra il livello di programma adatto. Risultato in 30 secondi con risposte sì / no.
01 / 04
I tuoi utenti unici mensili superano i 30.000?
GA4 → Reports → Acquisition → User acquisition, ultimi 28 giorni.
— LET'S BEGIN
Portiamo alla luce il potenziale di conversione nascosto del tuo sito.
Audit gratuito del funnel in 48 ore: sui dati GA4 + heatmap + session replay, le 3 maggiori falle, stima del ricavo perso annuale e bozza di hypothesis backlog per il primo trimestre.