INGEGNERIA DI CONVERSIONE

CRO — Ottimizzazione del Tasso di Conversione

Ipotesi research-driven, A/B test Bayesian + sequential e analisi segment-level per un aumento misurabile della conversione; non congetture, ma disciplina di test.

Il CRO non è un cambio di design; è un sistema decisionale in cui l'ipotesi viene validata con disciplina di test.

La maggior parte dei team consuma il CRO con varianti casuali tipo 'colore del bottone' o 'cambio di icona'. I team vincenti, invece, partono dalla ricerca cliente, costruiscono ogni test attorno a un problema, calcolano in anticipo la dimensione del campione con la power-analysis e analizzano il vincitore per segmento per portarlo in modo permanente nel prodotto. L'operazione CRO di Roibase è costruita su sei principi e ogni principio viene misurato uno per uno nella tua scorecard di fine mese.

Roibase perspective

METODOLOGIA

RESEARCH → HYPOTHESIZE → DESIGN → TEST → ANALYZE → SHIP

Non congetture, ma ipotesi; non ipotesi, ma impatto sul business. Il flusso a sei livelli mette in sicurezza la decisione di ogni test all'interno di una cornice statistica + business metric.

01

RESEARCH

Ricerca dati + utente

Funnel GA4, heatmap, session replay, 6-10 interviste cliente, on-site survey e analisi verbatim NPS; ne esce la 'mappa del dolore'.

02

HYPOTHESIZE

Hypothesis canvas + ICE scoring

Ogni ipotesi su una pagina sola: problema, target, cambio comportamentale atteso, lift, dimensione del campione, metrica di successo, scenario di rischio.

03

DESIGN

Wireframe + high-fidelity + copy

Il design della variante deriva dalla research; il copy chiarisce la promessa dell'ipotesi, i token del design system vengono preservati.

04

TEST

Deploy + QA + traffic allocation

Deploy con VWO / Optimizely / GrowthBook; flicker check, validazione analytics, QA cross-device, audit del traffic split.

05

ANALYZE

Bayesian + segment deep-dive

Probability to beat baseline, expected loss, effect size per segmento; piani d'azione separati per vincenti, perdenti e inconclusive.

06

SHIP

Productize + codifica l'apprendimento

La variante vincente viene committata nel design system e aggiunta al regression test; gli insight entrano nel learning database e alimentano lo sprint successivo.

— CONFRONTO

Dove sta la differenza? Approccio classico vs. disciplina di test Roibase

La differenza tra team che trattano il programma CRO come un esercizio di design e team che lo costruiscono come disciplina di test si riflette in un anno direttamente sulla curva CR media.

DimensioneIn-house tentativi-erroriAgenzia di design classicaDisciplina di test Roibase
Test frameworkFrequentist, controllato ogni settimanaAssente o gut-feelSequential + Bayesian, peeking safe
Qualità dell'ipotesiColore bottone, cambio iconaInterpretazione di designProblem-driven dalla ricerca cliente
Power & sample calcSpesso assenteNon applicatoObbligatorio prima di ogni test, documentato
Analisi per segmentoFocalizzata sulla mediaAssenteDevice × audience × source in ogni test
Research opsAd-hoc, un'intervista ogni 6 mesiLimitata alla discovery UX6-10 interviste/mese + survey continue
Win productizationIl vincitore viene dimenticatoResta nel documento di designDesign system + regression test obbligatori
Cultura dell'apprendimentoI risultati si perdonoLimitata ai case studyLearning database — 80+ apprendimenti in 12 mesi
ReportingReport del test una sola voltaQuarterly reviewDashboard settimanale + executive summary mensile

PROOF

Outcomes, measured

+18%
Aumento medio CR

Portafoglio test vincenti su 12 mesi (media ponderata).

6-8
Test live al mese

Ogni test con potenza statistica minima dell'85%.

3:1
Rapporto ROI

Ricavo aggiuntivo annualizzato / investimento in test.

38%
Tasso di test vincenti

Media di settore 14-20%, Roibase ne è 2x sopra.

50+
Ipotesi al mese

Numero di idee prioritizzate e scorate nella backlog pool.

14 giorni
Tempo di setup

Giorni fino al deploy del primo test (kick-off incluso).

WHAT WE DO

Engagement scope

Every offering is an outcome-based work package. Roibase blends strategy and execution inside a single team — no hand-offs.

01 / 10

Sequential + Bayesian testing

Framework Bayesian che permette decisioni anticipate senza problema di peeking; rispetto al frequentist classico, infrastruttura di test ad alta velocità decisionale ed efficiente in termini di campione.

02 / 10

Funnel + heatmap + replay triangulation

GA4 / PostHog funnel + Hotjar / Clarity heatmap + session replay: tre fonti dati legate a una sola ipotesi; vediamo insieme il 'cosa' e il 'perché'.

03 / 10

Backlog research-first

6-10 interviste utente al mese, survey e on-site survey; ogni test nasce dalla risposta alla domanda 'perché abbandonano', mai da varianti casuali.

04 / 10

ICE × PIE backlog scoring

Con punteggi Impact, Confidence, Ease, da oltre 50 ipotesi vengono filtrati 4-8 test di qualità al mese; non scelta soggettiva, ma prioritizzazione a punteggio.

05 / 10

Analisi segment-level del vincitore

Spaccatura device × audience × source × new vs. returning; un vincitore 'in media +4%' può essere in realtà +22% sui mobile new.

06 / 10

Win productization

La variante vincente viene committata nel design system, entra in storybook ed è collegata al regression test; nessun 'test finito, dimenticato'.

07 / 10

Personalization & segment targeting

Apri il test vincente non a tutti gli utenti, ma al segmento dove ha reso meglio; logica di 3-5 esperienze parallele sulla stessa pagina.

08 / 10

Mobile-first experimentation

Se il 65-80% del traffico arriva da mobile, infrastruttura di test e ipotesi vengono costruite prima per il mobile — flusso di varianti per viewport.

09 / 10

Server-side + edge testing

Infrastruttura di test server-side flicker-free e SEO-safe (Edge Functions / Cloudflare Workers / custom); nei flussi critici, zero flicker lato client.

10 / 10

Learning database

Ogni test (vincente + perdente + inconclusive) viene documentato; dopo 12 mesi una memoria aziendale di oltre 80 apprendimenti.

— VANTAGGI

Il valore di business misurabile del CRO

L'ottimizzazione della conversione non è 'rendere bello il sito'; significa ricavi aggiuntivi che entrano nel P&L, ciclo decisionale più veloce e apprendimento aziendale.

+18% CR

Crescita misurata, non ipotizzata

Ogni cambio è validato statisticamente; +18% di CR medio si riflette nel P&L come crescita di ricavo.

50+ ipotesi / mese

Decisioni data-informed

Dati invece di HiPPO (highest paid person's opinion); le discussioni si riferiscono all'ipotesi e alla tabella dei risultati.

2-3× impatto segmento

Guadagni segment-level

Dietro un '+4% medio' può esserci un +22% sugli utenti mobile new; con la personalizzazione, sul segmento giusto si ottiene un impatto 2-3x.

6× velocità

Iterazione veloce

6-8 test/mese, risultato in 2 settimane; ciclo decisionale 6x più veloce della classica quarterly review.

80+ apprendimenti / anno

Apprendimento aziendale

Test vincenti, perdenti e inconclusive nel learning database; 80+ apprendimenti in 12 mesi diventano memoria aziendale.

0 flicker

Infrastruttura stack-ready

VWO / Optimizely / GrowthBook / Statsig — quello che serve; ibrido server-side + client-side, flicker-free.

DELIVERABLE

Output mensili + trimestrali

Output concreti, in produzione, consegnati ogni mese al tuo team. Ognuno alimenta l'ipotesi del test successivo.

  • Report di funnel audit

    Mappa del drop-off passo per passo, opportunità quick-win e stima del ricavo perso annualizzato.

  • Dossier di insight da ricerca qualitativa

    Trascrizione, tematizzazione, prioritizzazione di 6-10 interviste cliente al mese e mappa del dolore basata su quote.

  • Backlog di ipotesi + punteggi ICE

    Lista viva di 50+ ipotesi; punteggi Impact, Confidence, Ease e prioritizzazione trimestrale.

  • Roadmap di test trimestrale

    Piano di test delle prossime 12 settimane; capacità, dipendenze e impatto di business atteso messi a fuoco.

  • Hypothesis canvas (per ogni test)

    Problema, target, lift atteso, calcolo del campione, metrica di successo — standard su una sola pagina.

  • Design variante + copy + QA

    Pacchetto di design dal wireframe al deploy; token del design system e checklist QA cross-device incluse.

  • Dashboard settimanale di stato test

    Dashboard live di probability-to-beat, expected loss e trend di segmento dei test attivi.

  • Executive summary mensile

    Test vincenti / perdenti / inconclusive, stima dell'impatto sul ricavo e action list per il mese successivo.

  • Report di segment deep-dive

    Spaccatura device × audience × source × new vs. returning; candidati per personalizzazione segnalati.

  • Brief di win productization

    Piano di commit nel design system della variante vincente, entry su storybook e cornice di regression test.

  • Learning database

    Registro come memoria aziendale di tutti i test (vincenti, perdenti, inconclusive); alimenta le ipotesi successive.

  • Configurazione del tool stack

    Documento di setup, integrazione e governance di VWO / Optimizely / GrowthBook / Statsig.

— PERIMETRO

Cosa è incluso e cosa no?

I confini dell'abbonamento CRO sono chiari. Vedere in anticipo il perimetro elimina aspettative sbagliate, scope creep e la domanda 'cosa stiamo facendo davvero?'.

Cosa copre questo servizio

  • 6-8 A/B test live al mese, in cornice Sequential + Bayesian
  • 6-10 interviste cliente al mese + trascrizione + tematizzazione
  • Backlog di 50+ ipotesi e aggiornamento mensile dei punteggi ICE
  • Per ogni test: hypothesis canvas + wireframe + checklist QA
  • Analisi segment-level + documento di raccomandazioni di personalizzazione
  • Setup e gestione di VWO / Optimizely / GrowthBook / Statsig
  • Integrazione e validazione di GA4 + PostHog + Hotjar / Clarity
  • Win productization: commit nel design system + entry su storybook
  • Learning database — registrazione completa di vincenti / perdenti / inconclusive
  • Dashboard di stato settimanale + executive summary mensile
  • Quarterly strategy review e aggiornamento della roadmap a 12 settimane
  • Infrastruttura research ops: on-site survey, recruiting interviste, repo

Lavori non inclusi (ambito opzionale aggiuntivo)

  • Full-funnel redesign / re-design dell'intero sito
  • Brand identity e progetti di identità visiva
  • Custom backend development (API, schema database)
  • Integrazioni profonde lato ERP / CRM
  • Gestione campagne paid media (PPC è servizio separato)
  • Produzione di content / SEO (SEO è servizio separato)
  • CRO per app mobile native (perimetro separato)
  • Team QA di regressione separato — noi facciamo il QA dell'ipotesi

HOW WE WORK

Processo: dalla ricerca della Settimana 1 all'iterazione del Mese 5+, l'operazione CRO

01

Settimana 1 — Discovery + funnel audit

Audit GA4, analisi del funnel, setup heatmap, analisi session replay; principali punti di dolore e opportunità quick-win.

02

Settimana 2 — Operazione di research

6-10 interviste cliente, deploy on-site survey, scansione verbatim NPS; mappa del problema con le parole dell'utente.

03

Settimana 3 — Backlog di ipotesi + prioritizzazione

50+ ipotesi, punteggi ICE, roadmap trimestrale; hypothesis canvas dei primi 4 test approvato.

04

Settimana 4 — Deploy del primo test

Setup degli strumenti completato, QA + flicker check + validazione analytics fatti, traffico in flusso.

05

Settimana 5-8 — Test cycle 1 (4 test)

Durata media test di due settimane; 2-3 test in parallelo, analisi segment-level, report con risultati azionabili.

06

Mese 3 — Segment deep-dive + personalizzazione

Trasformiamo i test vincenti in personalizzazioni per segmento; mobile, new visitor, high-intent vengono separati.

07

Mese 4 — Win productization + design system

Le varianti vincenti vengono committate nel design system, entrano in storybook; la suite di regression test si espande.

08

Mese 5+ — Iterazione + apprendimento

Dashboard settimanale + executive review mensile; il learning database alimenta la roadmap del trimestre successivo.

— STACK STRUMENTI

Test, analytics, qualitativo e reporting

L'infrastruttura di ogni team è diversa; nemmeno la soluzione è univoca. Scegliere lo strumento giusto su quattro livelli è prerequisito per testare velocemente l'ipotesi giusta.

TEST & PERSONALIZZAZIONE

VWO (A/B + MVT + personalization)Optimizely Web / Feature ExperimentationGrowthBook (open-source feature flag + test)Statsig (server-side experimentation)Convert.comAB TastyCloudflare Workers / Edge Functions (flicker-free)

ANALYTICS & DATI

GA4 + BigQuery exportPostHog (opzione self-hosted)AmplitudeMixpanelSegment / RudderStack (CDP)Heap

QUALITATIVO & RICERCA

Hotjar (heatmap + recording)Microsoft Clarity (heatmap gratuita)FullStoryMaze (unmoderated usability test)UserTesting / UserlyticsTypeform / Survicate (on-site survey)Dovetail (research repo)

REPORTING & WORKFLOW

Looker Studio / TableauNotion (hypothesis canvas + learning DB)Jira / Linear (flusso ticket di test)Slack (automazione di stato)Confluence / ClickUp (documentazione)

QUESTIONS

Frequently asked

Per un A/B test sono ideali 30.000+ utenti unici al mese e 500+ conversioni. Con traffico minore ci orientiamo verso multi-arm bandit, approccio qualitative-heavy o test global (funnel-wide).

— GLOSSARIO

Terminologia CRO

Il linguaggio condiviso del tuo team. Quando lo stesso termine indica la stessa cosa, le discussioni si avvicinano all'ipotesi e si allontanano dalle interpretazioni.

01
Conversion Rate (CR)
Percentuale di utenti che completano un dato obiettivo; calcolata con formule come transaction / session o signup / visit.
02
A/B Test
Esperimento in cui controllo (A) e variante (B) vengono confrontati statisticamente con suddivisione casuale del traffico.
03
MVT (Multivariate Test)
Esperimento in cui vengono testate contemporaneamente diverse combinazioni di più elementi; richiede traffico elevato.
04
Sequential Testing
Cornice di test in cui i risultati possono essere monitorati continuamente e l'arresto anticipato è statisticamente sicuro.
05
Bayesian Testing
Approccio di test che decide su distribuzioni di probabilità; produce output intuitivi come 'probabilità che la variante vinca'.
06
Statistical Power
La probabilità che un A/B test rilevi un effetto (lift) effettivamente presente. Target standard: 80 % di power; effetti più piccoli richiedono campione maggiore o minimum detectable effect (MDE) ridefinito. Un calcolo di power pre-test è non negoziabile per un buon disegno sperimentale.
07
Sample Size
Numero minimo di utenti per variante necessario perché un A/B test arrivi a una conclusione statisticamente affidabile. Calcolato da power, alpha (di solito 0,05), baseline conversion e MDE; un campione insufficiente gonfia il rischio sia di falsi positivi sia di falsi negativi.
08
Funnel
Rappresentazione sequenziale dei passi che l'utente compie verso un obiettivo; ogni passo si misura con un tasso di drop-off.
09
Heatmap
Tool che visualizza con palette colore l'intensità delle interazioni utente sulla pagina (click, scroll, hover, attention). Generato da Hotjar, Microsoft Clarity, Mouseflow e simili; nel CRO è fonte di ipotesi, mai decisione da solo — va validato con un A/B test.
10
Session Replay
Tool che registra in modo anonimo la sessione utente sul sito (mouse, click, scroll, form input) e la rivede come un video. Hotjar, FullStory, Microsoft Clarity sono i leader; il masking dei PII e il consent sono temi critici — oro per il debugging CRO.
11
ICE / PIE Scoring
Cornice di prioritizzazione delle ipotesi con criteri Impact-Confidence-Ease oppure Potential-Importance-Ease.
12
Feature Flag
Meccanismo che permette di attivare/disattivare una feature senza modifiche al codice ed è la spina dorsale dell'infrastruttura di test e continuous delivery.
13
Multi-armed Bandit
Approccio di testing adattivo che sposta dinamicamente il traffico sulla variante vincente durante l'esperimento, anziché uno split A/B classico. Minimizza il regret totale; ideale per test design/raccomandazione/banner con quick win, meno per misurazioni precise.
14
SRM (Sample Ratio Mismatch)
Scostamento significativo tra lo split di traffico reale (es. 49,2/50,8) e l'atteso 50/50 in un A/B — di solito segnale di un bug tecnico. Se il chi-quadro dà p<0,001 i risultati non sono affidabili; cause: bot, perdite di redirect, cookie leak.

— DIAGNOSI RAPIDA

Il programma CRO è giusto per me?

Un navigatore interattivo a quattro domande che ti mostra il livello di programma adatto. Risultato in 30 secondi con risposte sì / no.

01 / 04

I tuoi utenti unici mensili superano i 30.000?

GA4 → Reports → Acquisition → User acquisition, ultimi 28 giorni.

— LET'S BEGIN

Portiamo alla luce il potenziale di conversione nascosto del tuo sito.

Audit gratuito del funnel in 48 ore: sui dati GA4 + heatmap + session replay, le 3 maggiori falle, stima del ricavo perso annuale e bozza di hypothesis backlog per il primo trimestre.