CONVERSION-ENGINEERING
CRO — Conversion-Rate-Optimierung
Research-getriebene Hypothesen, Bayesian + sequenzielle A/B-Tests und Segment-Analysen für messbare Conversion-Steigerung; keine Vermutung, sondern Test-Disziplin.
CRO ist keine Design-Änderung; es ist ein Entscheidungssystem, in dem Hypothesen mit Test-Disziplin validiert werden.
Die meisten Teams verbrauchen CRO mit zufälligen Varianten wie 'Button-Farbe' oder 'Icon-Austausch'. Erfolgreiche Teams hingegen beginnen mit Kundenforschung, konstruieren jeden Test um ein konkretes Problem, berechnen vorab per Power-Analyse die Stichprobengröße und analysieren den Sieger segmentbasiert, bevor er dauerhaft ins Produkt einfließt. Die CRO-Operation von Roibase steht auf sechs Prinzipien — jedes davon wird monatlich einzeln auf Ihrer Scorecard gemessen.
METHODIK
RESEARCH → HYPOTHESIZE → DESIGN → TEST → ANALYZE → SHIP
Keine Vermutung, sondern Hypothese; keine Hypothese ohne Business-Impact. Ein sechsschichtiger Workflow sichert jede Entscheidung statistisch und geschäftlich ab.
RESEARCH
Daten- + Nutzerforschung
GA4-Funnel, Heatmap, Session Replay, 6-10 Kundeninterviews, On-site-Survey und NPS-Verbatim-Analyse ergeben eine 'Schmerzkarte'.
HYPOTHESIZE
Hypothesis Canvas + ICE-Scoring
Jede Hypothese auf einer Seite: Problem, Zielgruppe, erwartete Verhaltensänderung, Lift, Stichprobengröße, Erfolgsmetrik, Risikoszenario.
DESIGN
Wireframe + High-Fidelity + Copy
Das Variantendesign wird aus dem Research abgeleitet; die Copy schärft das Versprechen der Hypothese, Design-System-Tokens bleiben erhalten.
TEST
Deploy + QA + Traffic Allocation
Deployment mit VWO / Optimizely / GrowthBook; Flicker-Check, Analytics-Validation, Cross-Device-QA, Traffic-Split-Audit.
ANALYZE
Bayesian + Segment Deep-Dive
Probability to beat Baseline, Expected Loss, Effektstärke je Segment; eigene Aktionspläne für Sieger, Verlierer und inconclusive Tests.
SHIP
Productize + Learnings kodieren
Die Siegervariante wird ins Design-System committet und dem Regressionstest hinzugefügt; Learnings gehen in die Learning Database und speisen den nächsten Sprint.
— VERGLEICH
Wo liegt unser Unterschied? Klassischer Ansatz vs. Roibase Test-Disziplin
Teams, die CRO als Designarbeit betrachten, und Teams, die es als Test-Disziplin etablieren, unterscheiden sich nach einem Jahr unmittelbar in ihrer durchschnittlichen CR-Kurve.
| Dimension | In-house Trial-and-Error | Klassische Designagentur | Roibase Test-Disziplin |
|---|---|---|---|
| Test-Framework | Frequentistisch, wöchentlich geprüft | Nicht vorhanden oder Bauchgefühl | Sequenziell + Bayesian, peeking-safe |
| Hypothesenqualität | Button-Farbe, Icon-Austausch | Design-Interpretation | Problemorientiert, aus Kundenforschung abgeleitet |
| Power & Sample Calc | Meist nicht vorhanden | Wird nicht angewandt | Vor jedem Test verpflichtend, dokumentiert |
| Segment-Analyse | Durchschnittsfokus | Nicht vorhanden | Device × Audience × Source in jedem Test |
| Research Ops | Ad-hoc, alle 6 Monate ein Interview | Auf UX-Discovery beschränkt | 6-10 Interviews/Monat + laufende Surveys |
| Win Productization | Sieger werden vergessen | Bleiben im Designdokument | Design-System-Commit + Regressionstest Pflicht |
| Lernkultur | Ergebnisse gehen verloren | Auf Case Studies beschränkt | Learning Database — 80+ Learnings in 12 Monaten |
| Reporting | Einmaliger Testbericht | Quarterly Review | Wöchentliches Dashboard + monatliche Executive Summary |
PROOF
Outcomes, measured
12-Monats-Portfolio der Sieger-Tests (gewichteter Durchschnitt).
Jeder Test mit mindestens 85 % statistischer Power.
Annualisierter Mehrumsatz / Test-Investition.
Branchenschnitt 14-20 %, Roibase liegt beim 2-fachen.
Priorisiertes, gescortes Ideen-Volumen im Backlog.
Tage bis zum Deploy des ersten Tests (Kick-off inklusive).
WHAT WE DO
Engagement scope
Every offering is an outcome-based work package. Roibase blends strategy and execution inside a single team — no hand-offs.
Sequenzielles + Bayesian Testing
Bayesian-Framework, das frühzeitige Entscheidungen ohne Peeking-Problem erlaubt; gegenüber klassischem frequentistischem Ansatz schneller und stichprobeneffizienter.
Funnel + Heatmap + Replay-Triangulation
GA4 / PostHog Funnel + Hotjar / Clarity Heatmaps + Session Replay — drei Datenquellen, eine Hypothese; wir sehen 'Was' und 'Warum' gemeinsam.
Research-first Backlog
6-10 Nutzerinterviews pro Monat, Surveys und On-site-Umfragen; jeder Test entsteht aus der Frage 'Warum springen sie ab?', keine Zufallsvarianten.
ICE × PIE Backlog-Scoring
Impact-, Confidence-, Ease-Scores filtern aus 50+ Hypothesen 4-8 hochwertige Tests pro Monat; keine subjektive Auswahl, sondern Priorisierung per Score.
Gewinner-Analyse auf Segment-Ebene
Device × Audience × Source × New vs. Returning; ein 'Durchschnitt +4 %'-Sieger kann bei Mobile New tatsächlich +22 % bedeuten.
Win Productization
Die Siegervariante wird ins Design-System committet, landet im Storybook und wird an den Regressionstest gekoppelt — kein 'Test vorbei, vergessen'.
Personalisierung & Segment-Targeting
Öffnen Sie den Sieger nicht für alle, sondern für das Segment mit der besten Performance; 3-5 parallele Erlebnisse auf derselben Seite.
Mobile-first Experimentation
Kommen 65-80 % des Traffics von Mobile, wird Test-Infrastruktur und Hypothesendesign zuerst auf Mobile ausgerichtet — Viewport-basierter Varianten-Flow.
Server-side + Edge Testing
Flicker-free, SEO-sichere Server-side-Test-Infrastruktur (Edge Functions / Cloudflare Workers / Custom); kein Client-side-Flicker in kritischen Flows.
Learning Database
Jeder Test (Sieger + Verlierer + inconclusive) wird dokumentiert; nach 12 Monaten ein Organisationsgedächtnis aus 80+ Learnings.
— NUTZEN
Der messbare Business-Wert von CRO
Conversion-Optimierung ist nicht 'hübscheres Design'; es bedeutet zusätzlichen Umsatz in der GuV, beschleunigte Entscheidungszyklen und organisationales Lernen.
Gemessenes Wachstum statt Vermutung
Jede Änderung ist statistisch validiert; +18 % durchschnittliche CR-Steigerung wirkt als Mehrumsatz in der GuV.
Data-informed Decisions
Statt HiPPO (Highest Paid Person's Opinion) zählen Daten; Diskussionen verweisen auf Hypothesen und Ergebnistabellen.
Gewinne auf Segment-Ebene
Hinter '+4 % Durchschnitt' können bei Mobile New +22 % Gewinn stehen; mit Personalisierung erzielen wir 2-3× Wirkung im richtigen Segment.
Schnelle Iteration
6-8 Tests / Monat, Ergebnisse in 2 Wochen; der Entscheidungszyklus ist 6× schneller als ein klassischer Quarterly Review.
Organisationales Lernen
Sieger + Verlierer + inconclusive Tests leben in der Learning Database; 80+ Learnings in 12 Monaten als Unternehmensgedächtnis.
Stack-ready Infrastruktur
VWO / Optimizely / GrowthBook / Statsig — je nach Passung; Server-side + Client-side hybrid, flicker-free.
LIEFERUMFANG
Monatliche + quartalsweise Ergebnisse
Jeden Monat konkrete, livegeschaltete Ergebnisse für Ihr Team. Jede davon nährt die nächste Hypothese.
Funnel-Audit-Report
Schrittweise Drop-off-Karte, Quick-Win-Chancen und annualisierte Schätzung des Umsatzverlusts.
Qualitative-Research-Insight-Dossier
Transkripte der 6-10 Kundeninterviews/Monat, Themenclusterung, Priorisierung und zitatbasierte Schmerzkarte.
Hypothesis Backlog + ICE-Scores
Lebendige Liste mit 50+ Hypothesen; Impact-, Confidence-, Ease-Scores und quartalsweise Priorisierung.
Quartalsweise Test-Roadmap
Testplan der nächsten 12 Wochen; Kapazität, Abhängigkeiten und erwartete Business-Wirkung geklärt.
Hypothesis Canvas (pro Test)
Problem, Zielgruppe, erwarteter Lift, Stichprobenberechnung, Erfolgsmetrik — One-Page-Standard.
Variantendesign + Copy + QA
Design-Paket vom Wireframe bis zum Deploy; inklusive Design-System-Tokens und Cross-Device-QA-Checkliste.
Wöchentliches Test-Statusdashboard
Live-Dashboard mit Probability-to-beat, Expected Loss und Segmenttrends der laufenden Tests.
Monatliche Executive Summary
Sieger- / Verlierer- / inconclusive Tests, geschätzter Umsatzimpact und Aktionsliste für den Folgemonat.
Segment-Deep-Dive-Report
Aufschlüsselung nach Device × Audience × Source × New vs. Returning; Personalisierungskandidaten markiert.
Win-Productization-Brief
Commit-Plan der Siegervariante ins Design-System, Storybook-Entry und Regressionstest-Framework.
Learning Database
Erfassung aller Sieger-, Verlierer- und inconclusive Tests als Unternehmensgedächtnis; speist kommende Hypothesen.
Tool-Stack-Konfiguration
VWO / Optimizely / GrowthBook / Statsig Setup, Integration und Governance-Dokument.
— LEISTUNGSUMFANG
Was ist dabei, was nicht?
Die Grenzen des CRO-Retainers sind klar. Vorabtransparenz verhindert falsche Erwartungen, Scope-Creep und die Frage 'Was machen wir eigentlich?'.
Im Leistungsumfang enthalten
- 6-8 Live-A/B-Tests pro Monat im sequenziellen + Bayesian-Framework
- 6-10 Kundeninterviews/Monat + Transkript + Themenclusterung
- Backlog mit 50+ Hypothesen und monatlichem ICE-Score-Update
- Hypothesis Canvas + Wireframe + QA-Checkliste pro Test
- Segment-Analyse + Personalisierungsempfehlung als Dokument
- Setup und Management von VWO / Optimizely / GrowthBook / Statsig
- Integration und Validierung von GA4 + PostHog + Hotjar / Clarity
- Win Productization: Design-System-Commit + Storybook-Entry
- Learning Database — alle Sieger-, Verlierer- und inconclusive Einträge
- Wöchentliches Statusdashboard + monatliche Executive Summary
- Quarterly Strategy Review und Update der 12-Wochen-Roadmap
- Research-Ops-Infrastruktur: On-site-Survey, Interview-Recruiting, Repository
Nicht enthalten (optionaler Zusatz-Scope)
- Full-Funnel-Redesign / Website-Relaunch
- Brand Identity und visuelle Kimlik-Arbeiten
- Custom Backend Development (API, Datenbankschema)
- Tiefe Integrationen auf ERP-/CRM-Seite
- Paid-Media-Kampagnenmanagement (PPC ist ein separater Service)
- Content / SEO-Produktion (SEO ist ein separater Service)
- Native-Mobile-App-CRO (separater Scope)
- Separates Regressions-QA-Team — wir übernehmen die Hypothesen-QA
HOW WE WORK
Ablauf: von Woche 1 Research bis Monat 5+ Iteration der CRO-Operation
Woche 1 — Discovery + Funnel-Audit
GA4-Audit, Funnel-Analyse, Heatmap-Setup, Session-Replay-Analyse; Top-Level-Schmerzpunkte und Quick-Win-Chancen.
Woche 2 — Research-Operation
6-10 Kundeninterviews, On-site-Survey-Deploy, NPS-Verbatim-Scan; Problemkarte in der Sprache der Nutzer.
Woche 3 — Hypothesis Backlog + Priorisierung
50+ Hypothesen, ICE-Scores, Quartals-Roadmap; die ersten 4 Hypothesis Canvases sind freigegeben.
Woche 4 — Erster Test-Deploy
Tool-Setup abgeschlossen, QA + Flicker-Check + Analytics-Validation erledigt, Traffic fließt.
Woche 5-8 — Test-Cycle 1 (4 Tests)
Zwei Wochen durchschnittliche Laufzeit; 2-3 parallele Tests, Segment-Analyse, handlungsorientierte Ergebnisberichte.
Monat 3 — Segment-Deep-Dive + Personalisierung
Sieger-Tests werden segmentbasiert in Personalisierung überführt; Mobile-, New-Visitor- und High-Intent-Erlebnisse trennen sich.
Monat 4 — Win Productization + Design-System
Siegervarianten werden ins Design-System committet und landen im Storybook; die Regressionstest-Suite wird erweitert.
Monat 5+ — Iteration + Lernen
Wöchentliches Dashboard + monatliches Executive Review; die Learning Database speist die Roadmap des nächsten Quartals.
— TOOL-STACK
Test, Analytics, Qualitative und Reporting
Jede Infrastruktur ist anders; die Lösung ist nicht Einheitsgröße. Das richtige Tool in vier Schichten zu wählen, ist die Voraussetzung dafür, die richtige Hypothese schnell zu testen.
TEST & PERSONALIZATION
ANALYTICS & DATA
QUALITATIVE & RESEARCH
REPORTING & WORKFLOW
QUESTIONS
Frequently asked
— GLOSSAR
CRO-Terminologie
Die gemeinsame Sprache Ihres Teams. Wenn jeder Begriff dasselbe meint, nähern sich Diskussionen der Hypothese und entfernen sich von Interpretationen.
- Conversion Rate (CR)
- Anteil der Nutzer, die ein definiertes Ziel abschließen; berechnet mit Formeln wie Transaction / Session oder Signup / Visit.
- A/B Test
- Experiment mit zufälliger Traffic-Aufteilung zwischen Control (A) und Variante (B) zur statistischen Gegenüberstellung.
- MVT (Multivariate Test)
- Experiment, in dem mehrere Elemente gleichzeitig in unterschiedlichen Kombinationen getestet werden; benötigt hohen Traffic.
- Sequential Testing
- Test-Framework, in dem Ergebnisse laufend geprüft werden können und vorzeitiges Stoppen statistisch abgesichert ist.
- Bayesian Testing
- Test-Ansatz, der Entscheidungen über Wahrscheinlichkeitsverteilungen trifft; liefert intuitive Outputs wie 'Wahrscheinlichkeit, dass Variante gewinnt'.
- Statistical Power
- Die Wahrscheinlichkeit, dass ein A/B-Test einen tatsächlich vorhandenen Effekt (Lift) erkennt. Standardziel: 80 % Power; für kleinere Effekte braucht es entweder mehr Stichprobe oder einen neu definierten Minimum Detectable Effect (MDE). Eine Pre-Test-Power-Berechnung ist Pflicht für sauberes Versuchsdesign.
- Sample Size
- Die Mindestanzahl Nutzer pro Variante, die ein A/B-Test braucht, um zu einer statistisch belastbaren Aussage zu kommen. Berechnet aus Power, Alpha (meist 0,05), Baseline-Conversion und MDE; eine zu kleine Stichprobe vergrößert sowohl False-Positive- als auch False-Negative-Risiko.
- Funnel
- Sequenzielle Darstellung der Schritte eines Nutzers auf dem Weg zum Ziel; jeder Schritt wird mit einer Drop-off-Rate gemessen.
- Heatmap
- Tool, das die Intensität von Nutzerinteraktionen auf einer Seite (Klicks, Scrolls, Hover, Aufmerksamkeit) farblich visualisiert. Erzeugt von Hotjar, Microsoft Clarity, Mouseflow u. Ä.; im CRO Hypothesenquelle, aber nie allein Entscheidungsbasis — muss per A/B-Test validiert werden.
- Session Replay
- Tool, das die Site-Session eines Nutzers (Maus, Klicks, Scroll, Form-Eingabe) anonymisiert aufzeichnet und wie ein Video abspielen lässt. Hotjar, FullStory, Microsoft Clarity sind führend; PII-Masking und Consent sind heikle Themen — fürs CRO-Debugging Gold wert.
- ICE / PIE Scoring
- Framework zur Priorisierung von Hypothesen mit Impact-Confidence-Ease- oder Potential-Importance-Ease-Kriterien.
- Feature Flag
- Mechanismus, der ein Feature ohne Code-Änderung ein-/ausschaltet und das Rückgrat moderner Test- und Continuous-Delivery-Infrastrukturen ist.
- Multi-armed Bandit
- Adaptiver Testansatz, der den Traffic während des Experiments dynamisch zur Sieger-Variante verschiebt, statt klassisch A/B zu splitten. Minimiert Total Regret; ideal für Design-/Empfehlungs-/Banner-Tests mit schnellen Wins, weniger für präzise Wirkungsmessung.
- SRM (Sample Ratio Mismatch)
- Signifikante Abweichung zwischen tatsächlicher Traffic-Aufteilung (z. B. 49,2/50,8) und erwarteten 50/50 in einem A/B-Test — meist ein Hinweis auf einen technischen Bug. Bei p<0,001 im Chi-Quadrat-Test sind Ergebnisse unzuverlässig; Ursachen: Bots, Redirect-Verluste, Cookie-Leak.
— SCHNELLDIAGNOSE
Ist ein CRO-Programm das Richtige für mich?
Ein interaktiver Kompass, der in vier Fragen die passende Programmstufe zeigt. Ja/Nein — Ergebnis in 30 Sekunden.
01 / 04
Haben Sie mehr als 30.000 Unique User pro Monat?
GA4 → Reports → Acquisition → User Acquisition, letzte 28 Tage.
— LET'S BEGIN
Lassen Sie uns das verborgene Conversion-Potenzial Ihrer Website freilegen.
Kostenloser Funnel-Audit in 48 Stunden: Die 3 größten Leckagen auf Basis von GA4 + Heatmap + Session Replay, die geschätzten jährlichen Umsatzverluste und der Entwurf eines Hypothesis-Backlog für das erste Quartal.