GH GambleHub

Lernen mit und ohne Lehrer

1) Warum und wann

Mit dem Lehrer (Supervised): Es gibt ein Label (Label) → wir prognostizieren die Wahrscheinlichkeit/Klasse/Wert. Wir verwenden, wenn die „richtige Antwort“ klar ist und es eine Geschichte gibt: Churn, Einzahlung in 7 Tagen, RG/AML-Risiko, Wahrscheinlichkeit der Reaktion auf das Angebot, LTV-Prognose.
Ohne Lehrer (Unsupervised): Es gibt keine Tags → wir finden Strukturen/Cluster/Anomalien/latente Faktoren: Spielersegmentierung, Betrugsringe, thematische Spielprofile, Identifizierung von Anbieterausfällen, Kompression von Merkmalen.

Auswahlregel: Wenn die Geschäftsentscheidung von einer bestimmten probabilistischen Prognose abhängt → supervised; wenn das Ziel darin besteht, unbekannte Muster/Signale zu öffnen oder die Dimension der Daten zu reduzieren → unsupervised. In der Praxis werden sie kombiniert.

2) Typische iGaming-Fälle

Supervised

Churn/Reaktivierung: binäre Klassifizierung (geht weg/geht nicht weg), Uplift-Modelle für die Exposition.
Propency to Deposit/Buy: Wahrscheinlichkeit eines Ereignisses im Horizont T.
RG/AML: Risikoscheu, Strukturierungswahrscheinlichkeit, verdächtige Sitzung.
Anti-Missbrauch Boni: die Wahrscheinlichkeit der betrügerischen Verwendung von Promo.
Empfehlungen (Ranking): Klick-/Wettwahrscheinlichkeit pro Spiel (listwise/pointwise).

Unsupervised

Spielersegmentierung: k-means, GMM, HDBSCAN nach RFM/Verhalten/Genres.
Anomalien: Isolation Forest, LOF, AutoEncoder auf Zahlungen/Spielmuster.
Graphenanalyse: Clustering in der Spalte „Player-Device-Card-IP“.
Downsizing: PCA/UMAP für Visualisierung und Fich Engineering.
Thematische Modelle: NMF/LDL für Spielbeschreibungen/Support-Chats.

3) Daten und Daten

Point-in-Time-Verbindungen, um Datenleakage auszuschließen.
Merkmalsfenster: 10 min/1 h/1 Tag/7 Tage/30 Tage (Recency, Frequency, Monetary).
Kontext: Markt/Gerichtsbarkeit/DST/Urlaub, Anbieter/Genre, Gerät/ASN.
Graphische Zeichen: die Anzahl der einzigartigen Karten/IP/Geräte, Zentralität.
Normalisierung von Währungen/Zeitzonen, SCD II für Benutzer/Spiele/Anbieter.

4) Algorithmen und Metriken

Mit dem Lehrer

Algorithmen: LogReg, XGBoost/LightGBM/CatBoost, TabNet; für das Ranking LambdaMART/GBDT; Zeitreihen - Prophet/ETS/Gradient Boosted TS.
Metriken: ROC-AUC/PR-AUC, F1 @ Operationsschwelle, KS (Risiko), NDCG/MAP @ K (Empfehlungen), MAPE/WAPE (Vorhersagen), erwartete Kosten mit FP/FN-Gewichten.

Ohne Lehrer

Clustering: k-means/GMM (Anzahl der Cluster - elbow/silhouette), HDBSCAN (Dichte).
Anomalien: Isolierung Wald/LOF/AutoEncoder; Metriken - precision @ k auf Expertenmarkierungen, AUCPR auf synthetischen Anomalien.
Dimension: PCA/UMAP für Fich-Design und Visualisierungen.

5) Kombinierte Ansätze

Semi-Supervised: Pseudo-Notes für einen Teil der unmarkierten Daten (Self-Training), Consistency-Regularisierung.
Self-Supervised: Kontrastierende/maskierte Aufgaben (Session/Game-Embeddings) werden → von Downstream in Supervised verwendet.
Active Learning: Das System bietet Markup-Kandidaten (maximale Unsicherheit/Vielfalt) → spart AML/RG-Experten Arbeit.
Weak Supervision: Heuristiken/Regeln/entfernte Markierungen bilden „schwache“ Etiketten, dann kalibrieren wir.

6) Prozess: von offline zu Online-Surfen

1. Offline: Sammeln/Vorbereiten von Split- → nach Zeit/Märkten → Training/Validierung → Backtest.
2. Die Semantik der Metriken: einheitliche Formeln (z.B. churn_30d) und feste Zeitfenster.
3. Feature Store: einheitliche Formeln für online/offline; Konformitätsprüfungen.
4. Online-Surfen: gRPC/REST-Endpunkte, SLA nach Latenz, AB-Routing/Kanarienfreigaben.
5. Überwachung: Daten/Vorhersage Drift (PSI/KL), Latenz p95, Business Metrics Fehler, Alerts.

7) Datenschutz und Compliance

PII-Minimierung: Pseudonymisierung, Mupping Isolation, CLS/RLS.
Residency: separate Pipelines/Verschlüsselungsschlüssel nach Region (EEA/UK/BR).
DSAR/RTBF: Löschen/Bearbeiten von Daten und Protokollen; die Rechtsgrundlage für Ausnahmen.
Legal Hold: Einfrieren von Ermittlungs-/Berichtsartefakten.
Fairness: Proxy-Fit-Audit, Einflussberichte (SHAP), RG-Interventionspolitik.

8) Wirtschaft und Produktivität

Die Kosten für die Berechnung von fit (cost/feature) und inference (cost/request).
Materialisierung von Offline-Aggregaten; Online - nur kritische Fenster.
Cache von Auflösungen/Scoring-Ergebnissen für kurze TTLs, asynchrone Lookups mit Timeouts.
Quoten und Budgets für Replays/Backtests; chargeback nach Befehl/Modell.

9) Beispiele (Fragmente)

9. 1 Point-in-Time-Sampling für churn_30d

sql
WITH base AS (
SELECT user_pseudo_id, DATE(event_time) AS asof
FROM silver. fact_events
GROUP BY user_pseudo_id, DATE(event_time)
),
feat AS (
SELECT b. user_pseudo_id, b. asof,
SUM(CASE WHEN e. type='deposit' AND e. event_time>=b. asof - INTERVAL '30' DAY
AND e. event_time<b. asof THEN amount_base ELSE 0 END) AS dep_30d,
COUNT(CASE WHEN e. type='bet' AND e. event_time>=b. asof - INTERVAL '7' DAY
AND e. event_time<b. asof THEN 1 END) AS bets_7d
FROM base b
JOIN silver. fact_events e USING (user_pseudo_id)
GROUP BY b. user_pseudo_id, b. asof
),
label AS (
SELECT f. user_pseudo_id, f. asof,
CASE WHEN NOT EXISTS (
SELECT 1 FROM silver. fact_events x
WHERE x.user_pseudo_id=f. user_pseudo_id
AND x.event_time>f. asof AND x.event_time<=f. asof + INTERVAL '30' DAY
) THEN 1 ELSE 0 END AS churn_30d
FROM feat f
)
SELECT FROM feat JOIN label USING (user_pseudo_id, asof);

9. 2 Zahlungsanomalien (Pseudocode, Isolierungswald)

python
X = build_features (payments_last_7d) # sum/frequency/novelty/BIN/ASN/time model = IsolationForest (contamination = 0. 01). fit(X_train)
scores = -model. decision_function(X_test)
alerts = where (scores> THRESHOLD) # AML case candidates

9. 3 K-Mittel Segmentierung (RFM + Genres)

python
X = scale(np. c_[R, F, M, share_slots, share_live, share_sports])
km = KMeans(n_clusters=8, n_init=20, random_state=42). fit(X)
segments = km. labels_

9. 4 Kostenschwelle für das binäre Modell

python threshold = pick_by_expected_cost(scores, labels, cost_fp=5. 0, cost_fn=50. 0)

10) Bewertung, Validierung und Experimente

Offline: Temporal Split (Zug/Val/Test nach Zeit/Märkten), Backtesting, Bootstrap des Vertrauens.
Online: A/B/n, Sequenztests, CUPED/diff-in-diff.
Off-policy: IPS/DR für Personalisierungsrichtlinien.
Kalibrierung: Platt/Isotonic für korrekte Wahrscheinlichkeiten.
Kontrolle der Degradation: Warnungen nach Geschäftskennzahlen und PR-AUC/KS.

11) RACI

R (Responsible): Data Science (Modelle/Experimente), MLOps (Plattform/Serving), Data Eng (Fichi/Piplines).
A (Accountable): Head of Data/CDO.
C (konsultiert): Compliance/DPO (PII/RG/AML), Security (KMS/Secrets), SRE (SLO/Value), Finance (ROI).
I (Informed): Produkt/Marketing/Betrieb/Support.

12) Fahrplan für die Umsetzung

MVP (4-6 Wochen):

1. Verzeichnis der Ziele/Labels und Signale (churn_30d, propensity_7d, risk_rg).

2. Feature Store v1 (5-10 fich), XGBoost-Basismodelle, Dashboards für Offline-Metriken.

3. Segmentierung k-means (8 Cluster) + Beschreibung der Segmente; Isolation Forest für Zahlungen.

4. Online-Serving mit Cache, p95 <150 ms; A/B auf 10-20% des Verkehrs.

Phase 2 (6-12 Wochen):
  • Aktiv/Semi-Supervised für Label-Knappheit (AML/RG), selbst-supervised Spiel/Session-Embedding.
  • Kanarische Releases, Driftmonitoring, Autoretraining.
  • Eine einzige semantische Schicht von Metriken und Online/Offline-Übereinstimmung.
Phase 3 (12-20 Wochen):
  • Graphische Zeichen und Ringe des Betrugs; Uplift-Bonusmodelle.
  • Multiregionales Surfen, Quoten/Chargeback; WORM-Archiv der Veröffentlichungen.
  • Fairness-Audit, Stresstests, Runbooks von Vorfällen.

13) Checkliste vor dem Verkauf

  • Point-in-Time-Stichproben und Tests gegen Leakage.
  • Kalibrierung der Wahrscheinlichkeiten; Auswahl der Schwelle nach erwarteten Kosten.
  • Modellkarten (Eigentümer, Daten, Metriken, Risiken, Fairness).
  • Feature Store: Online-/Offline-Konformitätstest.
  • Überwachung von Drift/Latenz/Fehlern, Alerts und Auto-Rollback.
  • PII/DSAR/RTBF/Legal Hold Policies; Protokollierung ist unpersönlich.
  • Plan A/B und statistische Kapazität berechnet; runbook rollback ist fertig.

14) Anti-Muster

Mischen Sie neue Entwicklungen in Labels (leakage) und das Fehlen von Point-in-Time.
„Ein Modell für alles“ statt Domain-Zerlegung.
Einige liberalisierte Wahrscheinlichkeiten → falsche Geschäftsschwellen.
Blindflug: Keine Drift-/Qualitätsüberwachung online.
Überkomplikation online (heavy external-join's ohne Cache und Timeouts).
Segmente ohne geschäftliche Interpretation und Eigentümer.

15) Das Ergebnis

Das Unterrichten mit einem Lehrer bietet eine messbare Prognose und ein Risiko-/Einkommensmanagement; ohne Lehrer - Struktur und Signale, wo es keine Markierungen gibt. Ihre Kombination (semi/self-supervised, active learning) in Datendisziplin (Point-in-Time, Feature Store), Compliance und MLOps beschert der iGaming-Plattform einen stetigen Net Revenue-Gewinn, eine Reduzierung des Fehlers und zeitnahe RG-Interventionen - mit Reproduzierbarkeit, Kostenkontrolle und Prüfungsbereitschaft.

Contact

Kontakt aufnehmen

Kontaktieren Sie uns bei Fragen oder Support.Wir helfen Ihnen jederzeit gerne!

Integration starten

Email ist erforderlich. Telegram oder WhatsApp – optional.

Ihr Name optional
Email optional
Betreff optional
Nachricht optional
Telegram optional
@
Wenn Sie Telegram angeben – antworten wir zusätzlich dort.
WhatsApp optional
Format: +Ländercode und Nummer (z. B. +49XXXXXXXXX).

Mit dem Klicken des Buttons stimmen Sie der Datenverarbeitung zu.