Formation avec et sans professeur
1) Pourquoi et quand
Avec l'enseignant (Supervisé) : il y a une étiquette (label) → prédire la probabilité/classe/valeur. On utilise quand on comprend la « bonne réponse » et qu'il y a un historique : churn, dépôt de 7 jours, risque RG/AML, probabilité de réponse à l'offer, pronostic LTV.
Sans professeur (Unsupervised) : il n'y a pas d'étiquettes → nous trouvons des structures/clusters/anomalies/facteurs latents : segmentation des joueurs, frondes, profils thématiques des jeux, détection des défaillances du fournisseur, compression des signes.
Règle de sélection : si la décision d'entreprise dépend d'une prévision probabiliste spécifique → supervisée ; si le but est d'ouvrir des schémas/signaux inconnus ou de réduire la dimension des données → unsupervised. En pratique, ils sont combinés.
2) Cas types iGaming
Supervised
Churn/réactivation : classification binaire (va/ne va pas), modèles uplift pour l'exposition.
Propensity au dépôt/achat : probabilité d'événement dans l'horizon T.
RG/AML : risque-score, probabilité de structuration, séance suspecte.
Bonus anti-abus : probabilité d'utilisation frauduleuse de promos.
Recommandations (classement) : probabilité de clics/parier sur le jeu (listwise/pointwise).
Unsupervised
Segmentation des joueurs : k-means, GMM, HDBSCAN par RFM/comportement/genres.
Anomalies : Isolation Forest, LOF, AutoEncoder sur les paiements/schémas de jeu.
Analyse graphique : clustering dans la colonne « joueur-device-carte-IP ».
Réduction de dimension : PCA/UMAP pour la visualisation et l'ingénierie des fiches.
Modèles thématiques : NMF/LDL pour les descriptions de jeux/chat de support.
3) Données et fiches
Connexion point-in-time pour exclure le data leakage.
Fenêtres caractéristiques : 10 min/1 h/1 jour/7 jours/30 jours (recency, frequency, monetary).
Contexte : marché/juridiction/DST/vacances, fournisseur/genre, appareil/ASN.
Caractéristiques graphiques : nombre de cartes uniques/IP/devis, centralité.
Normalisation des monnaies/fuseaux horaires, SCD II pour users/games/providers.
4) Algorithmes et métriques
Avec un professeur
Algorithmes : LogReg, XGBoost/LightGBM/CatBoost, TabNet ; pour le classement - LambdaMART/GBDT ; les séries chronologiques sont Prophet/ETS/Gradient Boosted TS.
Métriques : ROC-AUC/PR-AUC, F1 @ seuil opérationnel, KS (risque), NDCG/MAP @ K (recommandations), MAPE/WAPE (prévisions), coste expected avec poids FP/FP N..
Sans professeur
Clustering : k-means/GMM (le nombre de clusters est elbow/silhouette), HDBSCAN (dense).
Anomalies : Isolation Forest/LOF/AutoEncoder ; métriques - precision @ k sur le marquage des experts, AUCPR sur les anomalies synthétiques.
Dimension : PCA/UMAP pour la conception et la visualisation des fiches.
5) Approches combinées
Semi-Supervisé : pseudo-blocs pour une partie des données non marquées (self-training), consistency regularization.
Self-Supervised : les tâches contrastées/masquées (embeddings de sessions/jeux) → utilisent downstream dans supervisé.
Apprentissage actif : le système offre des candidats au marquage (maximum d'incertitude/diversité) → économise le travail des experts AML/RG.
Weak Supervision : Les heuristiques/règles/marques distantes forment des labels « faibles », puis calibrent.
6) Processus : De l'offline à la navigation en ligne
1. Hors ligne : collecte/préparation de → split sur le temps/marchés → formation/validation → backtest.
2. Métriques sémantiques : formules uniques (par exemple, churn_30d) et fenêtres temporelles fixes.
3. Feature Store : formule unique fich online/offline ; tests de conformité.
4. Serving en ligne : endpoints gRPC/REST, SLA par latence, route AB/versions canaries.
5. Surveillance : dérive de données/prédiction (PSI/KL), latency p95, erreur de métriques commerciales, alertes.
7) Vie privée et conformité
Minimisation des PII : pseudonyme, isolation des mappings, CLS/RLS.
Résidence : convoyeurs individuels/clés de cryptage par région (EEE/UK/BR).
DSAR/RTBF : nous supprimons/éditons les fiches et les logs ; nous conservons les fondements juridiques des exceptions.
Legal Hold : gel des artefacts d'investigation/signalement.
Fairness : Vérification par procuration, rapports d'impact, politique d'intervention de RG.
8) Économie et productivité
Coût du calcul de la fiche (cost/feature) et de l'inference (cost/request).
Matérialisation des agrégats hors ligne ; en ligne - seulement les fenêtres critiques.
Cache d'autorisation/scoring sur les TTL courts, lookups asynchrones avec temporisation.
Quotas et budgets pour les reculs et les bacs ; chargeback par équipe/modèle.
9) Exemples (fragments)
9. 1 Échantillonnage point-in-time pour les churn_30d
sql
WITH base AS (
SELECT user_pseudo_id, DATE(event_time) AS asof
FROM silver. fact_events
GROUP BY user_pseudo_id, DATE(event_time)
),
feat AS (
SELECT b. user_pseudo_id, b. asof,
SUM(CASE WHEN e. type='deposit' AND e. event_time>=b. asof - INTERVAL '30' DAY
AND e. event_time<b. asof THEN amount_base ELSE 0 END) AS dep_30d,
COUNT(CASE WHEN e. type='bet' AND e. event_time>=b. asof - INTERVAL '7' DAY
AND e. event_time<b. asof THEN 1 END) AS bets_7d
FROM base b
JOIN silver. fact_events e USING (user_pseudo_id)
GROUP BY b. user_pseudo_id, b. asof
),
label AS (
SELECT f. user_pseudo_id, f. asof,
CASE WHEN NOT EXISTS (
SELECT 1 FROM silver. fact_events x
WHERE x.user_pseudo_id=f. user_pseudo_id
AND x.event_time>f. asof AND x.event_time<=f. asof + INTERVAL '30' DAY
) THEN 1 ELSE 0 END AS churn_30d
FROM feat f
)
SELECT FROM feat JOIN label USING (user_pseudo_id, asof);
9. 2 Anomalies de paiement (pseudo-code, Isolation Forest)
python
X = build_features (payments_last_7d) # sum/frequency/novelty/BIN/ASN/time model = IsolationForest (contamination = 0. 01). fit(X_train)
scores = -model. decision_function(X_test)
alerts = where (scores> THRESHOLD) # AML case candidates
9. 3 Segmentation k-means (RFM + genres)
python
X = scale(np. c_[R, F, M, share_slots, share_live, share_sports])
km = KMeans(n_clusters=8, n_init=20, random_state=42). fit(X)
segments = km. labels_
9. 4 Seuil de valeur pour le modèle binaire
python threshold = pick_by_expected_cost(scores, labels, cost_fp=5. 0, cost_fn=50. 0)
10) Évaluation, validation et expérimentation
Hors ligne : split temporel (train/val/test par temps/marchés), backtesting, confiance bootstrap.
En ligne : A/B/n, tests séquentiels, CUPED/diff-in-diff.
Politique de retrait : IPS/DR pour les politiques de personnalisation.
Étalonnage : Platt/Isotonic pour les probabilités correctes.
Contrôle de la dégradation : alertes par métriques d'entreprise et PR-AUC/KS.
11) RACI
R (Responsible) : Data Science (modèles/expériences), MLOps (plateforme/serving), Data Eng (fiches/piplines).
A (Accountable): Head of Data/CDO.
C (Consulté) : Conformité/DPO (PII/RG/AML), Sécurité (KMS/secrets), SRE (SLO/coût), Finance (ROI).
I (Informed) : Produit/Marketing/Opérations/Support.
12) Feuille de route pour la mise en œuvre
MVP (4-6 semaines) :1. Catalogue des objectifs/labels et signaux (churn_30d, propensity_7d, risk_rg).
2. Feature Store v1 (5-10 fich), modèles de base XGBoost, dashboards hors ligne métriques.
3. Segmentation k-means (8 grappes) + description de segments ; Isolation Forest pour les paiements.
4. Serving en ligne avec cache, p95 <150 ms ; A/B pour 10-20 % du trafic.
Phase 2 (6-12 semaines) :- Active/Semi-Supervisé pour la pénurie de labels (AML/RG), auto-supervisé embedding jeux/sessions.
- Sorties canaries, surveillance de la dérive, auto-rétraduction.
- Une seule couche sémantique de métriques et la négociation online/offline fich.
- Caractéristiques graphiques et anneaux frod ; modèle uplift de bonus.
- Serving multirégional, quotas/chargeback ; Archives WORM des versions.
- Fairness audit, stress tests, runbooks incidents.
13) Chèque-liste avant la vente
- Échantillons point-in-time et tests anti-leakage.
- Étalonnage des probabilités ; sélection du seuil par le cost expected.
- Cartes modèles (owner, données, métriques, risques, fairness).
- Feature Store : test de conformité en ligne/hors ligne.
- Surveillance de la dérive/latence/erreurs, alerte et auto-rollback.
- Politiques PII/DSAR/RTBF/Legal Hold ; la logique est impersonnelle.
- Le plan A/B et la puissance statistique ont été calculés ; Le runbook de retour est prêt.
14) Anti-modèles
Mélange de nouveaux événements dans les labels (leakage) et l'absence de point-in-time.
« Un modèle pour tout » au lieu d'une décomposition de domaine.
Aucune probabilité libérée → des seuils d'affaires erronés.
Vol « à l'aveugle » : pas de surveillance de la dérive/qualité en ligne.
Réapprovisionnement en ligne (lourd external-join's sans cache et sans timeout).
Segments sans interprétation commerciale et propriétaire.
15) Résultat
La formation avec l'enseignant donne une prévision mesurable et la gestion des risques/revenus ; sans professeur - structure et signaux là où il n'y a pas de marques. Leur combinaison (semi/self-supervised, active learning) dans la discipline des données (point-in-time, Feature Store), de la conformité et de MLOps donne à la plate-forme iGaming une augmentation constante de Net Revenue, une réduction des frondes et des interventions RG opportunes - avec reproductibilité, contrôle des coûts et disponibilité des audits.