Enregistrement des séances et analyse comportementale
1) Introduction
L'enregistrement des sessions est une reconstruction des interactions de l'utilisateur avec l'interface (clics, mouvements, scroll, entrée, erreurs, état UI) synchronisée avec la vidéo de l'écran et les consoles d'événements. L'analyse comportementale transforme le flux brut d'événements en insignes : où les gens sont perdus, en colère, abandonnent la tâche et pourquoi.
Objectif : trouver plus rapidement les points de friction, réduire le temps à la valeur et augmenter la conversion des actions clés (inscription, dépôt, lancement du jeu, participation au tournoi).
2) Quand c'est particulièrement utile (iGaming scripts)
Onbording et KYC : comprendre où les utilisateurs sont coincés dans les étapes de confirmation.
Caisse (dépôt/retrait) : erreurs de validation, frais/limites incompréhensibles, annulation dans la dernière étape.
Catalogue/recherche du jeu : filtres non évidents, "faux clics'par cartes, confusion entre démo et lancement réel.
Tournois et promotions : lecture des règles, clics sur les prix, incompréhension des conditions.
Scénarios mobiles : hit-area, chevauchements d'éléments floating, comportement en cas de mauvais réseau.
3) Exactement quoi fixer
Événements UI : clics, tapas, scroll, guidage (bureau), focus/blur.
États des composants : 'disabled', 'loading', 'error', 'success', sticky et floating blocks.
Erreurs et exceptions : Validateurs avant, réponses API, temporisations, pannes réseau.
Transitions et échecs : changement d'itinéraire, fermeture des modales, retour à l'étape précédente.
Contexte technique : device, OS, navigateur, taille de la fenêtre, lagune (CLS/LCP/INP).
4) Métriques d'analyse comportementale
Taux de réussite par tâche (si l'utilisateur a atteint l'action cible).
Time on Task/TTV - temps jusqu'à la valeur/fin de l'étape.
FMC (First Meaningful Click) est le premier clic significatif par objectif.
Rage Click Rate - ≥3 click en 1-2 secondes en un seul point.
Dead Click Share - clics sans conséquence (pas de transition/event).
Taux d'erreur : Taux d'erreur (validation/NTTR/exceptions).
Backtrack Rate est la proportion de retours à l'étape précédente du flow.
Abandonment @ Step - soins à une étape spécifique (à la caisse, KYC, onbording).
Scroll Depth p50/p90 - profondeur de visualisation jusqu'à STA/règles/formulaires.
Associez-les aux métriques d'entreprise : conversion à l'enregistrement/dépôt, rétention, proxy LTV.
5) Sampling et représentativité
Sample de base : 10-30 % du trafic sur les écrans clés ; 100 % sur les erreurs critiques et les scénarios rares.
Segments : nouveaux/revenants, VIP, géo, canaux (organique/paid/reference), appareils.
Filtres de bruit : bots, vitesses extrêmes de scroll, onglets de fond, lecture sans interaction.
Périodes : 7/28 derniers jours + fenêtres de sortie « avant/après ».
6) Annotations et flux de travail
Entrez une annotation obligatoire pour chaque modèle trouvé :- Problème : « Dead Clicks 22 % sur le badge « Megaways » cartes de jeu ».
- Hypothèse de cause : « Badge ressemble visuellement à un bouton filtre ».
- Solution : « Rendre le badge non lisible ou ajouter une action de filtrage ».
- Effet attendu : « − 50 % de dead-clics, + 8-12 % FMC de lancement du jeu ».
- Priorité : P1 (bloque le chemin clé )/P2/P3.
- Critères d'acceptation : seuils de mesure clairs.
7) Vie privée et conformité
Masquer la saisie : champs email, cartes, documents, chats - masquer les caractères et les sélecteurs entiers.
PII/Finances : nous n'enregistrons pas les valeurs ; Tokéniser les identifiants ; nous anonymisons l'IP.
Cookie/Consentement : nous respectons 'DNT', nous affichons une bannière de consentement (opt-in/opt-out), des politiques séparées pour les enregistrements/carte thermique.
Accès et vérification : qui regarde les dossiers et pourquoi ; logs de visualisation ; durée de conservation (p. ex. 30 à 90 jours).
Droit de suppression : nous nettoyons les sessions de l'utilisateur sur demande (DSAR).
Sécurité : cryptage dans le stockage et lors de la transmission ; limitation des exportations.
8) Technalisation (recommandations)
Слой данных (data layer): `ui_click`, `ui_error`, `ui_state_change`, `route_change`, `network_error`, `experiment_variant`.
Sélecteurs stables : 'data-session-zone', 'data-component-id' ; éviter les chaînes CSS « fragiles ».
Scleyka avec A/B : conservez 'session _ id' et 'variant' (sans PII) - à titre de comparaison par branche.
Performance : Battez les événements, limitez les entrées FPS, utilisez le sampling adaptatif lors de la dégradation.
Particularités mobiles : prise en compte du clavier virtuel, recyse du wuport, gestes (swipe, pull to refresh).
Diagnostic du réseau : Loger les RTT, les temporisations, les annulations - c'est souvent le réseau qui « casse » l'UX.
9) Modèles analytiques (que chercher)
Soins précoces après intro/bannière - P1 n'est pas visible/pas évident.
Retours cycliques entre deux étapes (A↔B) - contenu/validation incompréhensible.
Les séries d'erreurs de forme sont des microcopies faibles, de mauvais exemples, des masques stricts.
Focus sur les zones non ciblées (longues trames stop du curseur) : la hiérarchie et le contraste sont perturbés.
L'échec dans la zone hit-area est trop petit, les chevauchements (sticky/floating).
Les versions avant/après échouées sont un sursaut de Error Rate/Abandonment @ Step.
10) Analyse comportementale Dashboard (minimum)
Vue d'ensemble de session : volume de sample, part de mobile/desktop, split sur les canaux.
Funnel Playback : étapes de flow avec un clic sur « regarder des exemples de sessions » pour chaque rupture.
Rage/Dead Trends : dynamique par type de page et par segment.
Error Heat : carte des erreurs supérieures (validation/API) avec référence aux enregistrements.
Time to Value : médiane/quantifiée par tâches clés.
Release Comparer (avant/après) : Delta métriques et jump-links sur les enregistrements représentatifs.
11) Intégration avec des cartes thermiques et des méthodes de qualité
Triangulation : enregistrement des sessions (pourquoi) + cartes thermiques (où) + métriques d'entonnoir (combien).
Interviews/sondages : utiliser les clips des enregistrements comme incitatifs pour les questions "pourquoi l'a-t-il fait ? ».
Sapport/tickets : associez l'ID de la session aux tickets pour un diagnostic rapide.
12) A/B et analyse causale
Pour chaque hypothèse, enregistrez les métriques UX cibles (Rage/Dead/Backtrack) et les métriques métiers (conversion, TVN).
Comparer les entrées selon les branches A/B : où la trajectoire d'attention change, le nombre d'erreurs et de pannes diminue.
Évitez de « regarder quelques clips, → j'en déduis » : utilisez des échantillons représentatifs et des intervalles de confiance.
13) Rôles et processus
UX-chercheur : formule les questions, planifie le sample, annote les schémas.
Produit/analyste : se lie avec les KPI d'entreprise, priorise les tâches.
Designer/Frontend : implémente les modifications, surveille les états des composants.
QA/Support : ajouter des cas à la régression, transférer les plaintes de l'utilisateur à backlog.
Analyse hebdomadaire : 30-60 minutes, 5-10 clips, 3-5 tâches avec priorité P1.
14) Anti-modèles
Voir les notes sans but ni plan → burn-out, pas de résultats.
Tirer des conclusions sur les cas isolés « brillants ».
Ignorer la confidentialité et le masquage.
Mélanger mobile/desktop en une seule sortie.
Faire des diagnostics sans vérification avant/après ou A/B.
« Le culte du clip » : un clip comme décoration d'une présentation et non comme preuve d'une hypothèse.
15) Acceptation Critique pour les tâches « après avoir vu les enregistrements »
Le problème, l'hypothèse, la solution, l'effet attendu et les métriques sont décrits.
Des seuils ont été définis (par exemple, Rage Click Rate ↓ jusqu'à <1,5 %).
L'analyse est activée dans la fenêtre de publication (avant/après) + révision sélective des enregistrements.
L'hyde est mis à jour par hiérarchie (si les raisons sont dans les priorités/contrastes).
Les checklists de disponibilité (styles de focus, hit-area, contraste) ont été parcourus.
16) Chèque court avant le départ
1. Avez-vous un but et une liste de scénarios clés ?
2. Vous avez configuré le masquage, le consentement de l'utilisateur et le stockage ?
3. Sample et segments définis ?
4. Le marquage des zones et les sélecteurs de consistance sont-ils prêts ?
5. Lien avec A/B et entonnoir - inclus ?
6. Format d'annotation et de priorité défini ?
7. Préparation d'un dashboard avec les tendances Rage/Dead/Error/TTV ?
17) TL; DR
L'enregistrement des sessions est un « microscope » pour UX : montre des frottements réels et des schémas comportementaux. Faites-le en toute sécurité (masquage, consentement), de manière systémique (sample, segments, annotations), causale (A/B, avant/après) et orientée produit (métriques → tâche → effet). Le résultat est moins de bruit, plus rapide à la valeur, plus de conversion.