Modélisation des risques
Modélisation des risques
La modélisation des risques est une estimation systémique de la probabilité et de l'ampleur des pertes pour la prise de décision : limites, réserves, couvertures, politiques automatiques et hiérarchisation des mesures. Ci-dessous - le cadre de fin de fin de la carte des menaces à l'exploitation des modèles.
1) Carte des risques et KRI
Domaines : opérationnels (incidents/SLA), financiers (FX, liquidité), produits (qualité/conversion), comportementaux (frod/RG), réglementaires (pénalités, blocages), partenaires (affiliés/fournisseurs), IB (fuites/piratage), risque modèle.
KRI (Key Risk Indicators) : fréquence des incidents, p95/99 retards, proportion de chargbacks, FPR antifrod, proportion de plaintes, partage de la voix négative, surveillance coverage, « signaux d'alerte précoce » (leadership) vs conséquences (lagging).
Tous les KRI - avec le propriétaire, la fréquence, les seuils, l'hystérésis et le canal d'escalade.
2) Fréquence × Gravité : mathématiques de base des pertes
Les pertes par période (L) sont simulées comme un processus composite :[
N \sim \text{Poisson}(\lambda)\ \text{или}\ \text{NegBin}(r,p),
\quad X_i \sim F_{\text{severity}}(\theta),
\quad L=\sum_{i=1}^{N} X_i
]
Fréquence (N) : Poisson (événements indépendants rares), NegBin (superdispersion/clustering).
Gravité (X) : Lognormal (queues modérées), Gamma, Pareto/Log-Pareto (queues épaisses), modèles mixtes (mixture).
Zero-inflation : avec de nombreux zéros.
Censure/franchise : prise en compte des dedactables/limites d'assurance.
Loss Distribution Approach (LDA) : sélectionnez (\lambda) et les paramètres de gravité, puis Monte Carlo ou convolution (FFT) → métriques de queue.
3) Risques de queue et EVT
Pour les extrêmes, utilisez l'Extreme Value Theory :- Bloc Maximum → GEV, Peaks-Over-Threshold → GPD, sélection du seuil (u) + vérification de la stationnarité.
- Calibrer selon la stabilité de la queue (QQ-plot, Hill estymator).
- L'objectif est d'évaluer correctement les rares pertes importantes (1/100-1/1000).
4) Dépendances : corrélations et copules
Les corrélations de Pearson sont insuffisantes dans les queues. Utilisez des copules :- Gaussien (prise de queue simple mais faible), Student-t (tail-dependence), Clayton/Gumbel (queue asymétrique).
- Ajustez d'abord les marginaux (severity/fréquences), puis copulu pour simuler conjointement le portefeuille de risques et la concentration.
5) Indicateurs de risque et indicateurs économiques
VaR (_\alpha) : Quantification des pertes (par exemple 99 %).
CVaR/Expected Shortfall (_\alpha) : perte moyenne hors VaR - préférable pour les résidus.
EL/UL : perte attendue/inattendue.
RAROC: (\text{Risk-Adjusted Return on Capital}=\frac{\text{Доход} - \text{Ож. les pertes}} {\text {Capital à risque}}).
Capital à risque : niveau de couverture (par exemple CVaR 99. 5 %) + tampons.
6) Scénarios et tests de stress
Script = choc des entrées + corrélations + règles commerciales.
Types : historique (pics Covid 2020), hypothétique (blocage réglementaire, sortie PSP), inverse ("quels sont les chocs qui donnent une perte de ≥ X ? »).
Les résultats sont des gammes de pertes, pas un point. Documenter les hypothèses et les canaux de décision (limites/caps/pauses).
7) Bayes et mise à jour des connaissances
Fréquences bayésiennes/gravité : a priori (Gamma-Poisson, Lognormal avec des paramètres hyper informatifs) → mise à jour en ligne à l'arrivée des données.
Utile pour les petits échantillons/nouveaux marchés (pooling partial, modèles hiérarchiques).
8) Données et qualité (Point-in-Time !)
Contrats de données : schémas, clés, temporisations, versioning d'événements, drapeaux d'ajustement.
Point-in-Time correct : pas de signaux futurs dans l'apprentissage (en particulier pour les frods/pannes d'exploitation).
Changements de politique/ism. dimensions : dans le calendrier des événements.
Stagnation et changements : Profiler la dérive (PSI/KL) sur les fiches clés.
9) Procédure de modélisation (étapes)
1. Définissez la case et l'horizon : qu'est-ce qu'il y a « perte », période, unité (marque × pays × canal).
2. Formez datacet : fréquences, gravité, covariables (saisonnalité, promo, FX, fournisseurs).
3. Sélection de la famille : Poisson/NegBin × Lognormal/Pareto (vérifiez les tests QQ/KS/AD).
4. Dépendances : copule/modèle de facteur pour agréger les portefeuilles.
5. Étalonnage : MLE/bayésien ; comptage de la censure, dedactables, outliers.
6. Validation/bascule : couverture des queues, stabilité des paramètres, sensibilité au stress.
7. Monte Carlo : (10 ^ 5) - (10 ^ 6) essais ; évaluez VaR/CVaR, les pertes de scénarios.
8. Solutions : limites, caps, pauses, allocalisation de la réserve, hiérarchisation des mesures.
9. Documents : carte modèle, script passeport, runbook.
10) Intégration avec les politiques et l'automatisation
Déclencheurs : dépassement des seuils KRI/VaR/CVaR → étapes (renforcement KYC, 3DS-enforce, abaissement des limites, trottling du canal de paiement, désactivation promo).
Hystérésis/couldown : différents seuils d'entrée/sortie pour éviter le « clignotement ».
Files d'attente des risques : triage par (\mathbb {E} [VE]) = dommages évités − coût des mesures − dommages.
11) Exemple de modèle composite (pseudo-Python)
python import numpy as np
1) frequency (week) and severity (EUR)
lam = 3. 2 # Poisson rate mu, sigma = 6. 0, 1. 1 # Lognormal params (ln-space)
S = 200000 # simulations
N = np. random. poisson (lam, S) # event rate sev = lambda n: np. exp(np. random. normal (mu, sigma, n)) # severity loss = np. array([sev(n). sum() if n>0 else 0. 0 for n in N])
VaR99 = np. quantile(loss, 0. 99)
CVaR99 = loss[loss >= VaR99].mean()
EL = loss. mean()
Hiérarchie/portfolio : comptez pour chaque segment, puis agrégez-le par copule/facteur ou par échantillonnage conjoint empirique.
12) Gestion des limites et du capital
Limites/caps : par canal/pays/fournisseurs, liés à un CVaR admissible.
Réserves : niveau de couverture (par exemple CVaR 99 % mensuel) + tampon de contrôle.
Transferts à risque : réassurance/assurance, hedge FX, diversification des fournisseurs.
13) Risque modèle et hovernance
Model Card (modèle)
Objectif et zone d'application ; Métriques VaR/CVaR/coverage ; données et période ; les hypothèses ; restrictions ; sensibilité ; fairness/éthique ; les propriétaires ; version ; date de révision.
MLOps/ModelOps : registre des modèles, contrôle de version, démarrage shadow/canaris, fonctionnalité parity online/offline, surveillance de la qualité et de la dérive, auto-alerte, « stop grue ».
Validation/bascule
Rat : revêtement de queue (Kupiec/Christoffersen), stabilité des paramètres, résistance au stress, spécifications alternatives.
14) Surveillance en vente et runibooks
Métriques
Couverture VaR (percées réelles/attendues), étalonnage CVaR, dynamique EL/UL.
Dérive des entrées (PSI), proportion de « nouveaux » segments, surchauffe des limites.
Opérations : Calcul en latitude, retard des fides, % folbacks.
Runbook (exemple « sursaut de chargbacks »)
1. Vérifie la fraîcheur des données et l'exactitude des étiquettes.
2. Segmentation du sursaut (pays/paiement/appareil/partenaire).
3. Activer le step-up KYC/3DS dans les segments touchés, abaisser les limites.
4. Démarrer le scénario de stress « perte de PSP », recalculer CVaR.
5. Communication aux propriétaires de canaux, plan de compensation.
6. Rétrospective et mise à jour des paramètres du modèle/des règles.
15) Passeport de scénario (template)
ID/version, date, propriétaire
Narration : ce qui s'est passé (ban réglementaire × choc FX × sortie PSP)
Chocs : (\Delta) fréquences, variations de gravité/corrélations, durée
Estimation des pertes : EL/VaR/CVaR (jour/semaine/mois)
Contre-mesures : limites/changement de fournisseur/communication/assurance
Points de sortie : conditions de retrait des mesures (hystérésis)
16) Passeports KRI et limites (résumé)
KRI : code, définition, formule, fenêtre, seuils 'warn/critical', hystérésis, propriétaire, canal d'alerte.
Limite : objet (canal/pays/fournisseur), métrique (CVaR99/EL), valeur, période, priorité, actions en cas de dépassement, exceptions/fenêtres temporelles.
17) Anti-modèles
Appui sur le moyen au lieu des queues ; « beau RMSE » et mauvais CVaR.
Corrélation « telle quelle » sans tail-dependence.
L'absence de Point-in-Time → les fuites, la réévaluation de la « précision ».
Ignorer les scénarios/stress ; un modèle pour tout.
Modifications silencieuses des paramètres sans version/changelog.
Il n'y a pas d'hystérésis dans la politique → des mesures fluides.
18) Checklist avant la sortie des circuits de simulation des risques
- La carte des risques et la KRI sont formalisées, les propriétaires désignés
- Données PIT, contrats sources, calendrier des événements/politiques
- Fréquence et gravité calibrées, queues testées (EVT)
- Dépendances simulées (copula/facteur), portefeuille agrégé
- Baktest VaR/CVaR, couverture et stabilité des paramètres dans la normale
- Les scénarios et les tests de stress sont prêts, le passeport et le runbook sont formalisés
- Intégration avec limites/kaps/politiques, hystérésis incluse
- Model Card, version, propriétaires, monitoring et alerties personnalisés
Résultat
La modélisation des risques n'est pas une « estimation de la perte moyenne », mais une gestion des queues : fréquence et gravité correctes, EVT pour les extrêmes, dépendances via copules, scénarios et tests de stress, VaR/CVaR et métriques économiques (RAROC), plus la discipline ModelOps. Ce circuit transforme les risques des cygnes noirs en solutions quantifiées avec des limites, des réserves et des actions claires.