Süni intellekt etikası
1) Niyə AI etikası lazımdır
AI qərarların qəbulunu gücləndirir, rutini avtomatlaşdırır və məzmun yaradır. Lakin düşünülmüş etika olmadan ayrı-seçkilik edə bilər, məxfiliyi poza bilər, təhlükəli məzmun yarada bilər, istifadəçiləri manipulyasiya edə bilər və ya oyunçuluğu artıra bilər. AI etikası modelin bütün həyat dövrü üzrə: məlumatların toplanmasından tutmuş istismardan çıxarılmasına qədər prinsiplərin, proseslərin və nəzarətin idarə olunan sistemidir.
2) Məsuliyyətli süni intellektin prinsipləri
1. Ədalət (Fairness): əsassız ayrı-seçkiliyin olmaması, bərabər imkanlar.
2. Şəffaflıq və izahlılıq: başa düşülən məqsədlər, məlumat mənbəyi, şərh olunan qərarlar.
3. Hesabatlılıq (Accountability): təyin edilmiş model sahibləri, loging, izlərin auditi.
4. Təhlükəsizlik və sabitlik: hücumlara qarşı qorunma, etibarlılıq, stress testləri və qırmızı komanda.
5. Məlumatların məxfiliyi və minimuma endirilməsi: qanuni əsaslar, DPIA, texniki tədbirlər.
6. İnsan-döngədə (Human-in-the-Loop): insana müraciət etmək və eskalasiya etmək hüququ.
7. Mütənasiblik və rifah: Faydalar riskdən çoxdur, həssas qruplara zərər verməməlidir.
8. Ekoloji məsuliyyət: enerji səmərəli həllər və hesablamaların optimallaşdırılması.
3) Model həyat dövrünün idarə edilməsi (ML Governance)
Mərhələlər və artefaktlar:- Idea/Business Case: məqsədin əsaslandırılması, gözlənilən fayda, toxunulan hüquqların xəritəsi.
- Məlumat: kataloq və hüquqi status (lisenziya, razılıq), datasheet data dəsti, silinmə siyasəti.
- İnkişaf: kart fich, baseline, təcrübə protokolu, reproducibility, validasiya.
- Risklərin qiymətləndirilməsi (AI Risk Assessment): zərər ehtimalı/şiddəti + qrupun zəifliyi.
- Açılış (Go-Live): Model Card, izahlılıq, monitorinq planı və «guardrails».
- Əməliyyat: sürüklənmə/yerdəyişmə/toksiklik monitorinqi, apellyasiya kanalı, həllər jurnalı.
- İstifadədən çıxarılması: məlumat/çəkilərin miqrasiyası, təhlükəsizliyi və utilizasiyası, bildirişlər.
4) Məlumatlar və məxfilik
Qanuni əsaslar: müqavilə/legitim maraq/razılıq; həssas məlumatlar üçün fərdi əsaslar.
Minimallaşdırma və təxəllüsləşdirmə: daha az saxlamaq, daha qısa saxlamaq; PII fich ayırmaq.
DPIA/PIA: başlamazdan əvvəl hüquq və azadlıqlara təsirlərin qiymətləndirilməsi.
Lisenziyalaşdırma və müəllif hüquqları: təhsil hüququ, icazəsiz məzmunun istifadəsinin qadağan edilməsi; silmə sorğularının idarə edilməsi.
Sızma və giriş: şifrələmə, hüquq nəzarəti, gizli skanerlər, giriş jurnalı.
5) Ədalət və anti-bias
Qorunan əlamətləri (cins, yaş, əlillik və s.) Təyin edin, hətta birbaşa istifadə edilməsə də - proksi yoxlayın.
Метрики fairness: Demographic Parity, Equalized Odds, False Positive/Negative Rate Balance.
Test dəstləri: sintetik və real; seqmentlər üzrə stratifikasiya; «kənarlar» nümunələri üzərində təhlil.
Mitiqasiya: reweighing, adversarial debiasing, post-processing düzəlişlər; müntəzəm yenidən baxılması.
6) İstifadəçinin izahı və hüquqları
Yerli izahlar: Tablo modelləri üçün SHAP/LIME/anchors; generativ süni intellekt üçün - ipuçlarının (prompt trace) və mənbələrin izlənməsi.
Qlobal izahlar: əlamətlərin əhəmiyyəti, model kartı (Model Card).
Hüquqlar: qərarın qısa izahı, apelyasiya kanalı, SLA (xüsusilə risk-həssas qərarlar üçün: limitlər, ödənişlər, məhdudiyyətlər).
7) AI təhlükəsizliyi və sui-istifadədən qorunma
Modellərə hücumlar: prompt-injection, jailbreaks, data-poisoning, model stealing, membership inference.
Guardrails: təhlükəsizlik filtrləri, məzmun moderasiyası, alət məhdudiyyətləri (tool use), çıxış validasiyası.
Red Teaming: yaradıcı hücumlar, zəhərli/təhlükəli/qadağan olunmuş məzmun yaratmaq, mühafizələri aşmaq.
Deepfakes: meta-məlumat/su işarələri siyasəti, saxta impersonatorial ssenarilərin qadağan edilməsi, şikayət üçlüyü.
Hadisələr: playbook, P0/P1 səviyyəsi, dayandırma/deqradasiya, ictimai yeniləmələr.
8) Generativ süni intellektdən məsuliyyətlə istifadə
Diskleymerlər və dürüstlük: AI məzmununu etiketləmək, yoxlamadan bir insanın ekspertizası kimi verməmək.
Faktiki dəqiqlik: retrieval-augmented generation (RAG), mənbələrə istinadlar, faktların yoxlanılması.
Məzmun siyasəti: yetkinlik yaşına çatmayanlar üçün təhlükəli təlimatların, ayrı-seçkiliyin, qumar promosyonunun qadağan edilməsi.
UX nümunələri: mümkün qeyri-dəqiqliklər barədə xəbərdarlıq; «Səhv bildirmək» düyməsi; easy opt-out.
Anti-spam və sui-istifadə: tezlik limitləri, kapçalar, davranış siqnalları.
9) Human-in-the-Loop və qərar qəbul
İnsan lazım olduqda: yüksək zərər riski, hüquqi/maliyyə nəticələri, sanksiyalar/pulsuz/məsuliyyətli oyun.
Revyuerlərin rolları: hazırlıq, aydın qiymətləndirmə rubrikaları, münaqişə-of-maraq çeki.
Apelyasiya: aydın forma, SLA (məsələn, 5-10 iş günü), müstəqil ekspert eskalasiya.
10) Keyfiyyət və sürüklənmə monitorinqi
Online metriklər: dəqiqlik/kalibrləmə, toksiklik, seqmentlərə görə bias, hallu-rate (LLM üçün), latency/sabitlik.
Дрейф: data drift, concept drift, prompt drift; alertlər və avto-rolbek.
Generativ AI qiymətləndirilməsi: avtomatik göstəricilərin (toxicity score, factuality) və human eval (rubrics) qarışığı.
Post-launch təcrübələr: Etik məhdudiyyətləri ilə A/B (fairness/təhlükəsizlik deqradasiyasında stop-loss).
11) iGaming/Fintech xüsusiyyətləri
Məsuliyyətli oyun: problemli davranış modelləri, «soyutma», limitlər, erkən müdaxilələr; həssas hədəfləmə qadağan.
Antifrod/AML: şəffaf eskalasiya qaydaları, mənfi qərarların izahı, geo/fin statusuna görə bias testi.
Marketinq: aqressiv «yüngül pul» qadağan; tezlik limitləri, yaş filtrləri.
Nəticələri olan qərarlar: bloklama, limitlər, KYC eskalasiyası - həmişə apellyasiya hüququ ilə.
12) Təşkilat, rollar və RACI
13) Məsuliyyət metrikası (dashboard)
Keyfiyyət: dəqiqlik/kalibrləmə; hallu-rate; coverage izahları.
Fairness: seqmentlər üzrə metrik fərq (Δ TPR/ Δ FPR), düzəldilmiş halların sayı.
Təhlükəsizlik: guardrails tezliyi, qırmızı komanda nəticələri, jailbreak cavab vaxtı.
Privacy: DSR-də SLA, sızmalar üzrə near-miss, anonim fiqurların payı.
Apellyasiya: qane sayı/payı, orta baxış vaxtı.
Əməliyyatlar: sürüklənmə-alertlər/ay, avto-rolbeklər, fasilə vaxtı.
Kadr hazırlığı: Responsible AI kurslarının% əhatə dairəsi.
14) Sənədlər və artefaktlar
AI Policy и Standard Operating Procedures (SOP).
Datasheets/Model Kartları, data/model lisenziyaları.
DPIA/PIA и AI Risk Assessment.
Təhlükəsizlik: red team hesabatlar, guardrail konfiqurasiya, lock jurnal.
Həllər/müraciətlər jurnalı, istifadəçiyə cavab şablonları.
Hadisələrin planı AI (playbook) və post-mortemlər.
15) Hadisə menecmenti (sadələşdirilmiş playbook)
1. Detektiv: sürüklənmə/toksiklik/anomaliyalar, istifadəçi mesajları.
2. Təsnifat: P0 (istifadəçilərə zərər/hüquqi risk), P1, P2.
3. Saxlama: söndürmək/phichu məhdudlaşdırmaq, ehtiyat qaydaları tətbiq.
4. Rabitə: daxili və zəruri hallarda xarici; dürüst və vaxtında.
5. Remediation: model/data yamaq, guardrails yeniləmə, kompensasiya.
6. Post-mortem: səbəbləri, dərslər, CAPA, standartların dəyişdirilməsi.
16) AI funksiyasının başlanğıc çek siyahısı
- Hədəf və istifadəçilər müəyyən; AI olmadan risklər və alternativlər qiymətləndirilir.
- Məlumatlar qanunidir, minimuma endirilmişdir; DPIA/PIA tərəfindən həyata keçirilmişdir.
- fairness testləri və mitiqasiya protokolu həyata keçirilmişdir.
- Açıqlanabilirlik: Model Card tərəfindən hazırlanmış, izahat şablonları.
- Guardrails və məzmun siyasəti xüsusi, red teaming keçdi.
- Monitorinq (drift, toksiklik, bias), şikayət/apellyasiya kanalı.
- Hadisə planı və fallback rejimi var.
- Komanda və dəstək təlimi keçirildi; FAQ/diskleymerlər hazırdır.
17) Addım-addım tətbiq (90 gün)
Həftələr 1-3: AI Siyasətini təsdiq edin, AI Ethics Liderini təyin edin, pilot seçin; məlumat kartı və DPIA.
4-6 həftələr: prototip, fairness-qiymətləndirmə, red teaming, Model Card və UX diskleymerlərin hazırlanması.
Həftələr 7-9: məhdud buraxılış (feature flag), monitorinq və etik stop meyarları ilə A/B.
10-12 həftələr: ölçmə, dashboard metrik, kadr hazırlığı, artefaktların auditi.
18) Xüsusi qadağalar və ehtiyatlılıq
AI qanunları, sanksiyaları, yaş məhdudiyyətlərini aşmaq üçün istifadə edilə bilməz.
Gizli manipulyasiya, «qaranlıq nümunələr», bahis/depozit tətbiq etmək qadağandır.
Yoxlama və disleymerlər olmadan heç bir «tibbi/hüquqi» məsləhət; yüksək riskli domenlər üçün - yalnız mütəxəssislərin nəzarəti altındadır.
Zəhərli, ayrı-seçkilik, cinsi və təhlükəli məzmuna sıfır tolerantlıq.
19) Şablon mövqeləri (fraqmentlər)
Prinsiplər: "Şirkət AI-ni yalnız faydaların riskdən çox olduğu məqsədlər üçün tətbiq edir; AI qərarları insan nəzarətinə tabedir".
Privacy: "Təlim/inferens üçün fərdi məlumatların emalı hüquqi əsaslara və minimuma endirmə prinsipinə əsaslanır; İstək üzrə izahatlar və silinmə (mümkün olan yerlərdə) mövcuddur ".
Məsuliyyət: "Hər model üçün sahibi təyin olunur; versiyalar, təcrübələr, qərarlar və insidentlərin jurnalı aparılır".
Təhlükəsizlik: "Generativ sistemlər red teaming keçir; təhlükəli məzmun guardrails tərəfindən bloklanır; deepfakes qeyd olunur".
Apellyasiya: "İstifadəçi süni intellektin qərarına etiraz edə bilər; yenidən baxılması vaxtında ixtisaslı mütəxəssis tərəfindən həyata keçirilir".
Çıxış
AI etikası mücərrəd şüarlar deyil, idarəetmə intizamıdır: prinsiplər → proseslər → nəzarət → metrika → təkmilləşdirmə. Məlumat siyasətini, anti-bias, izahlılığı, təhlükəsizliyi və insan-in-the-loop-u aydın rollar və dashboard ilə birləşdirin - və AI xüsusiyyətləriniz həm biznes, həm də istifadəçilər üçün faydalı, qanuni və davamlı olacaq.