AI systémy se liší od tradičního softwaru — jejich chování se mění v čase, výstupy nejsou deterministické a kvalita závisí na vstupních datech. Post-deployment monitoring je proto nejen best practice, ale regulatorní požadavek.
Regulatorní kontext
Regulace
Požadavek
Článek
AI Act
Post-market monitoring pro high-risk AI
Čl. 72
AI Act
Logging pro high-risk AI systémy
Čl. 12
NIS2
Monitoring ICT bezpečnosti
Čl. 21
GDPR
Sledování automatizovaného rozhodování
Čl. 22
Co monitorovat
Výkonnost modelu
Metrika
Co měří
Proč důležité
Accuracy / kvalita
Správnost AI výstupů
Detekce degradace modelu
Latence
Doba odpovědi
UX a SLA
Throughput
Počet zpracovaných požadavků
Kapacitní plánování
Error rate
Poměr chybných odpovědí
Detekce problémů
Bezpečnost a compliance
Metrika
Co měří
Proč důležité
Data lineage
Odkud data přišla a kam jdou
GDPR, audit trail
Access logs
Kdo k AI systému přistupuje
Bezpečnost, audit
Anomálie
Neobvyklé vzory v dotazech/odpovědích
Bezpečnostní incidenty
Bias detection
Systematické nerovnosti ve výstupech
Fairness, AI Act
Provozní metriky
Metrika
Co měří
Proč důležité
Dostupnost
Uptime AI služby
SLA
Náklady
API calls, compute
Budget management
Usage patterns
Jak je AI využíváno
Adopce, optimalizace
Logging — co zaznamenávat
Minimální požadavky (AI Act čl. 12)
Pro high-risk AI systémy musí logy umožnit:
Identifikaci vstupních dat a kontextu
Rekonstrukci rozhodovacího procesu
Identifikaci odpovědné osoby (human oversight)
Časové razítko každé interakce
Praktická doporučení
Retence
Minimum: Po dobu životnosti AI systému + regulatorní požadavky
GDPR omezení: Osobní data minimalizovat, pseudonymizovat