Přeskočit na obsah
TECHNOMATON | Docs SAI certifikovaní trenéři

Řízení AI

Verze: 1.0 | Efektivní od: 1. ledna 2026


1. Účel

Tato směrnice definuje, jak organizace řídí vývoj, nasazení a používání AI systémů v souladu s AI Act (EU 2024/1689).


2. Scope

Směrnice se vztahuje na:

  • Všechny AI/ML systémy vyvíjené interně
  • Third-party AI (Claude, GPT, atd.)
  • AI embedded v produktech
  • AI používané v interních procesech

3. AI Klasifikace & Risk Assessment

3.1 Inventura AI systémů

Každý AI systém musí být zdokumentován:

PolePopis
AI System IDUnikátní identifikátor
NázevPopisný název
TypInternal / Third-party / Embedded
ÚčelBusiness use case
Zodpovědná osobaKdo je zodpovědný
Risk LevelProhibited / High / Medium / Low
StatusDevelopment / Testing / Production / Retired

3.2 Risk Klasifikace

Step 1: Identifikujte AI systém

Step 2: Klasifikujte dle rizika:

KategoriePříkladyAkce
ZakázánoReal-time biometric ID, social scoring, manipulationSTOP – nepoužívat
High-RiskCredit scoring, employment, health, educationFull compliance
Medium-RiskChatbots, deepfakes, emotion recognitionTransparentnost
Low-RiskSpam filters, analytics, recommendationsMinimální

Step 3: Dokumentujte rozhodnutí


4. High-Risk AI – Povinné kontroly

4.1 Před nasazením (Pre-deployment)

KontrolaPopis
Design AuditJe AI nutná? Existuje alternativa?
Data AssessmentTraining data quality, bias check
DPIAData Protection Impact Assessment
Technical DocumentationModel card, limitations, testing
Human Oversight DesignAppeal process, override capability

4.2 Po nasazení (Post-deployment)

KontrolaFrekvence
Performance MonitoringContinuous
Bias TestingMěsíčně
Accuracy ValidationČtvrtletně
Incident ReviewPři incidentu
Re-certificationRočně

5. GPAI (Third-Party AI)

5.1 Povolené použití

VendorPovolené use casesOmezení
Claude (Anthropic)Content, analysis, codingNo PII without encryption
GPT-4 (OpenAI)Content, analysis, codingNo PII without encryption
PerplexityResearch, searchNo confidential data

5.2 Mandatory Controls

Před použitím GPAI:

  • DPA signed
  • Terms of Service reviewed
  • Data classification: NO PII/confidential
  • Audit logging enabled
  • User informed about AI use

5.3 Zakázané praktiky s GPAI

  • ❌ Odesílání PII (jména, emaily, čísla)
  • ❌ Odesílání zdravotních dat
  • ❌ Odesílání finančních dat
  • ❌ Odesílání confidential business data
  • ❌ Automatizované rozhodování bez human review

6. AI Development Lifecycle

6.1 Fáze vývoje


7. AI Incident Management

7.1 Definice AI incidentu

TypPříkladSeverity
BiasDiskriminační výstupyHigh
HallucinationFakticky nesprávné informaceMedium
Privacy breachPII v outputsCritical
MalfunctionSystém nefungujeMedium
SecurityAdversarial attackCritical

7.2 Response Process


8. User Transparency

8.1 Povinná upozornění

SituaceUpozornění
Chatbot”Komunikujete s AI asistentem”
AI recommendation”Tento obsah doporučuje AI”
AI decision”Toto rozhodnutí bylo podpořeno AI”
Deepfake/synthetic”Tento obsah byl vytvořen AI”

8.2 Right to Explanation

Pokud AI ovlivňuje rozhodnutí o osobě:

  • Subjekt má právo vědět, že AI bylo použito
  • Subjekt má právo na vysvětlení faktorů
  • Subjekt má právo na human review

9. Documentation Requirements

9.1 Model Card (pro každý AI systém)

SekceObsah
OverviewÚčel, owner, status
Training DataZdroje, size, preprocessing
ArchitectureModel type, parameters
PerformanceAccuracy, limitations
FairnessBias testing results
LimitationsKnown issues, edge cases
Intended UseApproved use cases
Prohibited UseWhat NOT to use it for

9.2 Retention

DokumentRetention
Model CardLifetime of model + 5 let
Training Data InfoLifetime of model + 5 let
Testing Results5 let
Incident Reports5 let
Audit Logs5 let

10. Training & Awareness

RoleŠkoleníFrekvence
All employeesAI basics, acceptable useRočně
Data ScienceBias testing, fairnessČtvrtletně
ProductAI transparency, UXPololetně
LegalAI Act requirementsRočně
LeadershipAI governance, riskRočně

11. Policy Review

  • Čtvrtletně: Review AI inventory, incidents
  • Pololetně: Update dle regulatory changes
  • Ročně: Full policy review + board approval

Příští revize: Q2 2026