Přeskočit na obsah
TECHNOMATON | Docs SAI certifikovaní trenéři

GOVERN

Jak vybudovat organizační kulturu a procesy pro řízení AI rizik

NIST AI RMF funkce: GOVERN Subkategorie: GV-1 až GV-6


1. Přehled funkce GOVERN

GOVERN je základem celého AI RMF. Bez funkční governance nelze efektivně implementovat ostatní funkce (MAP, MEASURE, MANAGE).

Cíle GOVERN

CílPopis
KulturaVytvořit organizační kulturu vědomou AI rizik
PolitikyDefinovat jasné politiky a procedury
RoleUstanovit odpovědnosti a accountability
ProcesyImplementovat governance procesy
Third-partyŘídit rizika dodavatelského řetězce

2. GV-1: Politiky a procedury

2.1 AI Governance politika

Minimální obsah politiky:

AI GOVERNANCE POLITIKA
1. Účel a scope
- Proč politika existuje
- Na co se vztahuje (všechny AI systémy)
2. Definice
- Co je AI systém
- Co je high-risk AI
- Co je GAI (generativní AI)
3. Principy
- Transparentnost
- Fairness
- Privacy
- Safety
- Accountability
4. Klasifikace rizik
- Prohibited (zakázané)
- High-risk
- Medium-risk
- Low-risk
5. Role a odpovědnosti
- AI System Owner
- AI Risk Officer
- DPO
- CISO
6. Procesy
- Pre-deployment review
- Incident management
- Change management
7. Compliance
- EU AI Act
- GDPR
- Sektorové regulace
8. Review a aktualizace
- Frekvence přezkumu
- Approval process

2.2 Acceptable Use Policy pro GAI

Specifická politika pro generativní AI (ChatGPT, Claude, atd.):

OblastPravidlo
Schválené nástrojeSeznam povolených GAI nástrojů
Zakázaná dataPII, zdravotní, finanční, confidential
Povinnosti uživateleOvěření výstupů, označení AI-generated
LoggingPožadavky na audit trail
IncidentyJak hlásit problémy

2.3 Risk Tolerance

Definujte prahové hodnoty pro akceptaci rizik:

Risk LevelToleranceSchváleníPříklady
CriticalZero toleranceN/A - zakázánoCBRN, CSAM
HighMinimálníCEO + BoardHigh-risk AI dle AI Act
MediumŘízenéCTO + LegalChatboty, analytics
LowAkceptovanéManagerSpam filtry, search

3. GV-2: Role a odpovědnosti

3.1 Organizační struktura

3.2 Klíčové role

AI Risk Officer / AI Governance Lead

AspektDetail
ReportingCTO nebo CEO
OdpovědnostiAI governance program, risk assessment, compliance
KvalifikaceAI/ML znalosti, risk management, regulatory knowledge
Velikost org.Full-time pro >500 zaměstnanců, part-time pro menší

Klíčové aktivity:

  • Vedení AI inventury
  • Koordinace risk assessments
  • Liaison s regulátory
  • Training a awareness
  • Incident coordination

AI System Owner

AspektDetail
ReportingCTO nebo business unit head
OdpovědnostiKonkrétní AI systém end-to-end
KvalifikaceBusiness + technical understanding
Počet1 per AI systém

Klíčové aktivity:

  • Dokumentace systému
  • Risk classification
  • Pre-deployment approval
  • Performance monitoring
  • Incident response

AI Ethics Board / Committee

AspektDetail
SloženíCross-functional (Legal, Tech, HR, External)
FrekvenceMěsíčně nebo quarterly
ScopeEtické otázky, high-risk decisions
AuthorityAdvisory nebo decision-making

3.3 RACI matice

AktivitaAI OwnerAI Risk OfficerCTODPOCISOCEO
AI System RegistrationRAIII-
Risk ClassificationRACCCI
Pre-deployment ReviewRAACCI
High-risk ApprovalIRACCA
Incident ResponseRAICCI
Annual ReviewRAACCI

R = Responsible, A = Accountable, C = Consulted, I = Informed


4. GV-3: Organizační kultura

4.1 AI Literacy program

Úrovně školení:

ÚroveňAudienceObsahFrekvence
AwarenessVšichni zaměstnanciCo je AI, rizika, politikyRočně
UserUživatelé AI nástrojůSafe use, best practicesPři onboardingu + ročně
PractitionerData Scientists, EngineersTechnical risks, TEVVQuarterly
LeaderManagementGovernance, liability, strategyPololetně

4.2 Safety-first mindset

Principy k vštípení:

  1. “Trust but verify” - Ověřuj AI výstupy
  2. “Human in the loop” - Člověk má finální slovo u kritických rozhodnutí
  3. “Report early” - Hlášení problémů bez strachu z postihu
  4. “Fail safe” - Při pochybnostech zastav, nepoužívej

4.3 Whistleblower ochrana

Požadavky dle NIST GV-2.1-005:

  • Anonymní reporting kanál
  • Ochrana před odvetnými opatřeními
  • Eskalační cesta mimo přímé nadřízené
  • Dokumentované vyšetřování

5. GV-4: Dokumentace a transparentnost

5.1 AI System Inventory

Povinné atributy:

PolePopisPříklad
system_idUnikátní identifikátorAI-2024-001
nameNázev systémuCustomer Churn Predictor
descriptionPopis účeluPredikce odchodu zákazníků
typeKategorieML Model / GAI / Embedded
ownerZodpovědná osobaJan Novák
departmentOdděleníMarketing
vendorDodavatel (pokud third-party)OpenAI
risk_levelKlasifikace rizikaMedium
statusStavProduction
deployment_dateDatum nasazení2024-06-15
last_reviewPoslední přezkum2025-01-05
data_typesTypy datCustomer data, behavioral
pii_processedZpracovává PII?Yes
decision_makingAutomatizované rozhodování?Partial

5.2 Decision logging

Pro high-risk AI systémy:

{
"decision_id": "DEC-2025-00123",
"timestamp": "2025-01-05T10:30:00Z",
"system_id": "AI-2024-001",
"input_summary": "Customer profile hash: abc123",
"output": "Churn risk: 78%",
"confidence": 0.85,
"factors": ["payment_delays", "support_tickets", "usage_decline"],
"human_review": true,
"reviewer": "user@company.com",
"final_action": "retention_campaign_triggered"
}

6. GV-5: Stakeholder engagement

6.1 Interní stakeholdeři

StakeholderZapojeníFrekvence
Business unitsRequirements, feedbackOngoing
IT/EngineeringImplementation, monitoringOngoing
LegalCompliance, contractsPer project
HRTraining, policiesQuarterly
FinanceBudget, ROIAnnually

6.2 Externí stakeholdeři

StakeholderZapojeníJak
ZákazníciTransparentnost, feedbackNotices, surveys
RegulátořiCompliance, reportingDle požadavků
DodavateléDue diligence, SLAsContracts, audits
VeřejnostTransparentnostPublic statements

7. GV-6: Third-party management

7.1 Vendor due diligence

Checklist pro výběr AI poskytovatele:

OblastOtázky
SecuritySOC 2 Type II? ISO 27001?
PrivacyGDPR compliant? DPA available?
AI ActAwareness? Compliance plans?
TransparencyModel cards? Training data info?
SLAsUptime? Performance guarantees?
ExitData portability? Termination rights?
InsuranceCyber insurance? AI liability?

7.2 Smluvní požadavky

Povinné klauzule v AI vendor contracts:

  1. Data Processing Agreement (DPA) - GDPR Art. 28
  2. Training opt-out - Zákaz trénování na našich datech
  3. Audit rights - Právo na audit
  4. Incident notification - Lhůty pro hlášení incidentů
  5. Liability - Jasná odpovědnost za AI outputs
  6. Termination - Exit strategy a data return
  7. Subprocessors - Schválení subdodavatelů

7.3 Ongoing monitoring

AktivitaFrekvence
Performance reviewMěsíčně
Security posture checkQuarterly
Contract complianceQuarterly
Risk re-assessmentRočně
Full vendor auditRočně nebo per event

8. Implementační checklist

Fáze 1: Základy (Měsíc 1-2)

  • Schválení AI Governance politiky vedením
  • Jmenování AI Risk Officer / Lead
  • Definování AI System Owner role
  • Vytvoření základní AI inventury
  • Spuštění awareness programu

Fáze 2: Procesy (Měsíc 3-4)

  • Implementace pre-deployment review procesu
  • Nastavení incident response pro AI
  • Zavedení vendor due diligence
  • Vytvoření dokumentačních šablon
  • Training pro AI Owners

Fáze 3: Zralost (Měsíc 5-6)

  • Ustanovení AI Ethics Committee
  • Integrace s Risk Committee
  • Automatizace inventury
  • Metriky a dashboardy
  • Kontinuální zlepšování

9. Metriky a KPIs

MetrikaTargetMěření
% AI systémů v inventuře100%Quarterly audit
% systémů s definovaným ownerem100%Inventura
% zaměstnanců s AI awareness training100%LMS
Průměrný čas pre-deployment review<5 dníProcess tracking
% vendorů s DPA100%Contract review
Počet AI incidentůTrend ↓Incident log

10. Šablony a nástroje

Dostupné šablony

ŠablonaÚčelLokace
AI Governance PolicyZákladní politika/templates/protected/
AI System Registration FormRegistrace AI/templates/open/
Vendor Assessment ChecklistDue diligence/templates/open/
AI Incident ReportHlášení incidentů/templates/open/

Pokračujte na MAP pro implementaci MAP funkce.


AI-Native Entry Framework | CC BY-NC-SA 4.0