Přeskočit na obsah
TECHNOMATON | Docs SAI certifikovaní trenéři

Klasifikace rizik

Podrobný průvodce klasifikací AI systémů podle AI Act.


Přehled kategorií


Zakázané praktiky (Článek 5)

Tyto AI systémy jsou ZAKÁZÁNY a nesmí být používány.

Seznam zakázaných praktik

#PraktikaPopisVýjimky
1Subliminal manipulationAI manipulující lidské chování bez vědomíŽádné
2Exploiting vulnerabilitiesVyužívání zranitelnosti (věk, postižení)Žádné
3Social scoringHodnocení osob na základě chováníŽádné
4Real-time biometric IDBiometrická identifikace ve veřejném prostoruVýjimky pro law enforcement
5Predictive policing (individual)Predikce kriminality jednotlivcůŽádné
6Emotion recognition (workplace/school)Rozpoznávání emocí na pracovišti/ve školeZdravotní a bezpečnostní důvody
7Biometric categorizationKategorizace dle rasy, náboženství, orientaceŽádné
8Facial recognition scrapingVytváření databází z veřejných zdrojůŽádné

Self-assessment checklist

  • Nepoužíváme sublimální manipulaci
  • Nevyužíváme zranitelnosti osob
  • Neprovádíme social scoring
  • Nepoužíváme real-time biometrickou ID na veřejnosti
  • Neprovádíme individuální predictive policing
  • Nerozpoznáváme emoce zaměstnanců/studentů (bez výjimky)
  • Nekategorizujeme osoby dle citlivých atributů
  • Nescrapujeme biometrická data z veřejných zdrojů

Pokud cokoliv zaškrtnuto → Okamžitě STOP + konzultace s Legal


High-Risk AI (Článek 6, Annex III)

Annex III - High-Risk oblasti

OblastPříkladyČlánek
1. BiometrieBiometrická identifikace, kategorizaceIII.1
2. Kritická infrastrukturaAI v energetice, dopravě, voděIII.2
3. VzděláváníPřijímací řízení, hodnocení, proctoringIII.3
4. ZaměstnáníNábor, HR decisions, performanceIII.4
5. Essential servicesÚvěr, pojištění, sociální dávkyIII.5
6. Law enforcementProfiling, polygraph, risk assessmentIII.6
7. MigraceVízové rozhodování, border controlIII.7
8. JusticePrávní výzkum, sentencingIII.8

Detailní příklady High-Risk AI

High-Risk povinnosti

PovinnostPopisDeadline
Risk ManagementDokumentovaný proces řízení rizikPřed deployment
Data GovernanceKvalita dat, bias testing, dokumentacePrůběžně
Technical DocumentationModel card, training info, limitationsPřed deployment
Record KeepingAudit log, min. 5 letPrůběžně
TransparencyInformace pro uživatelePřed deployment
Human OversightHuman-in-the-loopVždy
Accuracy & RobustnessTesting, monitoringPrůběžně
Conformity AssessmentSelf-assessment nebo third-partyPřed deployment

Limited Risk / Transparency (Článek 50)

Systémy vyžadující transparentnost

SystémPovinnost
ChatbotyInformovat, že uživatel komunikuje s AI
Generativní AIOznačit AI-generated obsah
DeepfakesJasně označit jako umělé
Emotion recognitionInformovat dotčené osoby
Biometric categorizationInformovat dotčené osoby

Implementace transparentnosti

Příklady správného označení:
CHATBOT:
"Komunikujete s AI asistentem. Pro spojení s člověkem
napište 'operátor'."
GENERATED CONTENT:
"Tento text byl vytvořen pomocí AI."
"AI-generated image"
DEEPFAKE:
"Tento obsah byl vytvořen nebo upraven pomocí AI."

Minimal Risk

Systémy s minimálními povinnostmi

SystémPříklady
Spam filtryEmail spam detection
Interní analyticsBusiness intelligence, dashboards
RecommendationProduct recommendations (bez dopadu na práva)
SearchInternal search, document search
AutomationWorkflow automation, scheduling

Doporučené (ne povinné) praktiky

  • Základní dokumentace
  • Interní ownership
  • Základní monitoring
  • Incident response

Klasifikační rozhodovací strom


Klasifikační tabulka

Pro každý AI systém z inventury:

AI IDNázevAnnex III?Safety component?User-facing?KlasifikacePoznámka
AI-001☐ Yes ☐ No☐ Yes ☐ No☐ Yes ☐ No
AI-002☐ Yes ☐ No☐ Yes ☐ No☐ Yes ☐ No

Další kroky

Po klasifikaci:

  1. Prohibited → Okamžitě deaktivovat, konzultace Legal
  2. High-RiskDPIA + Full compliance
  3. Transparency → Implementovat oznámení
  4. Minimal → Základní dokumentace

Zdroje