Podrobný průvodce klasifikací AI systémů podle AI Act.
Přehled kategorií
Zakázané praktiky (Článek 5)
Tyto AI systémy jsou ZAKÁZÁNY a nesmí být používány.
Seznam zakázaných praktik
| # | Praktika | Popis | Výjimky |
|---|
| 1 | Subliminal manipulation | AI manipulující lidské chování bez vědomí | Žádné |
| 2 | Exploiting vulnerabilities | Využívání zranitelnosti (věk, postižení) | Žádné |
| 3 | Social scoring | Hodnocení osob na základě chování | Žádné |
| 4 | Real-time biometric ID | Biometrická identifikace ve veřejném prostoru | Výjimky pro law enforcement |
| 5 | Predictive policing (individual) | Predikce kriminality jednotlivců | Žádné |
| 6 | Emotion recognition (workplace/school) | Rozpoznávání emocí na pracovišti/ve škole | Zdravotní a bezpečnostní důvody |
| 7 | Biometric categorization | Kategorizace dle rasy, náboženství, orientace | Žádné |
| 8 | Facial recognition scraping | Vytváření databází z veřejných zdrojů | Žádné |
Self-assessment checklist
Pokud cokoliv zaškrtnuto → Okamžitě STOP + konzultace s Legal
High-Risk AI (Článek 6, Annex III)
Annex III - High-Risk oblasti
| Oblast | Příklady | Článek |
|---|
| 1. Biometrie | Biometrická identifikace, kategorizace | III.1 |
| 2. Kritická infrastruktura | AI v energetice, dopravě, vodě | III.2 |
| 3. Vzdělávání | Přijímací řízení, hodnocení, proctoring | III.3 |
| 4. Zaměstnání | Nábor, HR decisions, performance | III.4 |
| 5. Essential services | Úvěr, pojištění, sociální dávky | III.5 |
| 6. Law enforcement | Profiling, polygraph, risk assessment | III.6 |
| 7. Migrace | Vízové rozhodování, border control | III.7 |
| 8. Justice | Právní výzkum, sentencing | III.8 |
Detailní příklady High-Risk AI
High-Risk povinnosti
| Povinnost | Popis | Deadline |
|---|
| Risk Management | Dokumentovaný proces řízení rizik | Před deployment |
| Data Governance | Kvalita dat, bias testing, dokumentace | Průběžně |
| Technical Documentation | Model card, training info, limitations | Před deployment |
| Record Keeping | Audit log, min. 5 let | Průběžně |
| Transparency | Informace pro uživatele | Před deployment |
| Human Oversight | Human-in-the-loop | Vždy |
| Accuracy & Robustness | Testing, monitoring | Průběžně |
| Conformity Assessment | Self-assessment nebo third-party | Před deployment |
Limited Risk / Transparency (Článek 50)
Systémy vyžadující transparentnost
| Systém | Povinnost |
|---|
| Chatboty | Informovat, že uživatel komunikuje s AI |
| Generativní AI | Označit AI-generated obsah |
| Deepfakes | Jasně označit jako umělé |
| Emotion recognition | Informovat dotčené osoby |
| Biometric categorization | Informovat dotčené osoby |
Implementace transparentnosti
Příklady správného označení:
"Komunikujete s AI asistentem. Pro spojení s člověkem
"Tento text byl vytvořen pomocí AI."
"Tento obsah byl vytvořen nebo upraven pomocí AI."
Minimal Risk
Systémy s minimálními povinnostmi
| Systém | Příklady |
|---|
| Spam filtry | Email spam detection |
| Interní analytics | Business intelligence, dashboards |
| Recommendation | Product recommendations (bez dopadu na práva) |
| Search | Internal search, document search |
| Automation | Workflow automation, scheduling |
Doporučené (ne povinné) praktiky
Klasifikační rozhodovací strom
Klasifikační tabulka
Pro každý AI systém z inventury:
| AI ID | Název | Annex III? | Safety component? | User-facing? | Klasifikace | Poznámka |
|---|
| AI-001 | | ☐ Yes ☐ No | ☐ Yes ☐ No | ☐ Yes ☐ No | | |
| AI-002 | | ☐ Yes ☐ No | ☐ Yes ☐ No | ☐ Yes ☐ No | | |
Další kroky
Po klasifikaci:
- Prohibited → Okamžitě deaktivovat, konzultace Legal
- High-Risk → DPIA + Full compliance
- Transparency → Implementovat oznámení
- Minimal → Základní dokumentace
Zdroje