Povinnost zajištění gramotnosti dle AI Aktu a její naplňování v praxi
Dne 2. února 2025 vstoupily v účinnost některé povinnosti, jež ukládá nové evropské nařízení (EU) 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci, dále také jako „AI Akt“, „nařízení o umělé inteligenci“ nebo „nařízení“). Toto nařízení stanovuje rámec pro využívání systémů umělé inteligence a klade nové nároky mj. na podniky využívající systémy umělé inteligence (tzv. subjekty zavádějící AI systémy), a to zejména z pohledu bezpečnosti, gramotnosti, etiky a ochrany práv uživatelů. Jednou z povinností, jež na tyto subjekty zavádějící AI systémy dopadá, je právě povinnost zajišťování gramotnosti.
Časová osa účinnosti AI Aktu
AI Akt byl uveden v platnost ke dni 1. srpna 2024 a jeho jednotlivá ustanovení se stávají účinnými postupně v rámci relativně širokého časového intervalu. S účinností od 2. února 2025 začala platit pravidla pro tzv. zakázané systémy AI a dále obecná ustanovení AI Aktu. Od 2. srpna 2025 platí úprava obecných modelů AI a ustanovení týkající sankcí a dozorových úřadů. Od 2. srpna 2026 se pak použijí i zbývající ustanovení AI Aktu, s výjimkou kritérií klasifikace vysoce rizikových systémů, která by měla platit až od 2. srpna 2027.[1]
V květnu 2025 bylo novým národním gestorem pro oblast AI určeno Ministerstvo průmyslu a obchodu.[2] MPO nyní připravuje národní strategii zavádění AI pravidel a spolu s dalšími orgány (např. ČTÚ, ÚNMZ či ČAS) pracuje na vytvoření koordinační struktury a informační podpory pro firmy a vývojáře.[3] V červnu 2025 pak požádala vláda prostřednictvím zmocněnce pro AI Jana Kavalírka o technický odklad vybraných povinností o dva roky s odkazem na to, že české instituce a firmy nejsou dostatečně připraveny a nejsou dostupné technické standardy a metodiky.[4]
Evropská unie zvažovala možnost pozdržení uplatňování některých částí nařízení o umělé inteligenci, kladný postoj k takovému kroku vyjádřilo kromě České republiky i např. Polsko, avšak na začátku července Evropská komise oznámila, že nová pravidla týkající se umělé inteligence budou zavedena v souladu s právním harmonogramem stanoveným v legislativě, a odmítla tak výzvy některých organizací a zemí k odložení jejich zavedení.[5]
Zajišťování gramotnosti
V rámci obecných ustanovení AI Aktu účinných již od 2. února 2025 je mj. stanovena povinnost subjektům zavádějícím AI systémy přijímat opatření, aby v co největší možné míře zajistily dostatečnou úroveň gramotnosti v oblasti AI u svých zaměstnanců i u všech dalších osob, které se jejich jménem zabývají provozem a používáním systémů AI.
Konkrétně se jedná o povinnost zajištění gramotnosti v oblasti AI zakotvenou v čl. 4 AI Aktu, v němž se uvádí, že „poskytovatelé systémů AI a subjekty zavádějící AI přijímají opatření, aby v co největší možné míře zajistili dostatečnou úroveň gramotnosti v oblasti AI u svých zaměstnanců i u všech dalších osob, které se jejich jménem zabývají provozem a používáním systémů AI, s přihlédnutím k jejich technickým znalostem, zkušenostem, vzdělání a odborné přípravě a prostředí, v němž mají být systémy AI používány, a s ohledem na osoby nebo skupiny osob, na kterých mají být systémy AI používány“.[6]
Nařízení nepředepisuje přesnou formu naplnění dané povinnosti (např. povinné školení v délce X hodin), a nestanovuje ani přesnou strukturu či obsah případného školení. Důraz je kladen na přiměřenost a kontext. Definice gramotnosti v oblasti AI je zakotvena v čl. 3 odst. 56 AI Aktu, v němž je uvedeno, že osoby pracující s AI systémy musí disponovat dovednostmi, znalostmi a chápáním, které jim umožní informovaně posoudit rizika spojená s využíváním AI i související potenciální škody, jež mohou vzniknout.
Další podrobnosti k výkladu pojmu zajišťování gramotnosti v oblasti AI jsou specifikovány v recitálu 20, dle něhož smyslem a cílem naplnění předmětné povinnosti je dosáhnout co největších přínosů systémů AI při současné ochraně základních práv, zdraví a bezpečnosti a umožnit činit ohledně systémů AI informovaná rozhodnutí a tím umožnit demokratickou kontrolu.[7]
Přístup založený na riziku a roli, žádná „univerzální řešení“
Jak tedy zajistit gramotnost zaměstnanců a dalších osob v oblasti systémů umělé inteligence a splnit požadavky AI Aktu? Podniky by si měly primárně ujasnit, zda se na ně AI Akt vztahuje a v jaké roli případně vystupují (role poskytovatelů, zavádějících subjektů aj.). Následně by měly zmapovat AI systémy, které v rámci svého podnikání používají, a identifikovat rizika spojená s využíváním těchto AI systémů. V souladu s tím by pak měly přizpůsobit i svůj přístup k zajišťování gramotnosti.[8]
Skutečnosti, že neexistuje žádné univerzální řešení pro splnění povinnosti zajištění gramotnosti v oblasti AI, nasvědčuje rec. 20 AI Aktu, v němž se uvádí, že povědomí v oblasti AI se může lišit s ohledem na příslušný kontext. V závislosti na roli konkrétního subjektu může pochopení správného uplatňování technických prvků během fáze vývoje systému AI obnášet různá opatření, která mají být uplatňována během jeho používání a která mohou zahrnovat například vhodné způsoby výkladu výstupů systému AI a v případě dotčených osob i poznatky nezbytné k pochopení toho, jaký na ně budou mít rozhodnutí přijatá s pomocí AI dopad.[9]
AI Akt nestanoví konkrétní formu zajišťování gramotnosti, Evropská komise nicméně zdůrazňuje, že pouhé předání „návodu k použití“ AI nástrojů mnohdy nemusí stačit. Za vhodné způsoby zajištění gramotnosti označuje školení zaměstnanců a dalších osob v oblasti systémů umělé inteligence, popř. další formy přizpůsobené cílové skupině, jakými jsou např. e-learning, workshopy aj.[10]
Co se obsahové stránky školení týče, mělo by zahrnovat, zejm. nikoliv však výlučně, informace o tom, co je to umělá inteligence jako taková, jak AI funguje, jaké AI nástroje organizace používá a jaká jsou rizika spojená s využíváním těchto systémů umělé inteligence. Školení by rovněž mělo informovat zaměstnance o existenci AI Aktu a jaké povinnosti nařízení stanovuje pro danou organizaci s ohledem na její roli. Vhodné je taktéž zasadit regulaci umělé inteligence i do kontextu souvisejících právních předpisů, a to s důrazem na oblast ochrany osobních údajů dle nařízení GDPR, která s ohledem na způsoby využívání umělé inteligence mnohdy úzce souvisí[11]
AI Akt přímo nestanovuje ani povinnost měřit úroveň znalostí, např. prostřednictvím dotazníků navazujících na proběhlé školení, jakož nepožaduje ani získání certifikátu o absolvovaném školení. Nicméně aby byl naplněn obsah a účel čl. 4 ve spojení s čl. 3 odst. 56 AI Aktu, lze podnikům doporučit vedení interních záznamů o proběhlých školeních prostřednictvím např. prezentace, prezenční listiny apod., jakož i provádět dotazování zaměstnanců v oblasti znalostí AI systémů navazující na proběhlá školení, jako je tomu např. v případě regulace v oblasti AML. Vytvoření a uchování těchto podkladů může podnikům usnadnit následné prokazování, že školení jako takové vůbec proběhlo a že úroveň znalostí pracovníků, kteří jej absolvovali, odpovídá obecnému požadavku na dostatečnou úroveň gramotnosti ve smyslu čl. 4 AI Aktu.
Nařízení o umělé inteligenci z výše uvedených důvodů neuvádí ani to, jak často mají být školení prováděna. EK pouze zdůrazňuje flexibilitu.[12] Frekvence tudíž může být odvozena od role a činnosti povinného subjektu, od rizik spojených s využíváním konkrétních AI nástrojů či od nastalých ad hoc změn (nový systém, zjištěný deficit apod.). Lze nicméně doporučit vždy provádět vstupní školení při nástupu nového pracovníka a dále provádět pravidelný „refresher“ typicky alespoň jednou ročně, a to i s ohledem na aktuální dynamický vývoj v oblasti umělé inteligence.
Povinnost zajišťování gramotnosti se dle čl. 4 AI Aktu vztahuje i na osoby jednající jménem povinného subjektu, tj. rovněž na jeho dodavatele či poskytovatele služeb, a to s ohledem na přístup založený na riziku a zapojení předmětného obchodního partnera. Je tedy vhodné, aby v rámci smlouvy s danou protistranou byly smluvně ošetřeny požadavky na AI gramotnost i u dodavatelů či poskytovatelů služeb.
Evropská komise by měla dle rec. 20 AI Aktu ve spolupráci s příslušnými zúčastněnými stranami usnadnit vypracování dobrovolných kodexů chování pro zvýšení gramotnosti v oblasti AI, pokud jde o osoby, které se zabývají vývojem, provozem a používáním AI.[13] Otázka výkladu čl. 4 AI Aktu by tak mohla být jasnější v budoucnu, jakmile budou připraveny předmětné kodexy chování.[14]
Závěr
S účinností od letošního února jsou podniky využívající v rámci své podnikatelské činnosti AI systémy povinny přijímat opatření, aby v co nejvyšší možné míře zajistily dostatečnou úroveň gramotnosti v oblasti AI svých zaměstnanců a dalších osob. Konkrétní způsob splnění předmětné povinnosti AI Akt nestanovuje, nicméně s ohledem na výklad jednotlivých pojmů a doporučení Evropské komise lze doporučit provádět vstupní a pravidelná školení pracovníků přizpůsobená roli daného podniku, školené skupině, používaným nástrojům a rizikům s nimiž jsou spojena. Oblast používání AI systémů a gramotnosti v oblasti AI je pak vhodné upravit v rámci vnitřních předpisů daného podniku a případně i v rámci smluv s dodavateli, u kterých lze předpokládat, že mohou AI systémy využívat.
JUDr. PhDr. Kristýna Poche
Salvátorská 931/8
110 00, Praha 1
e-mail: law@greats.cz
[1] Srov. čl. 113 AI Aktu.
[2] Ministerstvo průmyslu a obchodu. Další krok k rozvoji umělé inteligence v Česku. Vláda schválila návrh na zajištění implementace AI Aktu; novým gestorem je MPO. [online]. 2025-05-28 [cit. 2025-09-10]. Dostupné >>> zde.
[3] Tzv. AI sandbox, tj. testovacího prostředí pro ověřování souladu AI systémů s požadavky AI Aktu.
[4] iROZHLAS. Česko žádá odklad pravidel pro AI. „Nestíháme,“ říká zmocněnec Kavalírek; Jourová se vyjadřuje k odkladové iniciativě. [online]. 2025-06-10 [cit. 2025-09-10]. Dostupné >>> zde.
[5] Reuters. Artificial intelligence rules go ahead, no pause, EU Commission says. [online]. 2025-07-04 [cit. 2025-09-10]. Dostupné >>> zde.
[6] Srov. čl. 4 AI Aktu.
[7] Srov. rec. 20 AI Aktu.
[8] Pokud jsou například systémy umělé inteligence daného podniku vysoce rizikové ve smyslu čl. 6 AI Aktu, je nezbytné přijmout taková opatření, aby bylo zajištěno, že zaměstnanci vědí, jak s danými vysoce rizikovými systémy umělé inteligence zacházet a jak jejich rizika mitigovat.
[9] Srov. rec. 20 AI Aktu.
[10] Evropská komise. Digitální strategie – informace o AI Aktu a legislativní implementaci. [online]. [cit. 2025-09-10]. Dostupné >>> zde.
[11] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).
[12] Evropská komise. Digitální strategie – další informace o AI zákoně. [online]. [cit. 2025-09-10]. Dostupné >>> zde.
[13] Srov. rec. 20 AI Aktu.
[14] Všeobecný kodex zásad umělé inteligence (Evropská komise. General-Purpose AI Code of Practice. [online]. 2024–2025 [cit. 2025-09-10]. Dostupné >>> zde, byl již v roce 2024 vypracován a v létě 2025 schválen Evropskou komisí a Radou pro umělou inteligenci, zahrnuje toliko kapitoly Transparentnost, Autorská práva a Bezpečnost a ochrana, výklad čl. 4 AI Aktu není jeho předmětem.
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz