Umělá inteligence a CorpTech v kontextu právní regulace
CorpTech se postupně vymaňuje z role pouhé technologické podpory a nabývá významu jako součást regulované právní infrastruktury. Umělá inteligence dnes zasahuje do uzavírání smluv, řízení obchodních korporací i plnění regulatorních povinností, čímž vyvolává otázku, jaký právní rámec pro její využívání nastavují předpisy EU a připravovaný zákon o umělé inteligenci.
AI Act stanovuje rámec pro regulaci umělé inteligence v EU, přičemž v Česku bude implementován prostřednictvím adaptačního zákona, jehož návrh předložilo Ministerstvo průmyslu a obchodu. V korporátním prostředí (CorpTech) se AI uplatňuje zejména při automatizaci smluvních procesů, due dilige... více
Právní základ úpravy najdeme v Nařízení EU o umělé inteligenci (AI Act). AI Act vymezuje systém umělé inteligence jako strojový systém fungující s určitou mírou autonomie a adaptabilitou, který na základě vstupních dat generuje výstupy ve formě predikcí, obsahu, doporučení či rozhodnutí, jež mohou ovlivňovat fyzické nebo virtuální prostředí.[1] Tato definice se bezprostředně vztahuje na nástroje využívané v rámci CorpTechu, zejména na automatizované compliance systémy, nástroje pro správu smluv, AI podporující rozhodování orgánů společnosti či inteligentní systémy řízení rizik.
Na podzim 2025 přišlo Ministerstvo průmyslu a obchodu s návrhem zákona o umělé inteligenci a o změně zákona č. 87/2023 Sb., který vychází z premisy, že AI Act je přímo použitelným právním předpisem Evropské unie.[2] Adaptační zákon proto ponechává většinu hmotněprávních povinností přímo na úpravě obsažené v AI Actu, současně však doplňuje navazující povinnosti a procesní rámec a vytváří institucionální, procesní a sankční zázemí pro jeho plnou aplikaci na území České republiky.[3]
Automatizace smluvního procesu a smart kontrakty
V oblasti smluvního práva se CorpTech projevuje především prostřednictvím digitalizace a automatizace celého smluvního cyklu. Systémy umělé inteligence se podílejí na přípravě návrhů smluv, vyhodnocování odchylek od interních standardů, kontrole souladu s interními směrnicemi a na analytice smluvních rizik. Podstatná část textové práce, která byla dříve vykonávána osobně (manuálně) právníky, je tak přesouvána do roviny strojového zpracování. Z hlediska českého práva se tím však nemění základní premisa, podle níž musí být smluvní text vždy výsledkem odborného uvážení osoby s právní kvalifikací. Odpovědnost za obsah smlouvy proto nese osoba, která smlouvu za společnost schvaluje, nikoli anonymní algoritmus. Právní odpovědnost se nepřenáší na AI, ale zůstává na právníkovi či příslušném orgánu společnosti.
Zvlášť významné dopady má CorpTech v podobě smart kontraktů. Tyto smluvní mechanismy, zpravidla založené na technologii blockchain, jsou realizovány jako programový kód, který po splnění předem definovaných podmínek automaticky provádí sjednané plnění, například převod tokenu, uvolnění zajištění nebo provedení zápisu do digitální evidence.[4] Automatizované plnění samo o sobě neeliminuje aplikaci korektivů závazkového práva, jako je relativní neplatnost pro tísnivost či omyl. Praktická náprava je však značně obtížná v situaci, kdy technická architektura smlouvy neumožňuje plnění přerušit nebo zvrátit. Z toho vyplývá požadavek, aby byly jak v právních dokumentech, tak přímo v programovém kódu zakotveny mechanismy umožňující zásah do automatizovaného výkonu (např. circuit breaker nebo správcovský přístup) a aby bylo jednoznačně stanoveno, zda má v případě rozporu přednost text smlouvy či programové nastavení. Absence těchto prvků výrazně zvyšuje riziko sporů, v nichž sice poškozené straně náleží právní námitky, jejich faktické prosazení je však opožděné nebo ekonomicky neúnosné.
AI v transakční a compliance due diligence
V transakční praxi se systémy umělé inteligence staly běžným nástrojem při provádění due diligence. Tyto systémy jsou schopny prohledávat datové místnosti, identifikovat rizikové klauzule, označovat smlouvy s nestandardními ujednáními a vytvářet souhrnné přehledy smluvních, regulatorních a compliance rizik cílové společnosti. Z právního hlediska to vede k nutnosti nového vymezení standardu odborné péče, s níž má být právní služba due diligence poskytována. AI Act u systémů vysokého rizika předpokládá existenci systému řízení rizik, dohledatelných datových sad a odpovídající technické dokumentace.
Využívá-li právní tým AI nástroj k identifikaci právních rizik, musí být schopen doložit, že zná základní charakteristiky systému, včetně použitých dat a omezení modelu, že výstupy AI byly podrobeny právnímu přezkumu a že nebyly mechanicky převzaty bez interpretačního posouzení. Argumentace spočívající v tom, že případnou chybu „způsobila AI“, není akceptovatelná; odpovědnost za volbu i způsob využití nástroje zůstává na uživateli, tedy na společnosti a jejích poradcích.[5]
Stejná logika se prosazuje i v oblasti jednotné korporátní správy. Použití blockchainu a AI při vedení akcionářských knih, digitálním hlasování nebo archivaci rozhodnutí orgánů společnosti vytváří přesné a neměnné záznamy o průběhu rozhodovacích procesů. To zpřesňuje možnosti dokazování v soudních sporech a současně zpřísňuje měřítka posuzování péče řádného hospodáře. Členové orgánů společnosti, kteří rozhodují na základě výstupů AI, nemohou spoléhat na možnost ex post zpochybnění přesnosti či úplnosti podkladů; budou posuzováni podle toho, zda řádně vyhodnotili povahu a limity nástroje, který tyto podklady generoval.
GDPR, AML a datová compliance
Nasazení AI v korporátním prostředí je úzce propojeno s ochranou osobních údajů a s bojem proti praní peněz. Řada korporátních AI systémů představuje automatizované rozhodování s významnými účinky na subjekty údajů ve smyslu čl. 22 GDPR, například při interním hodnocení zaměstnanců, profilování obchodních partnerů nebo rozhodování o uzavírání smluv.[6] V těchto případech je nezbytné provádět posouzení vlivu na ochranu osobních údajů, zajistit skutečnou možnost lidského přezkumu a zajistit vysvětlitelnost rozhodovacího procesu alespoň v rozsahu požadovaném GDPR a dále konkretizovaném pravidly AI Actu o transparentnosti a lidském dohledu. Pouhé formální zařazení člověka na konec rozhodovacího řetězce není dostačující tam, kde ve skutečnosti není schopen algoritmické závěry posoudit a případně změnit.
V oblasti AML představuje AI významný nástroj pro monitorování transakcí a identifikaci podezřelých vzorců chování. Nastavení modelu, včetně volby prahových hodnot či typů detekovaných vzorců, je však nutné považovat za integrální součást vnitřního AML systému společnosti. Povinné osoby nemohou přenášet odpovědnost za nesplnění oznamovací povinnosti na poskytovatele AI nástroje, neboť konečné rozhodnutí o výběru a konfiguraci systému zůstává na nich.[7] V kombinaci s technologiemi DLT a tokenizovanými aktivy navíc vznikají otázky jurisdikční fragmentace a identifikace odpovědných subjektů, které vyžadují pečlivé smluvní rozdělení rolí a povinností v rámci celé transakční struktury.
AI Act a jeho dopady na české prostředí
AI Act je založen na rizikově orientovaném přístupu a rozděluje systémy umělé inteligence do čtyř kategorií: systémy s nepřijatelným rizikem, vysokým rizikem, omezeným rizikem a minimálním rizikem. Pro systémy s nepřijatelným rizikem, typicky určité formy sociálního skórování nebo manipulativní systémy zaměřené na zranitelné osoby, stanoví nařízení zákaz. Pro systémy vysokého rizika, mezi něž lze zařadit i řadu nástrojů používaných v rámci CorpTechu, stanoví AI Act detailní požadavky na řízení rizik, kvalitu dat, technickou dokumentaci, posuzování shody, transparentnost a lidský dohled. Porušení těchto povinností je sankcionováno pokutami dosahujícími až 35 milionů eur nebo 7 % celosvětového obratu v případě porušení zákazu zakázaných praktik.[8]
Důvodová zpráva k českému návrhu zákona podrobně rozpracovává i časovou působnost AI Actu. Nařízení vstoupilo v platnost dne 1. srpna 2024 a jeho jednotlivá ustanovení se stávají použitelnými postupně, přičemž k obecné použitelnosti většiny pravidel, včetně úpravy systémů vysokého rizika, dojde dne 2. srpna 2026. Do tohoto data jsou členské státy povinny mimo jiné zřídit regulační sandbox[9] a určit příslušné orgány dozoru. Český návrh zákona tuto povinnost reflektuje a počítá se zřízením sandboxu jako nástroje pro testování inovativních řešení a současně jako prostoru pro formování správní praxe.[10]
Zvláštní pozornost je věnována obecným modelům AI (GPAI).[11] AI Act, doplněný pokyny Evropské komise a Kodexem správné praxe pro GPAI, ukládá poskytovatelům těchto modelů povinnosti v oblasti transparentnosti, shrnutí tréninkových dat, dokumentace a respektu k právům duševního vlastnictví. Pro české společnosti, které tyto modely integrují do svých interních nástrojů, to znamená zvýšené nároky na smluvní úpravu vztahů s poskytovateli, zejména pokud jde o prohlášení o souladu s AI Actem, přístup k dokumentaci a vymezení odpovědnosti za porušení povinností vyplývajících z unijního rámce.
Pro obchodní korporace to znamená, že používání AI systémů bude podléhat obdobné logice jako uvádění jiných regulovaných produktů na trh. Společnosti budou povinny vést vnitřní dokumentaci prokazující soulad s AI Actem, přizpůsobit interní předpisy (zejména AI governance policy, směrnice pro řízení rizik a pravidla pro vývoj a úpravy AI systémů) a připravit se na interakci s orgány dozoru. Úkolem právníků v tomto prostředí nebude pouze transpozice regulatorních požadavků do interních předpisů, ale také tvorba smluvní dokumentace reflektující nové výkladové linie, které se budou formovat v sandboxu a v praxi orgánů dozoru.
Dopady na právní profesi
Nasazení AI v právní a korporátní praxi nevede k oslabení profesní odpovědnosti právníků, ale naopak k jejímu zpřísnění. Advokát či firemní právník zůstává odpovědným autorem právní rady bez ohledu na to, zda při její přípravě využil AI. Od právníků se stále více očekává znalost základních parametrů používaných nástrojů, schopnost identifikovat dopad AI Actu na konkrétní systém a schopnost klientovi poradit ohledně povinností vyplývajících z vnitřního nastavení společnosti, dokumentace, smluvních vztahů a vztahů k orgánům dozoru.[12] Také v oblasti soudnictví je využívání umělé inteligence předmětem intenzivní odborné diskuse. Nejvyšší soud uspořádal kulatý stůl věnovaný problematice umělé inteligence, na němž byla projednávána míra a formy jejího zapojení do soudní a administrativní činnosti, možnosti efektivního využití těchto nástrojů, ale i související rizika, zejména otázky chybovosti systémů AI, zachování adekvátního lidského dohledu a odpovědnosti soudních úředníků.[13]
Závěrem lze konstatovat, že pro obchodní korporace již nelze digitalizaci a nasazení AI chápat izolovaně jako technický projekt. Jde o zásah do právního a compliance rámce společnosti, který musí být od počátku koncipován jako právně-regulatorní projekt s aktivní účastí právníků, compliance oddělení a statutárních orgánů. V prostředí nové unijní a české regulace představuje tento přístup jedinou cestu, jak propojit přínosy CorpTechu a AI s požadavky právní jistoty, ochrany práv a odpovědného podnikání.

Mgr. Tadeáš Diviš

CERHA HEMPEL Kališ & Partners
Týn 639/1
110 00 Praha 1
Tel.: +420 221 111 711
e-mail: office@cerhahempel.cz
[1] Čl. 3 odst. 1 Nařízení EU 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (AI Act). Dostupné >>> zde.
[4] Čl. 25 AI Act.
[5] Čl. 26 AI Act.
[6] Čl. 22 Nařízení GDPR.
[7] § 18 a násl. Zákona č. 253/2008 Sb., o některých opatřeních proti legalizaci výnosů z trestné činnosti a financování terorismu.
[9] Sandboxing je bezpečnostní postup, při kterém se program nebo kód spouští v zabezpečeném a izolovaném prostředí, aby se zjistilo, zda je škodlivý.
[11] Pokyny Komise k rozsahu povinností poskytovatelů obecných modelů AI (General-Purpose AI) podle aktu o AI. Dostupné >>> zde.
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz










