Kontury evropského Aktu o umělé inteligenci

Evropská Unie brzy představí komplexní legislativní úpravu pravidel pro umělou inteligenci. Zástupci členských států se na začátku února dohodli na konečném kompromisním znění tzv. Aktu o umělé inteligenci[1] a nyní probíhají práce na finalizaci textu nového nařízení, které musí ještě schválit Evropský parlament, k čemuž dojde pravděpodobně v dubnu tohoto roku.

advokátka, vedoucí Katedry ústavního a evropského práva, FPr ZČU v Plzni
Advokátní kancelář Forejtová|Pelc|Partners s.r.o.
Umělá inteligence
Foto: Canva

Význam regulace a definice umělé inteligence

Evropská komise, která iniciovala legislativní proces v orgánech EU, jehož výsledkem má být zcela unikátní, nová, a především první právní úprava zaměřená na rizika umělé inteligence, má od evropského nařízení velká očekávání: „Akt o umělé inteligenci je vůbec prvním právním rámcem v oblasti umělé inteligence, který se zabývá riziky umělé inteligence a staví Evropu k tomu, aby hrála vedoucí úlohu v celosvětovém měřítku.“[2]  Mimo jiné již k tomu v únoru 2024 zřídila zvláštní  Evropský úřad pro umělou inteligenci.

V právní praxi to to skutečně znamená mnoho, a to nejen proto, že se jedná o vůbec první právní úpravu tohoto druhu na světě, která má potenciál stanovit, ne-li globální standard, pak alespoň inspiraci pro regulaci umělé inteligence v ostatních světových jurisdikcích. Principy a povinnosti z nařízení plynoucí jsou adresovány především tvůrcům a poskytovatelům umělé inteligence. Hlavním cílem těchto unijních pravidel je zajistit, aby systémy umělé inteligence uváděné na evropský trh (a zde také používány), byly bezpečné, transparentní, sledovatelné, nediskriminační, šetrné k životnímu prostředí a v souladu se základními právy a hodnotami EU. Obecně je kladen důraz na vysokou ochranu osobních údajů, lidskou kontrolu systémů umělé inteligence a transparentnost vůči jejím uživatelům. V tomto smyslu je zcela vhodné odkázat na důrazná varování jednoho z předních autorů dnešní doby prof. Yuvala Noah Harariho[3], který veřejně a opakovaně hovoří o tom, jaká bude vlastně budoucnost lidstva ve světle umělé inteligence (Artificial Intelingence - AI) od momentu, kdy člověk nad umělou inteligencí definitivně ztratí kontrolu. Bude-li nějaká. Možná i proto celá struktura nařízení počítá zejména s různě vysokými riziky při tvorbě a používání AI, obsahuje škálu zákazů a celkovou nepřijatelnost závažných rizik pro člověka.

Po věcné stránce se nařízení nebude vztahovat např. na oblast národní bezpečnosti, vojenství, výzkumu a inovací, ani na použití při neprofesionální činnosti. Po jeho vyhlášení v Úředním věstníku EU bude (s výjimkou některých ustanovení) účinné po 2 letech od vstupu v platnost.

Akt o umělé inteligenci obsahuje jednu z prvních právních definic umělé inteligence, kterou se pro účely nařízení rozumí způsob strojově navrženého systému určeného k provozu, s různými úrovněmi autonomie, který může vykazovat určitou schopnost adaptace, a který na základě přijatých vstupů odvozuje, jak nejlépe dosáhnout explicitních a implicitních cílů, jejichž výstupy budou konkrétní predikce, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí[4]. („AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments;“). Definice má především odlišit umělou inteligenci od jednodušších softwarových systémů.

Klasifikace systémů podle rizika

Celkově je právní úprava umělé inteligence postavena na principu posouzení rizik – čím vyšší riziko představuje použití systému umělé inteligence, tím přísnější pro něj platí pravidla.

Nařízení vyjmenovává absolutně zakázané použití systémů umělé inteligence[5] způsobilé závažně porušit základní práva a hodnoty EU. Jedná se o systémy, které (1) umožňují podprahově manipulovat s chováním (zvlášť zranitelných) osob, (2) vedou ke znevýhodňování nebo nepřiznivému zacházení s osobami na základě přiděleného sociálního kreditu a diskriminačních znaků[6], (3) donucovací orgány využívají k biometrické identifikaci osob na dálku „v reálném čase“ na veřejně přístupných místech, (4) rozšiřují databáze biometrické identifikace sběrem snímků z internetu nebo záznamů z televize. Vzhledem ke specifické činnosti donucovacích orgánů, může soud povolit některé výjimky pro použití této biometrické identifikace, a to v nezbytně nutných případech vyhledávání pohřešovaných osob a potencionálních obětí únosu, obchodování s lidmi nebo sexuálního zneužívání, dále také v případech prevence bezprostředního ohrožení života a zdraví fyzických osob, nebo teroristických útoků, anebo při snaze lokalizovat fyzické osoby za účelem trestního vyšetřování, stíhání nebo výkonu trestu v souvislosti s vyjmenovanými trestnými činy[7] s horní trestní sazbou 4 let.

Další kategorií jsou systémy umělé inteligence s vysokým rizikem[8], které jsou rovněž uvedeny v příloze[9] nařízení. Za vysoce rizikové se považují systémy umělé inteligence určené například k zajištění bezpečnosti a provozu kritické infrastruktury (jako je silniční doprava, dodávky vody, plynu, topení a elektřiny), k náboru zaměstnanců a hodnocení uchazečů o zaměstnání, k predikci a prevenci kriminality, k použití jako detektoru lži a k hodnocení důkazů a výkladu práva. Vztahují se na ně zvýšené požadavky jako je povinné zavedení systému řízení rizik, vypracování technické dokumentace a vedení záznamů o činnosti, spolu s přísnějšími nároky na transparentnost a správu testovacích dat. Důležitým faktorem je i požadavek, aby systém umožňoval účinný lidský dohled, a aby byla zajištěna jejich dostatečná kybernetická bezpečnost proti vnějším útokům jako jsou počítačové viry. Současně jsou ukládány zvláštní povinnosti poskytovatelům těchto systémů, především povinnost zajistit splnění výše uvedených požadavků a povinnost uvést u jednotlivých systémů své kontaktní údaje. Povinnosti mají na druhé straně i uživatelé, jde například o povinnost používat systémy v souladu s přiloženým návodem, nebo v případě možného rizika povinnost přestat systém používat. Před uvedením na trh se musí systém i samotný poskytovatel zaregistrovat do speciální databáze EU spravované Komisí (s určitými výjimkami systémů, pro které povinnost registrace neplatí). Po uvedení na trh musí příslušný provozovatel monitorovat jejich výkonnost při provozu a ohlašovat závažné incidenty orgánům dozoru nad trhem (viz dále).

Sankce a vnitrostátní orgány

Sankce[10] za porušení absolutního zákazu použití umělé inteligence a porušení povinností provozovatelů jsou stanoveny pevnou částkou nebo jako procentní podíl ročního obratu společnosti, podle toho, která z hodnot je vyšší. Pokuty se v případě porušení povinnosti provozovatelů, v závislosti na závažnosti a míře porušení mohou vyšplhat na 15.000.000 EUR, resp. 3 % ročního obratu společnosti, a v případě porušení absolutního zákazu dokonce až na 35.000.000 EUR, resp. 7 % ročního obratu společnosti, ,. U malých a středních podniků se procentní podíl ročního obratu v obou situacích snižuje na polovinu.

Aktem se zřizuje Evropská rada pro umělou inteligenci[11] složená ze zástupců členských států, která by měla mít poradenskou funkci, včetně vydávání doporučení a stanovisek k provádění nařízení. Bude zároveň shromažďovat a sdílet technické a regulační odborné znalosti a osvědčené postupy mezi členskými státy a napomáhat činnosti vnitrostátních orgánů.

Na úrovni členských států předpokládá zřízení nebo určení alespoň jednoho oznamujícího orgánu, který bude odpovědný za posuzování shody stanovených požadavků a oznamování systémů umělé inteligence a jeden orgán dozoru nad trhem[12]. Oba orgány musí být před vstupem nařízení v platnost dostatečně finančně a technicky vybaveny. Orgány budou také poskytovat poradenství ohledně provádění tohoto nařízení.

Důsledky

Nařízení o umělé inteligenci je součástí transformace EU na digitální společnost. Umělá inteligence má nadále zůstat v pozici dobrého nástroje, ze kterého budou profitovat občané, korporace, státy, ale např. i životní prostředí. To ostatně souvisí i s koncepcí Green Deal a závazky EU stát se do 2050 klimaticky neutrální. Obavy EU, které se týkají především ztráty atraktivity evropského trhu pro technologické firmy na jedné straně odůvodňují přijetí nezbytné regulace s ohledem na bezpečnost všech, na druhé straně kvůli svazující legislativě a velké finanční náročnosti mohou mít dopad na konkurenceschopnost EU ve světě.

Nutno však dodat, že tato nová legislativa, ještě nikoli účinná, zakazuje prozatím pouze minimum především vysoce rizikových technologií a nepředstavuje natolik výrazná omezení, která by měla jakýmkoliv způsobem zpomalovat dosud rapidní vývoj v této oblasti. Cílem bezpochyby je i to, že aktéři digitálního světa získají rámcové mantinely, a nezbytně se seznámí s pravidly při vývoji umělé inteligence tak, aby jí uživatelé mohli  v určité míře důvěřovat.  Zájem o nové produkty umělé inteligence a investice proudící do tohoto odvětví se tím jen zvýší.


[1] Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty Unie

[3] Prof. Yuval Noah Harari, historik a profesor na Hebrejské univerzitě v Jeruzalémě, autor celosvětově známých děl jako např. Sapiens, Homo Deus: Brief History of Tommorrow, 21 Lessons for the 21st Century,

[4] Čl. 3 odst. 1

[5] Čl. 5.

[7] Terorismus, obchodování s lidmi, sexuální zneužívání dětí a dětská pornografie, nelegální obchod s narkotickými látkami a psychotropními látkami, nelegální obchod s zbraněmi, střelivem a výbušninami, vražda, těžké ublížení na zdraví, nelegální obchod s lidskými orgány a tkáněmi, nelegální obchod s jadernými nebo radioaktivními materiály, únos, nelegální zadržování a držení rukojmí, zločiny v působnosti Mezinárodního trestního soudu, nelegální zabavení letadel/lodí, znásilnění, zločiny proti životnímu prostředí, organizovaná nebo ozbrojená loupež, sabotáž, účast na trestné organizaci, podílení se na jednom nebo více výše uvedených trestných činů.

[8] Čl. 6 a násl.

[9] Příloha č. III.

[10] Čl. 71 a násl.

[11] Čl. 56 a násl.

[12] Čl. 59 a násl.


Zajímá Vás téma umělé inteligence a práva? Na kongresu Právní prostor 2024 se budeme AI a jejímu vztahu k právu věnovat hned v několika příspěvcích. Program kongresu najdete na adrese https://kongrespravniprostor.cz/.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články