Návrh nařízení o umělé inteligenci aneb první podoba budoucí regulace umělé inteligence v EU

Evropská komise zveřejnila letos v dubnu návrh nařízení o umělé inteligenci. Volání po regulaci umělé inteligence tak nezůstaly pouze v akademické sféře.

JS
interní doktorandka, Centrum právních dovedností Univerzita Karlova, Právnická fakulta
Návrh nařízení o umělé inteligenci

V rámci tohoto návrhu představila robustní systém harmonizace umělé inteligence (AI). Obsah tohoto návrhu přitom pro mnohé nebyl nijak překvapivý – ještě před jeho zveřejněním totiž došlo k úniku některých jeho částí. Návrh zároveň navazuje na celou řadu pracovních dokumentů a rezolucí s tématikou umělé inteligence, které v posledních letech začaly poměrně ve velkém vznikat na půdě Evropské unie.[2] Z této činnosti je patrné, jak velkým tématem se umělá inteligence a její přínosy a rizika staly v posledních letech. Zejména snaha eliminovat rizika související s AI a ochrana základních lidských práv jsou hlavní motivací pro vznik nové právní úpravy. Návrh se tak snaží reagovat na současný technologický vývoj a přichází s variantou flexibilní regulace, která má poměrně ambiciózní cíl být použitelná i v budoucnu. Cílem tohoto článku je shrnout zásadní myšlenky, které nová regulace přináší. 

Snaha o definování umělé inteligence

Návrh nařízení hned na začátku nabízí definici umělé inteligence, resp. systému umělé inteligence (v angl. artificial intelligence system). Tím by dle návrhu měl být „software, který je vyvinut s jednou nebo více technikami a přístupy uvedenými v Příloze I [nařízení] a který může, na základě člověkem stanovených cílů, generovat výstupy jako je obsah, predikce, doporučení nebo rozhodnutí ovlivňující prostředí, s nimiž komunikují“.[3] Jedná se už o několikátý pokus o definici AI. Úkol najít tu ideální se přitom zdá téměř nemožným. Důvodem je zejména to, že se jedná o pojem, který nemá pevně ukotvenou definici ani mimo právní prostřední a v praxi se jako umělá inteligence označuje velké množství technologií. Pro definici tedy bylo důležité, aby onu velkou množinu obsáhla, a navíc obstála i v budoucnu, kdy s velkou pravděpodobností budou existovat technologie novější a odlišné. Právě z těchto důvodu byly předchozí definice kritizovány pro své nedostatky. Například původní definici pocházející od Komise[4] bylo vyčítáno, že se opírá o slovo inteligence.[5] Nově předložená definice se s budoucím technologickým vývojem i velkým množstvím různorodých technologií chce vypořádat odkazem na Přílohu 1 návrhu nařízení, která obsahuje několik technik a přístupů. Tento seznam by potom měl být Komisí aktualizován.[6] Je ovšem otázkou, jako takovýto to přístup v praxi skutečně obstojí a jestli se tyto aktualizace stanou realitou.  

Nová definice zároveň napevno stanovuje, že systémy umělé inteligence jsou software. Při tom předchozí definice vytvoření AI HLEG počítala s tím, že se může jednat i hardwarové řešení.[7] Na druhou stranu, recitál 6 explicitně zmiňuje, že AI systémy mohou být jak čistě softwarové, tak součástí fyzického předmětu. 

Na koho bude úprava dopadat?

Současný návrh počítá s tím, že by regulace měla dopadat hned na několik subjektů. Jedná se o provozovatele, dovozce, distributory a uživatele. Právě tyto subjekty by podle návrhu čekala celá řada nových povinností. 

Za provozovatele je dle článku 3 odst. 2 považována entita, která systém AI vyvinula nebo si nechala vyvinout za účelem uvedení na trh pod svým jménem nebo ochrannou známkou. 

Zajímavá je zde definice uživatele. Nebude se totiž jednat o každou osobu, která systém AI užívá. Návrh za uživatele totiž nepovažuje toho, kdo systém AI používá pro osobní účely.  Obdobně jako v GDPR je pak definice subjektů postavena velmi široce, aby pokryla všechny entity bez ohledu na jejich právní formu.  

Návrh zároveň pracuje i s širokou působností, kdy regulace bude dopadat i na provozovatele a uživatele mimo EU, pokud jejich AI systémy mají dopad v EU. Z působnosti jsou naopak vyjmuty systémy AI určené výlučně k vojenským účelům. 

Zakázané a vysoce rizikové systémy umělé inteligence

Návrh nařízení přichází s dělením AI systémů do několika kategorií dle jejich rizika. Právě snaha zakázat některé systémy a omezit užívání těch vysoce rizikových je asi nejambicióznějším cílem celého návrhu. Zároveň je patrné, že se návrh snaží vypořádat spíše s neurčitou množinou rizikových systémů, než že by jmenovitě reguloval již konkrétní řešení. To může být přínosem do budoucna, na druhou stranu to v současné době přináší jistou nejistotu ohledně toho, koho a čeho se přesně regulace týká. Komise k tomuto vydala v rámci Přílohy 3 návrhu seznam vysoce rizikových AI systémů.  Domnívám se, že snaha podřadit různé existující AI systémy do jednotlivých kategorií bude teď předmětem nejrůznějších debat. Návrh nařízení také (obdobně jako např. GDPR) nepřináší konkrétní pravidla, ale stojí na systému posouzení rizik jednotlivými subjekty. 

Mezi zakázané systémy AI patří ty, které představují nepřijatelné riziko a podstatnou hrozbu pro bezpečnost a životy lidí.[8] Dle nařízení to jsou např. systémy schopné manipulace s lidským chováním nebo systémy schopné sociálního hodnocení (angl. social scoring).  

Za vysoce rizikové systémy AI návrh nařízení považuje celou řadu technologií. Jedná se například o systémy používané v kritické infrastruktuře schopné ohrozit lidské životy, technologie využívané ve vzdělávání, které mohou ovlivnit přístup ke vzdělání nebo technologie využívané v základních soukromých a veřejných službách či v justici při hodnocení důkazů.[9]  Právě pro tyto vysoce rizikové systémy návrh vytváří nové povinnosti.  

Nakonec návrh upravuje i ostatní AI systémy, tedy ty nejméně rizikové. U těch vystupuje do popředí požadavek na transparentnost. To se v praxi může projevit zejména tím, že uživatelé těchto systémů musí být předem seznámeni s tím, že nejednají s člověkem. Do této zbytkové kategorie se zdá budou spadat např. videohry využívající AI nebo různé filtrovací nástroje.[10]

Technologie rozpoznávání obličejů

Velké pozornosti se v souvislosti se zveřejněním návrhu dostalo zejména technologii rozpoznávání obličejů (angl. facial recognition). Tato technologie je přitom již dlouhodobě předmětem kontroverze a o jejím možném zakázání se poprvé spekulovalo již před zveřejněním Bílé knihy o umělé inteligenci. Důvodem je zejména její potenciál zneužití za účelem sledování nebo určitá míra chybovosti. Návrh nařízení teď nově přichází s regulací těchto systémů. Dle návrhu je každý systém umožňující biometrickou identifikaci v reálném čase na dálku považován za vysoce rizikový. Z tohoto důvodu pak návrh nařízení ve své současné podobě zakazuje používání takových systémů na veřejně přístupných místech a nabízí jen několik málo výjimek z tohoto zákazu. Stejně tak návrh počítá s tím, že povolení v rámci takové výjimky bude podléhat soudnímu nebo jinému povolení. Je otázkou, jak moc se tento zákaz ještě změní a jak široce formulované výjimky budou. Už se objevují názory, že právě výjimka pro policejní stíhaní je formulována až příliš široce a nechává prostor pro možné sledování.[11] Problematická se z tohoto pohledu zná i formulace, že se zákaz týká pouze systémů fungujících v reálném čase, což nechává prostor pro následné užití této technologie.[12] Tyto technologie jsou v současné době používány jak v soukromé, tak veřejné sféře. Přístup k nim se přitom napříč EU může zásadně lišit. V České republice je například obdobný systém užíván na Letišti Václava Havla, v Belgii naopak jeho využití přísně zakázáno.[13]  

Závěr

Návrh nařízení je zatím pouze ve svém začátku a je otázkou, kolik změn jej ještě čeká a jak dlouho bude trvat proces jeho schválení. Konkrétní výsledek totiž možná několik dalších let neuvidíme. V této své podobě navíc zatím přináší spíše více otázek než odpovědí. I tak je nutné zmínit, že je poměrně velkým úspěchem, že tento návrh vůbec vzniknul a volání po regulaci umělé inteligence nezůstaly pouze v akademické sféře. Zároveň se nejspíše nebude jednat o jediný předpis, neboť celá řada otázek zůstala návrhem nevyřešena. Jedná se zejména o otázku odpovědnosti, práv duševního vlastnictví či povinného pojištění. 


[1] EVROPSKÁ KOMISE. Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). [online]. 2021 [cit. 2021-05-06]. Dostupné z: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.

[2] Jedná se například o Bílou knihu o umělé inteligenci, Etické pokyny pro zajištění důvěryhodnosti UI nebo Usnesení Evropského parlamentu k režimu občanskoprávní odpovědnosti za umělou inteligenci. 

[3] Článek 3 odst. 1 Návrhu nařízení o umělé inteligenci.

[4] Komise původně definovala umělou inteligenci jako „systémy vykazující inteligentní chování v podobě vyhodnocování svého okolí́ a následného rozhodování či vykonávaní́ kroků – s určitou mírou autonomie – k dosažení konkrétních cílů̊“ viz SDĚLENÍ KOMISE EVROPSKÉMU PARLAMENTU, RADĚ, EVROPSKÉMU HOSPODÁŘSKÉMU A SOCIÁLNÍMU VÝBORU A VÝBORU REGIONŮ: Umělá inteligence pro Evropu. COM/2018/237 final. [online]. 25. 4. 2018 [cit. 2021-05-06]. Dostupné z: http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=51625.)

[5] Srov. ČECH, Pavel. Definice umělé inteligence dle Expertní skupiny na umělou inteligenci. [online]. 2019 [cit. 2021-05-06]. Dostupné z: https://www.pravniprostor.cz/clanky/pravo-it/definice-umele-inteligence-dle-expertni-skupiny-na-umelou-inteligenci

[6] Recitál 6 Návrhu nařízení o umělé inteligenci. 

[7] Tato skupina naopak přišla s definicí, která za umělou inteligenci považuje „Systémy umělé inteligence jsou softwarové (a případně také hardwarové) systémy navržené lidmi, které mají zadán složitý cíl a jednají ve fyzické nebo digitální dimenzi, přičemž vnímají své prostředí tím, že získávají data, interpretují shromážděná strukturovaná nebo nestrukturovaná data, usuzují ze znalostí nebo zpracovávají informace odvozené z těchto dat a rozhodují o nejlepší akci či akcích k dosažení daného cíle. Systémy AI mohou používat symbolická pravidla nebo si vytvořit numerický model; mohou rovněž přizpůsobovat své chování na základě analýzy toho, jak je prostředí ovlivněno jejich předchozími akcemi.“ viz HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE. A Definition of AI: Main Capabilities and Disciplines: Definition developed for the purpose of the AI HLEG’s. [online]. 2018 [cit. 2021-05-25]. Dostupné z: https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_definition_of_ai_18_december_1.pdf, s. 7.

[8] Evropa je připravena na digitální věk: Komise navrhuje nová pravidla a opatření, která pozvednou umělou inteligenci na nejvyšší úroveň a zvýší její důvěryhodnost. [online]. 2021 [cit. 2021-05-25]. Dostupné z: https://ec.europa.eu/commission/presscorner/detail/cs/IP_21_1682.

[9] Evropa je připravena na digitální věk: Komise navrhuje nová pravidla a opatření, která pozvednou umělou inteligenci na nejvyšší úroveň a zvýší její důvěryhodnost. [online]. 2021 [cit. 2021-05-25]. Dostupné z: https://ec.europa.eu/commission/presscorner/detail/cs/IP_21_1682.

[10] Evropa je připravena na digitální věk: Komise navrhuje nová pravidla a opatření, která pozvednou umělou inteligenci na nejvyšší úroveň a zvýší její důvěryhodnost. [online]. 2021 [cit. 2021-05-25]. Dostupné z: https://ec.europa.eu/commission/presscorner/detail/cs/IP_21_1682 

[11] VINCENT, James. EU outlines wide-ranging AI regulation, but leaves the door open for police surveillance. The Verge. [online]. 2021 [cit. 2021-05-25]. Dostupné z: https://www.theverge.com/2021/4/21/22393785/eu-ai-regulation-proposal-social-credit-ban-biometric-surveillance-exceptions.

[12] VINCENT, James. EU outlines wide-ranging AI regulation, but leaves the door open for police surveillance. The Verge. [online]. 2021 [cit. 2021-05-25]. Dostupné z: https://www.theverge.com/2021/4/21/22393785/eu-ai-regulation-proposal-social-credit-ban-biometric-surveillance-exceptions.

[13] PEETERS, Bert. Facial recognition at Brussels Airport: face down in the mud. [online]. 2020 [cit. 2021-05-25]. Dostupné z https://www.law.kuleuven.be/citip/blog/facial-recognition-at-brussels-airport-face-down-in-the-mud/

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články

Tento web využívá cookies pro zajištění funkčnosti webu a získání statistik návštěvnosti webu