Rozhovor: Alžběta Krausová - Čtvrtá průmyslová revoluce aneb je právo připraveno na roboty?

Doba se neustále vyvíjí. Význam autonomních systémů a umělých inteligencí (stroje, roboti, algoritmy) s vědeckým pokrokem neustále roste. V současnosti však zatím žádný plně autonomní systém, který by nebyl závislý na lidské instrukci, neexistuje. Je ale pouze otázkou času, kdy se takové systémy na trhu objeví. A v souvislosti s tím vyvstává řada otázek, jakož i nezbytná potřeba uzpůsobení právního řádu.

Foto: Fotolia

Jak umělou inteligenci v právním řádu ukotvit? Kdo bude právně odpovídat za jednání umělé inteligence? Bude odpovídat programátor, vlastník, nebo bude zavedena nová kategorie tzv. elektronické osoby? V rozhovoru odpovídala Mgr. Alžběta Krausová, LL.M. - členka Ústavu státu a práva Akademie věd ČR.

Současná legislativa neumožňuje, aby robot nesl odpovědnost za jednání nebo opomenutí, jímž způsobil škodu třetí straně. Zjednodušeně řečeno, odpovědná bude konkrétní fyzická či právnická osoba, pokud mohla předvídat protiprávní chování a zabránit mu. Otázkou však je, zda by tyto osoby měly odpovídat, až roboti dokáží jednat samostatně na základě toho, co se sami naučili. V jaké fázi momentálně vědci jsou? V jakém přibližném časovém horizontu (pokud vůbec) lze očekávat roboty - umělé inteligence - kteří budu schopni činit samostatná rozhodnutí? 

Záleží na tom, co máte na mysli pod pojmem „umělá inteligence schopná činit samostatné rozhodnutí“. Pokud pod pojmem rozhodnutí chápeme výběr z různých variant možných chování a pod pojmem samostatnosti schopnost učinit tento výběr relativně nezávisle na svém tvůrci, pak lze říci, že takovéto inteligentní systémy již ve společnosti fungují a jsou poměrně široce využívané. 

Představit si můžeme nejenom autonomní roboty se schopností se pohybovat a vyhýbat se překážkám v nepředvídatelném terénu či Vás sledovat (např. drony s kamerou natáčející vše, co vidíte), ale také čistě digitální systémy, které se dokázaly samy naučit hrát hry, či systémy, které s Vámi komunikují přirozeným jazykem, učí se o Vašich preferencích a přizpůsobují Vám výsledky vyhledávání. Dalším příkladem mohou být inteligentní systémy, které s určitou dávkou volnosti obchodují na burze a jejich rozhodování má reálný finanční dopad. 

Klíčovou otázkou v debatách o odpovědnosti za škodu způsobenou jednáním inteligentního systému je příčinná souvislost a míra kontroly fyzických či právnických osob nad tímto jednáním. V současnosti je tento problém řešen především objektivní odpovědností. Většina společností provozujících tyto systémy se proto snaží udržovat si nad nimi kontrolu. Například inteligentní robotka Sophia je prý schopná autonomní konverzace, ale když byla v Praze na Týdnu inovací 2018, zástupci médií ji museli poslat otázky předem a její odpovědi byly předem naprogramované. Majitelé robotky se tak chránili pro případ, kdy by Sophia před novináři pronesla něco nevhodného. Je otázkou, nakolik je stávající řešení objektivní odpovědností udržitelné. Při tvorbě a provozování inteligentních systémů je totiž dalším problémem pluralita zapojených osob, které se podílejí na výsledném fungování systému, a to včetně uživatele. Evropská unie proto začala revidovat stávající legislativu a zhodnocovat, nakolik právo dokáže efektivně reagovat na technologický vývoj a zda jeho aplikací na nové problémy nedojde k negativním účinkům – například k situaci, kdy by za škodu nebyl odpovědný nikdo.

Věnujme se na chvíli autonomním vozidlům. Automatizace silničních vozidel se dělí do šesti stupňů. Aktuálním dostupným modelem je stupeň 3.[1] Podle naší platné právní úpravy by v případě škody způsobené takovým autonomním vozidlem byla zřejmě aplikována ustanovení občanského zákoníku upravující odpovědnost za škodu z provozu dopravního prostředku či odpovědnost za škodu způsobenou vadou výrobku. V dlouhodobém časovém horizontu však vědci počítají s vozidly, která budou jezdit zcela autonomně bez součinnosti řidiče. Komu by pak v případě vzniklé škody měla být odpovědnost připisována? Jaké změny by přinesl tzv. status elektronické osoby?

U plně autonomních vozidel bude samozřejmě záležet jednak na způsobu jejich provozování a také na způsobu, jakým byla škoda způsobena. Existuje více technických a právních modelů provozování. Záležet bude samozřejmě na tom, které všechny subjekty budou do provozu těchto vozidel zapojeny. Hlavní odpovědnost by měl pravděpodobně nést výrobce autonomních vozidel, a to s ohledem na preventivní funkci právní odpovědnosti. Zároveň však nesmí být vyloučena odpovědnost uživatelů či majitelů vozidel, kteří mohou přispět ke způsobení nehody i u plně autonomního vozidla (např. jeho pozměněním, neuposlechnutím instrukcí výrobce, neservisováním vozidla apod.). Podle mého názoru bude i v budoucnu nutné posuzovat každý případ individuálně a zároveň se stanovením objektivní odpovědnosti stanovit i liberační důvody. 

Jak zmiňujete, ve hře je však ještě možnost vytvořit zvláštní konstrukt odpovědnosti v podobě tzv. statusu elektronické osoby. Tento konstrukt byl navržen v únoru 2017 v usnesení Evropského parlamentu s názvem Občanskoprávní pravidla pro robotiku[2] a má se týkat „nejsložitějších autonomních robotů“. Cílem tohoto zvláštního právního statusu je přenést odpovědnost na jeden subjekt, tj. přímo na robota. Jinak ale dokument neobsahuje žádné podrobnosti. Ze své povahy jde o skutečně kontroverzní návrh, který by v případě přijetí vyvolal spíš víc otázek, než odpovědí. Tento návrh kritizoval i  Evropský hospodářský a sociální výbor ve svém stanovisku s názvem „Dopady umělé inteligence na jednotný trh (digitální), výrobu, spotřebu, zaměstnanost a společnost“.[3] Status elektronické osoby totiž může jednak vést k jeho zneužívání a vyhýbání se odpovědnosti, ale zároveň může změnit i celou dynamiku právního sytému. Podle EHSV představuje takovýto status „nepřijatelný morální hazard“. 

Další navrhovanou variantou, jak vyřešit složitou otázku odpovědnosti, je návrh povinného systému pojištění, který by fungoval po vzoru povinného pojištění odpovědnosti z provozu vozidla. Kdo všechno by měl do tohoto pojištění přispívat a co by z něj bylo hrazeno? Co když si provozovatel robota takové pojištění nesjedná?

Návrh povinného pojištění byl rovněž představen v Občanskoprávních pravidlech pro robotiku a je otázkou, nakolik se v budoucnu tento návrh ukáže jako schůdný. Z uvedeného dokumentu vyplývá, že speciální systém pojištění robotů by měl na rozdíl od stávajícího povinného pojištění automobilů pokrývat nejenom jednání a chyby lidí, ale veškeré možné situace potenciální odpovědnosti. Povinnost pojistit robota by měl mít jeho výrobce nebo vlastník. Zároveň by mělo dojít k vytvoření kompenzačního fondu, ze kterého by byly kryty škody nepokryté pojištěním. Do tohoto fondu a i na pojištění by měli mít možnost přispívat všichni, kdo se podílejí na výrobě a provozování robota. V případě, že by došlo ke způsobení škody, by pak všechny tyto osoby měly jen omezenou odpovědnost. Otázku nesjednání pojištění dokument neřeší. 

,,Invaze” autonomních robotů se však nedotkne pouze práva občanského. Neméně důležitá je i otázka odpovědnosti v rovině trestněprávní. Měla by být umělá inteligence trestně odpovědná? Komu by případně měla být přičítána odpovědnost za trestné činy způsobené umělou inteligencí? Jaké sankce by pro roboty připadaly v úvahu?

O trestním právu a umělé inteligenci napsal zajímavou knihu Gabriel Hallevy s názvem „When Robots Kill: Artificial Intelligence under Criminal Law“, kde došel k tomu, že tzv. silná umělá inteligence (umělá inteligence mající stejné schopnosti jako člověk), by měla mít trestněprávní odpovědnost. V současnosti je však vůbec možnost dosažení takové úrovně vyspělosti umělé inteligence sporné. U stávajících systémů umělé inteligence nemá podle mého názoru trestní odpovědnost vůbec smysl. Jejím cílem je totiž zejména působit preventivně a chránit společnost před škodlivými činy. U umělé inteligence se však tato regulace míjí účinkem. Trestat umělou inteligenci nám známými způsoby nyní nemá smysl. Inteligentní systémy lze korigovat pomocí učení a korigování jejich fungování tak, aby odpovídalo našim očekáváním. Řešení proto musí být primárně technologické, nikoliv právní. Právní řešení ve formě trestněprávní odpovědnosti bude fungovat pouze vůči fyzickým osobám. Tresty by měly být směřovány vůči osobám, které umělou inteligenci zneužijí k páchání trestných činů. V případě spáchání trestného činu autonomní umělou inteligencí by pak měla společnost zajistit takové mechanismy umožňující zneškodnění tohoto systému a zároveň zjištění, zda měla v konkrétním případě osoba úmysl takový čin spáchat, či zda byla nedbalá, nebo k trestnému činu došlo nepředvídatelnou náhodou.

Existuje několik druhů robotů - přesněji umělých inteligencí, které se odlišují svými účely (např. androidi[4], kuchyňské roboty, počítačové programy, chatboti[5], autonomní vozidla...). Bude ke všem těmto inteligentním systémům z právního hlediska přistupováno stejně? Budou všichni roboti chráněni stejně?

Podle mého názoru určitě ne. Například kuchyňský robot je typickým příkladem automatizace bez autonomie – tj. bez možnosti do jisté míry se svobodně rozhodovat. Klíčovým pojmem, který rozlišuje jednotlivé druhy robotů, bude jednak míra autonomie a dále aplikační oblast. Přestože tak pravděpodobně budou v budoucnu stanoveny obecné principy pro určování odpovědnosti za rozhodnutí umělé inteligence, v jednotlivých oblastech bude nutné přijmout specifická pravidla například i s ohledem na to, jakou škodu mohou způsobit. 

V současné době se například hovoří o tom, zda by měl mít člověk právo vědět, zda ten, s kým mluví prostřednictvím digitální platformy, je člověk nebo robot. Obdobou by ale mohlo být právo na informaci o tom, zda lékařskou diagnózu stanovil stroj nebo člověk. Na druhou stranu chatbot s nejvyšší pravděpodobností nezpůsobí takovou škodu jako třeba operační přístroj nebo autonomní vozidlo. Otázkou je, zda v této souvislosti můžeme hovořit o ochraně robotů. Půjde spíš o ochranu lidí než robotů. O ochraně robotů se totiž hovoří především u inteligentních robotů majících lidskou podobu, přičemž možnost ubližovat takovým robotům by mohla mít velmi negativní následek ve společnosti. Již nyní se vedou debaty o tom, k čemu povede případné znásilňování robotů.

Podle současné právní úpravy mohou být autorská práva přiznána pouze fyzické osobě. Představme si ale situaci, kdy robot sám dokáže složit symfonii, která bude k nerozeznání od hudby skládané lidmi. Myslíte, že budou v budoucnu roboti schopni takových tvůrčích činností? Kdo by měl být v takových případech nositelem autorských práv?

Příklad, který uvádíte, se již realizuje v projektu, kdy se umělá inteligence snaží zkomponovat symfonii ve stylu Antonína Dvořáka. V minulosti byl na podobném principu vytvořen nový obraz ve stylu Rembrandta van Rijka v projektu Next Rembrandt, který dle mého subjektivního názoru oplývá velkým půvabem. Tyto technologie se budou do budoucna navíc jen zdokonalovat. České autorské právo ale není na tvorbu umělé inteligence bohužel připraveno. S ohledem na stávající požadavek § 2 odst. 1 autorského zákona, kdy dílo musí být jedinečným výsledkem tvůrčí činnosti autora, je sporné, zda máme považovat inteligentní systém za nástroj, pomocí kterého autor vytvořil nové dílo, nebo zda nejde o tvůrčí činnost člověka, a proto nebude výsledek chráněn autorským právem. 

V poslední době se ale objevují čím dál více názory o tom, že umělou inteligenci nelze považovat za pouhý nástroj, protože výsledek její činnosti je nepředvídatelný a autor do díla nevkládá svou tvůrčí činnost. V tomto ohledu je však třeba podívat se na vytvoření díla jako na investici. Pro vytvoření složitého uměleckého díla umělou inteligencí je většinou třeba velké množství dat, jejichž sběr a analýza jsou finančně náročné. Autorské právo by mělo tuto skutečnost reflektovat. Řešení nabízí právní konstrukt tzv. „computer-generated artwork“, který lze nalézt v právu Velké Británie, Nového Zélandu, Irska, Indie a Hong-Kongu. Zde jsou autorská práva přiznána tomu, kdo podnikl kroky nezbytné k vytvoření díla.


[1] Tento stupeň umožňuje řidiči přestat na přehledných úsecích sledovat jízdu, avšak ve vozidle musí být stále přítomen a připraven v případě potřeby zasáhnout.

[2]http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//CS

[3] https://eur-lex.europa.eu/legal-content/CS/TXT/?uri=CELEX%3A52016IE5369

[4] roboti podobní člověku

[5] roboti, kteří jsou schopni rozumět lidské řeči a s lidmi konverzovat

Hodnocení článku
100%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články