Umělá inteligence a odpovědnost za škodu aneb redefinování zákonů robotiky, část I.

Zájem o vytváření umělých a samostatně myslících bytostí provází lidstvo již od starověku. Od antických legend o Pygmalionovi a bájných výtvorech boha Héfaista se tak přes novodobější pověst o Golemovi dostáváme až k umělou inteligencí nabité tvorbě science-fiction.

student 5. ročníku Právnické fakulty Univerzity Karlovy
Foto: Fotolia

Teprve nyní se však s příchodem čtvrté průmyslové revoluce[1] ocitáme v době, ve které není vytváření autonomně rozhodujících strojů předmětem bájí, nýbrž zcela reálným předmětem potřeby nové právní regulace. Pro účely takové regulace je pak nutné umělou inteligenci vnímat v několika rovinách – od předmětů každodenní potřeby až po rozsáhlé průmyslové a celospolečenské kyberneticko-fyzické systémy[2]. Za umělou inteligenci bývají v současnosti obecně označovány ty automatizované rozhodovací procesy, jimž lze v rozhodování přiřknout dostatečnou míru autonomnosti spočívající v určitém stupni nezávislosti na lidském jednání. Umělá inteligence by se od běžných počítačových algoritmů měla lišit také schopností učit se na základě vlastních zkušeností. Co se však stane, když takto samostatně jednající robot způsobí škodu? Počítají současné právní řády se speciální úpravou odpovědnosti za jednání robotů?

Pro zodpovězení těchto otázek nejprve začneme obecným přehledem vhodných režimů odpovědnosti, jež jsou většině zemí společné. Poté bude stručně představen nejnovější vývoj předmětné právní úpravy jak v České republice, tak ve světových velmocích, které se pro nutnost nové právní úpravy vyslovily nejhlasitěji[3].

Současný stav umělé inteligence sice zatím nenaplňuje technologické vize filmů, jako je 2001: Vesmírná odysea, Terminátor či seriálu Westworld, kde stroje a systémy disponují skutečným vědomím, v části věnované Evropské unii se však dotkneme i možnosti vytvoření zcela nového subjektu práv.

Nakonec se na odpovědnost za škodu způsobenou umělou inteligencí podíváme optikou konkrétních případů autonomně rozhodovacích procesů.

Pojetí odpovědnosti v souvislosti s umělou inteligencí

Odpovědnost je obecně chápána jako sekundární povinnost právního vztahu vznikající porušením primární (původní) povinnosti.[4] Pojetí základní občanskoprávní odpovědnosti, odpovědnosti za škodu, je pak od účinnosti zákona č. 89/2012 Sb., občanský zákoník, (dále jen ObčZ) částečně odlišné. Zákonodárce se zde totiž inspiroval zásadami deliktního práva Evropské unie a opustil jednotné pojetí smluvní a mimosmluvní odpovědnosti za škodu. Smluvní odpovědnost za škodu tak nadále není vnímána jako odpovědnost sekundární (sankční), nýbrž jako odpovědnost za náležité plnění již povinnosti primární.[5] Na rozdíl od mimosmluvní odpovědnosti za škodu[6] se tedy vždy bude jednat o odpovědnost bez zavinění, tj. odpovědnost objektivní.[7]

Zachycení odpovědnosti v celé šíři její doktrinální komplexnosti si však za cíl tato práce neklade. Na následujících řádcích budou představeny jednotlivé výchozí koncepty objektivní odpovědnosti za škodu, které mohou v souvislosti s umělou inteligencí přicházet v úvahu. Pro tyto účely tak bude postavení umělé inteligence porovnáno mimo jiné s:

  • postavením zvířat,
  • postavením dětí,
  • postavením výrobků,
  • provozem zvlášť nebezpečným,
  • postavením otroků,
  • fikcí právnické osoby.
Inspirace vybranými případy současné objektivní odpovědnosti

Část současných systémů umělé inteligence ke svému provozu stále vyžaduje určitou míru lidského dohledu. Zaměříme se tedy na situace, které jsou v tomto ohledu současným právem již upraveny a ve kterých je možné nalézt jistou korelaci s autonomním rozhodováním umělé inteligence. V těchto situacích je škodu povinen nahradit právě ten, kdo dohled vykonával[8], nebo nutný výkon dohledu zanedbal[9]. V posledním bodě bude také představen institut současného práva, ve kterém je objektivní odpovědnost za škodu založena i bez nutnosti dohledu.

(a) Škoda způsobená zvěří

Ačkoliv je zvíře entitou, jež je stejně jako umělá inteligence schopna autonomního rozhodování, jejich srovnání není zcela na místě. Umělá inteligence je totiž vytvářena tak, aby se co nejvíce přiblížila lidskému racionálnímu myšlení. Podobnost se zvířecími smysly a instinkty je tudíž nutno vnímat pouze velmi okrajově.[10] Lze tedy usuzovat, že tento typ objektivní odpovědnosti ve vztahu k umělé inteligenci nelze aplikovat.

(b)   Škoda způsobená tím, kdo nemůže posoudit následky svého jednání

Příkladem tohoto typu objektivní odpovědnosti je odpovědnost za jednání dítěte. Oprostíme-li se od faktického porovnání dítěte s autonomně rozhodujícím elektronickým systémem, můžeme se v tomto případě odpovědnosti inspirovat pro možnost soustavně se vyvíjející umělé inteligence – podobně jako přestává být rodič odpovědný za své dospělé dítě, mohou být diferenciovány určité fáze objektivní odpovědnosti za ty typy umělé inteligence, u kterých se počítá s průběžným vývojem.[11]

(c)   Škoda způsobená věcí

Obecně platí, že odpovědnost nese ten, kdo měl nad věcí vykonávat dohled.[12] Tento princip, jenž je v praxi vhodným například v oblasti škody způsobené domácími spotřebiči, se však pro oblast umělé inteligence, s výjimkou zcela primitivních systémů, stává nespravedlivým.[13] Důvodem je zejména možnost plně autonomního jednání umělé inteligence a s ním spojená vyšší míra nepředvídatelnosti [14] než u standardních výrobků. „Očekává se, že odpovědnost uživatele či vlastníka bude v éře autonomně jednajících předmětů nahrazena odpovědností výrobce, postavené na obdobných principech jako současná odpovědnost za vady výrobku,“ uvádí Jana Pattynová.[15]

(d) Škoda způsobená provozem zvlášť nebezpečným

V českém právním řádu je základ této problematiky upraven v § 2925 odst. 1 ObčZ následovně: „Kdo provozuje závod nebo jiné zařízení zvláště nebezpečné, nahradí škodu způsobenou zdrojem zvýšeného nebezpečí; provoz je zvlášť nebezpečný, nelze-li předem rozumně vyloučit možnost vzniku závažné škody ani při vynaložení řádné péče.“ Zatímco český výklad připouští, že provozem zvlášť nebezpečným může být takřka cokoliv[16] , některé zahraniční zdroje jej již přímo v souvislosti s umělou inteligencí uvádějí. Ugo Pagallo tak situaci přirovnává k 30. létům 20. století, kdy bylo za zvlášť nebezpečný provoz považováno i civilní letectví.[17] George S. Cole vhodnost tohoto principu uvádí na případech, kdy může být autonomním rozhodováním umělé inteligence ohroženo lidské zdraví.[18]

Pro účely odpovědnosti za škodu způsobenou umělou inteligencí je využití tohoto principu vhodné zejména v kontextu teorie „deep pocket“[19]. Dle ní je provozovatel (v případě umělé inteligence výrobce či programátor, nikoliv koncový uživatel) zvlášť nebezpečného provozu povinen ze svého zisku kompenzovat veškeré vzniklé škody. V důsledku by se pak tato povinnost promítla především v povinném pojištění pro případný vznik odpovědnosti za škodu, což by bezpochyby mělo za následek i zvýšení cen pro koncového uživatele.

David C. Vladeck zmiňuje i možnost společné odpovědnosti navzájem provázaných subjektů v procesu tvorby systému umělé inteligence – subjektů z oblasti designu, programování, samotné výroby apod.[20]

V předchozích odstavcích byly shrnuty základní typy občanskoprávní objektivní odpovědnosti, které si lze v případě umělé inteligence představit. Nejedná se však o taxativní výčet. Byla-li by například škoda způsobená umělou inteligencí prokazatelně zapříčiněna vadou mající původ ve výrobním procesu, užitým typem odpovědnosti by bezpochyby byla standardní odpovědnost za vady výrobku[21], a odpovědným by se tak stal výrobce, dodavatel či další povinný subjekt.

Specifický typ odpovědnosti se týká provozu autonomních dopravních prostředků, kterému bude věnována také samostatná část práce.

Odpovědnost umělé inteligence v kontextu zásady respondeat superior[22]

Zásada respondeat superior je vlastní zejména anglosaským právním systémům, a ačkoliv se vyskytuje i v českém právu, nebývá v tuzemských pramenech artikulována v takové míře, jako v zahraničí. Četnost jejího zastoupení v právních řádech Evropské unie zmiňuje ve svém stanovisku k věci C‑396/12 i generální advokátka Juliane Kokott: “Pokud osoba ke splnění smluvního závazku využije pomoc třetí osoby, je třeba ve zcela převažujícím počtu členských států vycházet z toho, že ve svých právních řádech dojdou k řešením, podle kterých je ve výsledku za pochybení svého pomocníka odpovědný vůči smluvnímu partnerovi dlužník. Je tedy odpovědný jak za zavinění pro něj činné třetí osoby, tak za své vlastní.“[23]

Českým právem bývá nazývána také jako zástupná či zprostředkovaná odpovědnost (angl. vicarious liability) a je upravena v § 1935§ 2914 ObčZ:

  • § 1935: „Plní-li dlužník pomocí jiné osoby, odpovídá tak, jako by plnil sám.“
  • § 2914: „Kdo při své činnosti použije zmocněnce, zaměstnance nebo jiného pomocníka, nahradí škodu jím způsobenou stejně, jako by ji způsobil sám.“

Inspiraci pro tato ustanovení lze nalézt v ustanoveních § 1313a a § 1315 rakouského ABGB a ustanoveních § 278 a § 831 německého BGB. Na rozdíl od české právní literatury jsou v zahraničí dávána do přímého kontextu se zásadou respondeat superior.[24] V praxi se zásada projevuje zejména v pracovněprávních vztazích, konkrétně v odpovědnosti zaměstnavatele za škodu způsobenou zaměstnancem třetí osobě.

Abychom se ale dostali k samotné použitelnosti na umělou inteligenci, je zapotřebí si připomenout i původ zásady respondeat superior, který nalezneme v římském právu. Původně se totiž vztahovala k odpovědnosti pána za jednání otroků. Otrok byl zjednodušeně chápán jako pouhý nástroj, jehož pán byl odpovědný za veškerou způsobenou škodu.

Stejně jako se poté zásada vyvinula, aby vyhovovala účelům současného pracovněprávního vztahu, bude se pro případ umělé inteligence vhodné vrátit zpět k jejím kořenům. Zaměstnanci, kteří otroky nahradili, budou totiž v mnoha případech opět postupně nahrazováni mechanizovanými „otroky“[25] v podobě umělé inteligence.

Byl-li tak zaměstnavatel doposud odpovědný například za škodu způsobenou zaměstnancem řídícím dodávku, v budoucnosti by měl být stejným způsobem odpovědný za škodu způsobenou nehodou vozidla pohybujícího se zcela autonomně.

Stejnou paralelu by bylo možné vztáhnout i na vlastníky jednotlivých zařízení disponujících umělou inteligencí, či podobně jako v případě odpovědnosti za „provoz zvlášť nebezpečný“ i na výrobce. Tito by pak byli povinni za způsobenou škodu poskytnout příslušnou kompenzaci.

Právnická osoba jako inspirace pro vytvoření nového subjektu práva

Již v úvodu práce byla naznačena rostoucí tendence ve zdokonalování umělé inteligence. Lze tak s jistotou tvrdit, že je pouze otázkou času, kdy bude umělou inteligenci třeba začít vnímat jako specifický subjekt práva. Tato problematika bude v rámci nových legislativních návrhů rozebrána také v části věnující se Evropské unii.

Přirovnání k právnické osobě pak v literatuře nebývá používáno jako vzor či vhodný postup pro konstrukci právního subjektu umělé inteligence, ale spíše jako ukázka vytvoření zcela nového (umělého) právního subjektu, který v právu již existuje.[26]

I přesto však může právnická osoba skrývat pro oblast odpovědnosti za škodu umělé inteligence určitý potenciál. Článek Shawna Bayerna, Thomase Burriho a dalších[27] se v této souvislosti zabývá možností inkorporace umělé inteligence do existující právnické osoby. Jejich cílem bylo vytvořit právnickou osobu, jež je tvořena pouze samotným autonomním systémem umělé inteligence a na níž nebudou mít fyzické osoby žádný podíl. Z testovaných právních řádů (USA, Spojené království, Německo, Švýcarsko) se nakonec nejlépe osvědčila americká Limited Liability Company („LLC“). Zjednodušený postup nastíněné koncepce je následující:

  1. Založení jednočlenné LLC
  2. Společenská smlouva stanoví řízení skrze umělou inteligenci
  3. LLC nabude umělou inteligenci do vlastnictví
  4. Odstoupení jediného společníka

Na rozdíl od ostatních právních řádů je americká LLC dostatečně flexibilní pro samostatnou existenci bez závislosti na případných společnících. Ačkoliv tak mohou být v tomto směru ostatní země rigidnější, stále existuje možnost otevření pobočky americké LLC v zahraničí. Zůstává však stále otázkou, jak by bylo k výhradně umělou inteligencí tvořenou právnickou osobou přistupováno v praxi.


[1] První vize o vývoji průmyslu byla představena v roce 2011 na Hannoverském veletrhu, oficiálně pak byla německá národní platforma „Industrie 4.0“ spuštěna v roce 2013

[2] Například Smart Cities, Smart Factory, Smart Grid a další

[3] Evropská unie, USA, Spojené království a Japonsko KEMP R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016, s. 24 <http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016- 2.pdf>

[4] FIALA, Josef et al. Občanské právo hmotné. 2. vyd. Brno: Nakladatelství Doplněk. 1998. s. 381

[5] HULMÁK, M. a kol.: Občanský zákoník VI. Závazkové právo. Zvláštní část (§ 2055–3014). Komentář. 1. vydání. Praha: C. H. Beck, 2014, s. 1498

[6] V případě mimosmluvní odpovědnosti je možné předpokládat jak subjektivní, tak objektivní odpovědnost za škodu

[7] DVOŘÁK, J., ŠVESTKA, J., ZUKLÍNOVÁ, M. a kol. Občanské právo hmotné. Svazek 1. Díl první: Obecná část. Praha: Wolters Kluwer ČR, 2013, s. 367-368

[8] Např. § 2933 ObčZ

[9] Např. § 2921 ObčZ

[10] ČERKA, P., GRIGIENÈ, J., SIRBIKYTÈ, G. Liability for damages caused by artificial intelligence. Computer Law & Security Review 31, 2015, s. 386

[11] SCHERER, M. Digital Analogues Jun 8, 2016 <https://medium.com/imaginary-papers/digital-analogues-11ec61c2d88f#.7xna62vqc>

[12] V českém právu § 2937 ObčZ

[13] JANUŠ, J. Kdo ponese odpovědnost za jednání robotů? 26.8. 2016 <http://ceskapozice.lidovky.cz/kdo-ponese-odpovednost-za-jednani-robotu-fpb-/>

[14] ASARO P.M. The Liability Problem for Autonomous Artificial Agents Ethical and Moral Considerations in Non-Human Agents, 2016 AAAI Spring Symposium Series <http://www.peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>

[15] JANUŠ, J., op. cit.

[16] HULMÁK, M. a kol., op. cit., s. 1606 - 1609

[17] PAGALLO, U. Even Angels Need the Rules: AI, Roboethics, and the Law, 22nd European Conference on Artificial Intelligence, ECAI 2016

[18] COLE, G.S.: Tort Liability for Artificial Intelligence and Expert Systems, 10 Computer L.J. 127, 1990

[19] CALABRESI, G. The Cost of Accidents: A Legal and Economic Analysis, Yale University Press, 1970, s. 40-41

[20] VLADECK, D.C. Machines without Principles: Liability Rules and Artificial Intelligence, Washington Law Review [Vol. 89:117], 2014, s. 149

[21] V českém právu § 2939 a násl.

[22] Lze přeložit jako “odpovědnost pána” (angl. také jako Master-Servant Rule)

[23] Stanovisko generální advokátky Juliane Kokott ve věci C‑396/12 A. M. van der Ham, A. H. van der Ham-Reijersen van Buuren ze dne 24. října 2013

[24] Pro ustanovení rakouského ABGB například: KOCH, B.A. Medical Malpractice in Austria, Chicago-Kent Law Review [Vol. 86:3], 2011, s. 1038 odkazující také na KOZIOL, H., OSTERREICHISCHES HAFTPFLICHTRECHT (2d ed. 1984). Pro ustanovení neměckého BGB například: KOCH, B.A. Medical Liability in Europe: A Comparison of Selected Jurisdictions, Tort and Insurance Law Vol 29, 2011, s. 247

[25] WEIN, L.E. The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence, Harvard Journal of Law & Technology, vol. 6, Fall 1992, s. 111

[26] Např. WEIN, L.E., op. cit., s. 107

[27] BAYERN, S., BURRI, T., GRANT, T. D., HÄUSERMANN, D. M., MÖSLEIN, F., WILLIAMS, R. Company Law and Autonomous Systems: A Blueprint for Lawyers, Entrepreneurs, and Regulators, 10 October 2016

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články