Umělá inteligence a odpovědnost za škodu aneb redefinování zákonů robotiky, část III.

Zájem o vytváření umělých a samostatně myslících bytostí provází lidstvo již od starověku. Od antických legend o Pygmalionovi a bájných výtvorech boha Héfaista se tak přes novodobější pověst o Golemovi dostáváme až k umělou inteligencí nabité tvorbě science-fiction.

student 5. ročníku Právnické fakulty Univerzity Karlovy
Foto: Fotolia

Právní úprava odpovědnosti umělé inteligence v českém právu

Téma umělé inteligence zaznamenalo v České republice za poslední rok velký ohlas. Můžeme se tak například dočíst, že: „Umělá inteligence pomalu vstupuje do lidského života. České právo ale není na nástup robotů připravené.“[1] Zatímco z jiného zdroje se dozvíme, že tvořit pro roboty zvláštní zákony není aktuální, přičemž si lze zcela vystačit se současnými ustanoveními občanského zákoníku.[2]

Pravdou tak je, že české právo, stejně jako zahraniční právní řády, skutečně zvláštní právní úpravu ohledně odpovědnosti za škodu způsobenou umělou inteligencí doposud nemá. Ani soudní praxe nezaznamenala větších případů.[3] Jedním z mála výraznějších je rozhodnutí Nejvyššího soudu týkající se programu na vytváření faktur.[4] Za vygenerování chybné faktury zde nebyl odpovědný výrobce softwaru, ale uživatel, který měl v rámci principu prevence povinnost k odvrácení hrozící škody[5] tím, že fakturu před odesláním sám překontroluje.

S povinnostmi plynoucími z principu prevence si pro některé aspekty umělé inteligence vystačíme i nadále.[6] Dokud budou autonomní systémy dostatečně předvídatelné, bude možné aplikovat také výše zmíněná ustanovení odpovědnosti za škodu způsobenou věcí.[7] Dokud budou manuály „autonomních“ automobilů vyžadovat lidskou kontrolu a dozor, budeme moci využít odpovědnosti za škodu z provozu dopravních prostředků.[8] Jakmile se však umělá inteligence stane dostatečně autonomní, bude vhodné objektivní odpovědnost za škody přenést v rámci internalizace externalit na jejího výrobce. Pro jednotlivé výrobce by zároveň měly vzniknout určité standardy bezpečnosti (podobné, jako plánují v Japonsku), jejichž pečlivým splněním by mohl být dán liberační důvod například pro odpovědnost za škodu způsobenou jako důsledek kybernetického (hackerského) útoku.[9]

Problematika odpovědnosti v aktuálních příkladech využívání umělé inteligence

Autonomní motorová vozidla

Dle oznámení nejvýznamnějších světových automobilek bude do roku 2021 setkání s plně autonomním vozidlem na silnici zcela běžné.[10] Otázka inteligentních automobilů však již byla také nastíněna v téměř 70 let starém rozsudku Arnold v. Reuther.[11] Odvolací soud v Louisianě dal tehdy za pravdu panu Reutherovi, který si ze svého auta nemohl přecházející paní Arnoldové všimnout, neboť je dle slov soudu pouhým člověkem, a ne robotem vybaveným radarovým systémem. Seděl-li by tak pan Reuther za volantem současného plně autonomního vozidla, mělo by nehodě zabránit samotné vozidlo.

Autonomní motorová vozidla tedy bezpochyby poskytují zvýšenou bezpečnost na silnicích. Vznik případné škody však stále vyloučit nelze a je třeba se na takové případy připravit. Jak vyplývá z poznatků zmíněných výše, za ideální řešení odpovědnosti za škodu je v českém i zahraničním právním prostředí považována objektivní odpovědnost výrobce. Sami výrobci přitom s tímto přístupem souhlasí.[12] Důležitým aspektem je také doplnění tohoto odpovědnostního systému vznikem příslušných pojišťovacích instrumentů.

Internetoví boti a chatboti

Internetoví boti (či roboti) mohou mít různé podoby. Může se jednat o algoritmické nástroje na finančních trzích, programy vyhledávající potřeby zákazníků, programy čistě škodlivé a mnoho dalších.

V případě algoritmů vytvořených s cílem způsobit jinému škodu (či sobě neoprávněný prospěch) je pak odpovědnost poměrně jasná. Na tomto základě byl v roce 2015 obviněn Navinder Singh Sarao za bleskový propad burzy, známý jako Flash Crash, z roku 2010. Ten byl způsoben pomocí virtuálních robotů schopných vytvoření tisíců fiktivních nabídek, zahlcujících tak burzu smyšlenými daty.[13]

Ani pro ostatní internetové boty by však pravidla nemusela být příliš nejasná. Situaci si můžeme uvést na existujících případech, kdy internetový robot zjistí těhotenství dříve než nastávající maminka.[14] Při troše fantazie si lze takovýto (či analogický) zásah do soukromí představit jako důvod pro žádost nemajetkové újmy. Odpovědnost za způsobenou újmu by poté nesl ten subjekt, který se dopustil porušení příslušných norem na ochranu osobních údajů (vlastník vyhledávajícího programu, či správce nedostatečně zajištěné internetové stránky). Opět je tak nutné zajistit vytvoření určitých standardů bezpečnosti. Některé z těchto aspektů se snaží zachytit i Evropská unie ve svém nařízení GDPR.[15]

Kromě dodržování stanovených standardů bude u zcela autonomních programů vhodné využít již zmíněný princip prevence a dostatečné péče. V případě způsobené škody pak bude odpovědným uživatel, který tuto péči zanedbal.

U chatbotů, tedy chatovacích zařízení napodobujících člověka, pak bude nutné dodržet specifický minimální etický kodex při jejich vytváření. Díky tomuto nezbytnému kroku se v budoucnu bude možné vyhnout situaci, kdy se Microsoftem představený chatovací robot stane „rasistickým“ během pouhých pár hodin po kontaktu s uživateli Twitteru.[16]

Umělá inteligence ve zdravotnictví

Ačkoliv užívání umělé inteligence ve zdravotnictví přináší zcela nové možnosti diagnózy a léčby, způsobení škody nelze a priori vyloučit. Jan Mach se k neočekávaným škodám ve zdravotnictví vyjadřuje následovně: „Pokud poskytovatel zdravotní služby použil věc – přístroj, nástroj nebo lék –, který nebyl vadný, správně a lege artis, aniž nad jeho uskladněním a ošetřováním zanedbal potřebný dohled, a přesto vznikla povahou této věci škoda na zdraví pacienta (např. nepředvídaná alergická reakce na léčivý přípravek), pak […] poskytovatel zdravotní služby za tuto škodu neodpovídá.“[17]

I zde tak podobně jako u autonomních vozidel připadá v úvahu objektivní odpovědnost výrobce. Vzhledem k vyšší citlivosti tématu a pravděpodobně několikanásobně menší velikosti příslušných výrobců v porovnání s velkými automobilkami je však v této oblasti třeba klást důraz především na vytvoření pojistného systému, díky kterému by se výrobci nemuseli obávat zániku existence. Obdobné názory týkající se pojistného systému zaznívají i v zahraničí.[18]

Závěr

Skrze teoretické koncepty odpovědnosti za škodu jsme se v průběhu práce dostali až k reálným a praktickým dopadům v jednotlivých státech a také v jednotlivých případech nejčastějšího využívání umělé inteligence. Z výsledků vyplývá, že univerzální druh odpovědnosti na všechny myslitelné způsoby využití umělé inteligence aplikovat nelze.

Nejčastěji zmiňovaným typem odpovědnosti za škodu je bezpochyby objektivní odpovědnost výrobce. Tento princip zohledňuje nejen nepředvídatelnost jednání autonomně rozhodujících systémů, ale i větší důraz na výrobce s ohledem na kvalitu produktů.

Odpovědnost výrobce také nemusí nutně znamenat výrazný pokles inovací v daném sektoru. Má-li být umělá inteligence prostředkem k vyšší bezpečnosti tam, kde by člověk obyčejně selhal, bylo by chybou automaticky předpokládat vysoký příval žalob z odpovědnosti za škodu. Při podpoře vyšších standardů bezpečnosti lze naopak očekávat vyšší zájem o umělou inteligenci a s ním spojené ekonomické a finanční výhody.

Do finálních cen umělé inteligence výrobci určitě promítnou i náklady na povinné pojištění a ti opatrnější mohou po uživatelích vyžadovat povinnost neustálého dohledu.

Odpovědnost za škodu však není jedinou výzvou, která je před zákonodárce v souvislosti s umělou inteligencí postavena. Nové problémy mohou souviset také s ochranou dat proudících skrze internet věcí, etickými otázkami vytvoření nových subjektů práv a v neposlední řadě s problematikou autonomních zbraňových systémů.

V budoucnosti si tak pro účely umělé inteligence se zákony robotiky Isaaca Asimova bohužel nevystačíme. Zákony robotiky by se však pro vývojáře mohly stát jakýmsi minimálním etickým standardem. I kdyby se poté měli roboti držet pouze prvního zákona, „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo,“ mohla by být i nutná právní úprava o poznání jednoduší.

První část článku si můžete přečíst zde a druhou část zde.


[1] JANUŠ J., op. cit.

[2] Rozhovor s Karin Pomaizlovou, partnerkou mezinárodní advokátní kanceláře Taylor Wessing<https://www.hrtv.cz/videa/setkani-s-profesionaly-id-2114336/karin-pomaizlova-v-hr-tv-o-pravnich-aspektech- automatizace-a-id-2864847>

[3] JANUŠ, J., op. cit.

[4] Rozsudek NSS z 29. 11. 2006, sp. zn. 32 Odo 862/2005

[5] Tehdy platná úprava: § 384 odst. 1 zákona č. 513/1991, ObchZ; Nová úprava: § 2903 odst. 1 ObčZ

[6] Viz část 4.2. Internetoví boti a chatboti

[7] § 2936 a násl. ObčZ

[8] § 2927 a násl. ObčZ

[9] Stejné řešení ve svém článku nalézají i Mgr. Jana Pattynová, LLM. a Jiří Bosák PATTYNOVÁ, J., BOSÁK, J., Právní aspekty autonomních zařízení, PIERSTONE, EPRAVO.CZ Magazine, 4/2016, s. 158

[10] CONDLIFFE, J. 2021 May Be the Year of the Fully Autonomous Car, MIT Technology Review, August 17, 2016 <https://www.technologyreview.com/s/602196/2021-may-be-the-year-of-the-fully-autonomous-car/>

[11] VLADECK, D.C., op. cit.

[12] BEN-SHAHAR, O. Should Carmakers Be Liable When a Self-Driving Car Crashes? Forbes, September 22, 2016 <http://www.forbes.com/sites/omribenshahar/2016/09/22/should-carmakers-be-liable-when-a-self-driving-car- crashes/#c48b6a81f409>

[13] CHU, B. Wall Street 'Flash crash' explained: How 'the Hound of Hounslow' could have caused one of the scariest days in stock market history, Independent, 23 April 2015 <http://www.independent.co.uk/news/business/news/flash-crash-explainer-how-the-hound-of-houndslow-could-have-caused-one-of-the-scariest-days-in-stock-10198805.html>

[14] HILL, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did, Forbes, Feb 16, 2012 <http://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before- her-father-did/#4409fe7034c6>

[15] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016

[16] SCHERER, M. Tay the Racist Chatbot: Who is responsible when a machine learns to be evil?,, Future of Life, March 27, 2016 <https://futureoflife.org/2016/03/27/tay-the-racist-chatbot-who-is-responsible-when-a-machine-learns-to-be- evil/>

[17] MACH, J. Odpovědnost za škodu, Tempus Medicorum, duben 2015, s. 24

[18] SHAILIN, T. Artificial Intelligence and Medical Liability (Part II), Bill of Health, Harvard Law, February 10, 2017 <http://blogs.harvard.edu/billofhealth/2017/02/10/artificial-intelligence-and-medical-liability-part-ii/>

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články