Umělá inteligence a odpovědnost za škodu
Právě dnes začíná další ročník odborného kongresu Právní prostor, jemuž již tradičně předcházela studentská soutěž Ukaž svou kreativitu. Autorka na dnešním společenském večeru převezme cenu, vy si ale její vítězný příspevěk můžete přečíst již nyní.
Umělá inteligence a odpovědnost za škodu
Člověku náleží schopnost sbírat celý život zkušenosti a poučit se z nich. Dokáže sám vyvozovat závěry, trénovat a zlepšovat se. Ještě donedávna nás právě tyto schopnosti odlišovaly od strojů. Ovšem dnes a denně jsme svědky toho, že stroje mají mnohdy stejné (ne-li větší) kapacity jako lidé.
Pojem umělá inteligence se používá pro stroje, které vykazují inteligentní chování. Jako inteligentní je označováno takové chování, kdy subjekt dokáže především samostatně uvažovat, učit se, předpokládat a zpracovávat okolní informace. Některé stroje už nepotřebují instrukce od lidí, ale postačí jim informace z okolí, které sami získají a vyhodnotí. Pokud stroje mají jednat samostatně, je třeba uvažovat o odpovědnosti za škodu, kterou způsobí.
Nynější právní úprava trpí nedostatkem v oblasti odpovědnosti umělé inteligence. Úkolem práva je zajistit dosažení spravedlnosti ve všech ohledech, a tedy i s přihlédnutím k pokroku technologií. Povinnost nahradit škodu je upravena v části čtvrté zákona č. 89/2012 Sb., občanského zákoníku, ve znění pozdějších předpisů (dále jen „OZ“). Mezi předpoklady vzniku odpovědnosti za škodu patří zpravidla protiprávní jednání/škodná událost, škoda, příčinná souvislost a zavinění. V případě škody způsobené umělou inteligencí by mohlo činit problém zejména dokázat zavinění. Zaviněně nemůže jednat ten, kdo nemá deliktní způsobilost, tedy schopnost rozeznat či ovládat protiprávnost svého jednání. Umělá inteligence není subjektem práva a nelze ji tedy přičítat osobní odpovědnost za škodu. Stroje jsou věci a škoda způsobená věcí, je v OZ upravena následovně:
§ 2936
„Kdo je povinen někomu něco plnit a použije při tom vadnou věc, nahradí škodu způsobenou vadou věci.“
§ 2937
„Způsobí-li škodu věc sama od sebe, nahradí škodu ten, kdo nad věcí měl mít dohled; nelze-li takovou osobu jinak určit, platí, že jí je vlastník věci. Kdo prokáže, že náležitý dohled nezanedbal, zprostí se povinnosti k náhradě.“[1]
Tato ustanovení říkají, že škodu nahradí ten, kdo měl nad věcí dohled, jinak vlastník věci. Avšak není trochu unáhlené z odpovědnosti vyřadit například výrobce?
V současné době se výrobci zbavují své odpovědnosti tzv. prohlášením o zřeknutí se odpovědnosti (anglicky disclaimer). Znamená to, že při koupi stroje se výrobce zřekne odpovědnosti za škodu, kterou způsobí stroj, a tuto odpovědnost přebírá osoba, která bude mít stroj pod dohledem, eventuálně vlastník věci. Ostatně touto argumentací se bránila společnost Tesla při nedávné nehodě jejich inteligentního automobilu. Systém automobilu Tesla nedokázal udržet bezpečnou vzdálenost od kamiónu před ním a v plné rychlosti do něj narazil. Řidič byl na místě mrtvý. Společnost Tesla odmítla uznat vinu a ve svém oficiálním vyjádření uvedla, že i když automobil dokáže jet při ovládání samotným autopilotem, je stále povinností řidiče být ve střehu a tento systém korigovat.[2]
Tato nehoda nám ukázala, že stojí za to v oblasti umělé inteligence rozšířit právní úpravu. Výrobci by neměli mít možnost se zcela zbavit odpovědnosti, neboť jsou to právě oni, kdo čerpá z prodeje robotů obrovský zisk, a tak by měl být tento zisk „vykoupen“ jistou odpovědností.
Pokud považujeme umělou inteligenci za natolik inteligentní, stálo by za zvážení trestat přímo ji. V současné právní úpravě existují sankce pro právnické a fyzické osoby. Vzhledem k technologickému rozvoji by se mohl vytvořit i třetí druh osoby a to osoba elektronická. Stanovila by se jistá kritéria, po jejichž naplnění by stroj mohl být prohlášen za osobu elektronickou. Mezi tato kritéria by mohla patřit například schopnost učit se, samostatně uvažovat a bezchybně zpracovávat okolní informace. Mezi povinnosti elektronické osoby by pak patřila povinnost nahradit způsobenou škodu. Pokud však robot bude nositelem odpovědnosti, musí být také stanoven způsob, jak ho potrestat v případě, že odpovědnost poruší.
Nynější tresty v právní úpravě jsou velmi úzce stanoveny a apelují na vědomí člověka, roboti však vědomí nemají. Potrestáním robota nelze do budoucnosti předejít tomu, aby se robot vědomě vyhnul chybám.
Protože odpovědnost umělé inteligence zatím neexistuje, musíme hledat různé možnosti, kdo by mohl být za škodu způsobenou umělou inteligencí odpovědný. Podle principu absolutní odpovědnosti by měl být odpovědný výrobce. Je to především právě on, kdo může zamezit tomu, aby robot udělal chybu, a tedy tomu, aby vůbec nějaká škoda vytvořená činností robota vznikla.
Dále by celá problematika mohla být řešena elegantně nutností uzavřít pojistku na robota. Dle nynější úpravy je vlastník tuzemského vozidla povinen uzavřít pojistnou smlouvu o pojištění odpovědnosti za újmu způsobenou provozem vozidla, lidově řečeno povinné ručení na auto.[3] Pojistka na robota by mohla být řešena velmi podobně. V případě škody by pak její náhrada byla uhrazena pojišťovnami.
Zdá se, že nynější svět zatím není na odpovědnost umělé inteligence připraven. Nakonec až samotná praxe bude muset ukázat, které řešení je to nejlepší a nejspravedlivější.
Soutěžní příspěvek v soutěži Ukaž svou kreativitu VI, 1. místo.
[1] § 2936 a 2937 zákona č. 89/2012 Sb., občanského zákoníka, ve znění pozdějších předpisů. In: CODEXIS ACADEMIA [právní informační systém]. Atlas consulting, © 2017 [cit. 21. 3. 2017].
[2] Tesla Driver In First Self-Drive Fatal Crash. Sky News [online] Sky UK, © 2016 [cit. 21. 3. 2017] Dostupné z:http://news.sky.com/story/tesla-driver-in-first-self-drive-fatal-crash-10330121
[3] § 3 odst. 2 zákona č. 168/1999 Sb., o pojištění odpovědnosti za újmu způsobenou provozem vozidla, ve znění pozdějších předpisů. In: CODEXIS ACADEMIA [právní informační systém]. Atlas consulting, © 2017 [cit. 31. 3. 2017].
Další články
Kongres Právní prostor 2026: legislativní změny, AI a justiční blok
Kongres Právní prostor se dočkal již svého 14. ročníku. V Seči u Chrudimi se sešlo přes 150 účastníků a 16 přednášejících, aby se věnovali tématům, která aktuálně hýbou světem práva – od legislativních změn přes AI až po aktuální otázky justice.
Kdo s koho: procesněprávní ochrana zaměstnanců ve světle zákona o státních zaměstnancích
Debata o převedení právní úpravy státních zaměstnanců do režimu zákoníku práce otevírá zásadní otázku: nezhorší se tím jejich ochrana?
Automatizovaná vozidla ve světle pravidel silničního provozu
Příspěvek reaguje na nová pravidla silničního provozu týkající se provozu automatizovaných vozidel. Ačkoliv se daná pravidla mohou jevit dostatečně srozumitelná a jasná, tak jejich aplikace v (administrativní) praxi může činit nejeden problém.
Vidět neznamená věřit - deepfake jako výzva pro právo
Co když to, co vidíme, nikdy nebyla pravda? Před několika lety jsme věřili, že obraz nelže. „Vidět znamená věřit.“ Dnes už si tím nemůžeme být tak jisti. Audiovizuální záznam byl dlouho považován za téměř nezpochybnitelné zachycení reality. V posledních letech, kdy se umělá inteligence stala běžnou součástí života, se rozvinula deepfake technologie, která tuto představu zpochybňuje.
SVJ: Když všichni mají problém, ale nikdo nechce převzít zodpovědnost
Správa společenství vlastníků jednotek (SVJ) je v praxi často spojena s nedostatkem ochotných kandidátů do statutárních orgánů. Jaké jsou důvody tohoto nezájmu, právní rámec fungování výboru či předsedy i možné způsoby řešení situace, kdy tyto funkce zůstávají neobsazené?



