Trestní právo | JUDr. Tomáš Sokol & al | 26.09.2018 Také v kategorii:
Právo IT

Trestněprávní aspekty robotiky - část I. Zdroj: Fotolia

Trestněprávní aspekty robotiky - část I.

Zatímco občanskoprávní aspekty robotiky jsou již delší dobu předmětem ne vždy realistické diskuse na mezinárodních fórech, problematika trestněprávní odpovědnosti za jednání robotů zůstává poněkud opomíjena. Úměrně s tím, jak poroste autonomie robotů, bude stále obtížnější zjistit, kdo je odpovědný za určité protiprávní jednání, resp. za škodu způsobenou robotem, případně, zda se může z trestní odpovědnosti vyvinit.

JUDr. Tomáš Sokol

JUDr. Tomáš Sokol

AK Brož & Sokol & Novák

JUDr. Tomáš Sokol

AK Brož & Sokol & Novák

Prof. Ing. Vladimír Smejkal CSc.  LL.M.

Prof. Ing. Vladimír Smejkal, CSc., LL.M.

Prof. Ing. Vladimír Smejkal, CSc., LL.M.

I. Úvod

Působení stroje jako hlavní nebo jediná fyzická příčina protiprávního následku je zcela běžným jevem. Při zvažování možné právní odpovědnosti za protiprávní následek, který svou činností vyvolal stroj, je neméně běžně posuzován vztah toho, co se stalo, a povinnosti majitele stroje či jeho obsluhy. Jedná se o to, zda tento porušil své povinnosti a v příčinné souvislosti s tím došlo k protiprávnímu následku. Případně, zda je tento následek zapříčiněn nepředvídanými okolnostmi, obecně zvanými náhoda či nešťastná náhoda, neprávnicky též Černá labuť. Přitom ale doposud vždy šlo pouze o posuzování mechanických dějů, příčinné souvislosti mezi jednáním obsluhy a více či méně složitou reakcí, která vedla k nehodovému ději, průmyslové havárii atd.

V souvislosti s robotizací se ale čím dál více objevuje zcela nový fenomén, kterým je cosi jako vlastní vůle, vlastní iniciativa, vlastní rozhodování robotických mechanismů, které opouštějí po staletí vyhražené postavení nemyslících, více či méně sofistikovaných mechanismů, plně podléhajících vůli a řídícím pokynům člověka. Někteří roboti[1] se ocitají v nové roli čehosi, co by se snad nejlépe dalo pro začátek nazvat samostatně jednajícím strojem (autonomním mechanismem). V Evropském parlamentu byla dokonce přijata rezoluce požadující pro roboty zvláštní právní statut „elektronické osoby“.[2] Tento nápad ponecháme bez komentáře, nicméně je patrno, že takový nový aspekt se nepochybně promítne i do práva; proto jsme se zaměřili na eventuální trestní odpovědnost za protiprávní následky jednání robotů.

II. Pojem „robot“ a jejich kategorie

1. Definice robota

Technická podstata robota se vyvíjí neustále směrem od jednoduchých manipulátorů až k autonomním mechanismům (viz níže). Původně byl robot vnímán jako „reprogramovatelný multifunkční manipulátor určený k přesunu materiálu, dílů, nástrojů nebo specializované zařízení pro plnění různých úkolů pomocí různých naprogramovaných pohybů“.[3]

Novější definice dle normy ČSN ISO 8373:1994 Roboty a robotická zařízení – Slovník konstatuje, že robot vykazuje určitý stupeň autonomie (schopnost provádět zamýšlené úkoly na základě aktuálního stavu a údajů ze snímačů bez lidského zásahu), ve svém prostředí se pohybuje a provádí zamýšlené úkoly, přičemž obsahuje řídící systém a rozhraní řídícího systému.[4]

Jednání robota musí mít přímou nebo nepřímou odezvu ve fyzickém světě (nemusí to být přímo mechanickou manipulací, ale i předáním povelu jinému systému, který má interface do fyzického světa – např. ovládání vodovodní sítě nebo řízení silničního provozu). Roboti výlučně softwaroví budou zde chápáni a zařazeni mezi počítačové programy a nejsou předmětem tohoto článku.

Robot se tedy liší od informačních systémů schopností bezprostředně fyzicky působit na své okolí.[5] Dlouhou dobu byl pojem robot (mimo roboty domácí) převážně chápán jako tzv. průmyslový robot, jakkoliv se může jevit slovo „průmyslový“ nyní příliš omezující s tím, jak roboti pronikají i do výrazně „neprůmyslových“ oblastí – např. lékařství.

Roboti mohou být zcela nebo částečně autonomní nebo mohou být vzdáleně řízeni (programem a/nebo člověkem), namnoze asi obojím v nějaké předvídané součinnosti. Míra autonomie robota je zatím určována člověkem, který stanoví jejich součinnost, a to buď a priori na úrovni nějakého předpisu, nebo za konkrétní situace ovládající osobou. Příkladem může být autopilot v letadle, kterému po nastavení určitých podmínek předá pilot řízení, nicméně může buď do práce tohoto robota kdykoliv zasáhnout – opravit jeho řízení, nebo jej zcela vypnout. Přitom ovšem podmínky, za nichž může svěřit pilotování tomuto zařízení, vyplývají z leteckých předpisů, předpisů výrobce letadla a konkrétních podmínek letu.

Zvláštní kategorii robotů budou pak představovat roboti armádní – robotizovaná dálkově řízená špionážní, průzkumná i bojová bezpilotní letadla a bezobslužná bojová vozidla vybavená případně automatickými zbraněmi nebo raketami. Zatím jsou dálkově ovládány operátory, nicméně je třeba počítat s tím, že míra jejich autonomie se bude zvyšovat, jakkoliv zřejmě nikoliv k úplné samostatnosti. Toto je v současné době předmětem diskuse v souvislosti s tzv. „smrtícími autonomními zbrojními systémy“ (Lethal Autonomous Weapon Systems – LAWS). Autonomní znamená, že roboti vykonávají své úkoly nezávisle a bez lidského zásahu a provádějí smysluplná rozhodnutí i v měnícím se prostředí.[6]

2. Generace robotů

Roboty je možno rozdělit do pěti generací:

do nulté generace jsou zařazeny manipulátory a roboti zpravidla bez zpětné vazby, kdy veškeré poruchy či změny ve sledované oblasti (signalizované čidly) vedou k nedovolení dalšího kroku, zastavení systému (tzv. „central stop“) a přivolání údržbáře;

do první generace zařazujeme roboty s jednoduchou zpětnou vazbou, schopné přepínání několika podprogramů (předem vytvořených člověkem) a práce podle nich;

ve druhé generaci jsou roboti se schopností optimalizace, tj. schopností vybírat z předem zadaných programů optimální, a to podle zadaného kritéria;

třetí generace je charakterizována roboty, jež jsou schopni samostatné tvorby programu, neboť se dokáží učit z nabytých zkušeností Zde se předem zadává pouze cíl činnosti (úkol), přičemž způsob jeho splnění je ponechán na inteligenci řídícího systému, který si sám vytvoří program;

čtvrtá generace je reprezentována autonomními roboty se sociálním chováním, kteří se chovají podobně jako člověk, tedy samostatně si volí i cíl práce.[7]

Počínaje třetí generací bude zřejmě problémem již stanovení příčiny nežádoucího jednání. A o to těžší bude eventuální hledání právní odpovědnosti.

Pro analýzu odpovědnosti za jednání robotů, a to nejen z hlediska trestního práva, budou zřejmě nejdůležitější vlastnosti robotů třetí a zejména pak čtvrté generace, pro které se používají různé termíny jako inteligentní robot, autonomní robot nebo zcela obecně autonomní mechanismus. Právní definice těchto pojmů zatím příliš neexistují. V dokumentu „Občanskoprávní pravidla pro robotiku“[8] Evropský parlament vyzývá Komisi, aby navrhla jednotné unijní definice kyberneticko-fyzikálních systémů, autonomních systémů, inteligentních autonomních robotů a jejich podkategorií, přičemž aby vzala v úvahu níže uvedené vlastnosti, jimiž se vyznačuje „inteligentní robot“.[9]

Více či méně inteligentní roboti se stávají užitečnými autonomními elementy složitých průmyslových výrobních úseků. Jejich schopnosti samostatně se rozhodovat, vybírat si nejvhodnější úlohy atd. porostou, zvyšovat se bude jejich samostatné uvažování.[10] Existují znepokojivé prognózy, které říkají, že v r. 2029 umělá inteligence dosáhne lidských schopností a v r. 2045 nastane singularita, splynutí se stroji bude postupné.[11] Často se diskutuje o tom, zda nás jednou roboti úplně neovládnou tak, že ztratíme nad nimi kontrolu, tedy že dojde k tzv. Kurzweilově singularitě, jejíž dosažení Kurzweil odhadoval na r. 2045.[12] Podobné katastrofické předpovědi uveřejňují i uznávané osobnosti jako Steven Hawking, Bill Gates nebo Elon Musk. V lednu 2015 podepsali společně s dalšími odborníky z oblasti umělé inteligence otevřený dopis o umělé inteligenci, vyzývající k výzkumu sociálních dopadů AI, jak předcházet některým možným „úskalím“ umělé inteligence, která podle nich má potenciál vymýtit nemoc a chudobu, ale vědci nesmí vytvářet něco, co nelze ovládat. Otevřený dopis s názvem „Priority výzkumu pro robustní a užitečnou umělou inteligenci“ uvádí v doprovodném dokumentu o 12 stranách podrobné výzkumné priority.[13]

Řada autorů trvá na tom, že vývoj bude mít lidstvo stále pod kontrolou. Roboti však zatím nemají vědomí a schopnost sebeuvědomění jako nezbytnou podmínku pro převzetí moci, proto se odhadovaná doba dosažení singularity s tím, jak se k r. 2045 časově přibližujeme, v odborných pracích stále oddaluje.[14] Je též otázkou, zda k sebeuvědomění robotů vůbec někdy dojde, protože nezbytnou podmínkou jsou jednak přirozené emoce strojů, jednak jejich schopnost uvědomovat si svoje postavení v modelech světa, komunikovat na základě těchto modelů s jinými roboty v komunitě a zejména plánovat činnost k jistému cíli, který si sami vytyčí.[15] Pokud člověk robotům neumožní, aby si sami stanovovali cíl, eventuálně podrží svoji ruku na vypínači energie, je velká naděje, že k singularitě vůbec nedojde.[16]

3. Samořídící automobily

Jednou z nejviditelnějších oblastí semiautonomních robotů jsou, kromě autopilotů, tzv. samořídící auta. Čím více bude rozhodování svěřeno řídícímu systému robota, tím více nás bude zajímat:

a)

nastavení rozhodovacích algoritmů tak, aby nedošlo k negativnímu dopadu jejich činnosti či jejich selhání na život, zdraví či majetek (s přihlédnutím k rozhodovacímu problému minimalizace těchto následků). Podle našeho názoru je (zatím) správným řešením takové, aby priority byly nastaveny stejně jako v případě lidského řidiče; to se ale může změnit, zejména při kooperativní strategii, přičemž v této souvislosti je třeba zmínit princip krajní nouze (k obojímu viz níže);

b)

možnost řidiče, aby kdykoliv mohl převzít ovládání vozidla, podobně jako může pilot vypnout nebo „přetlačit“ autopilota;

c)

stupeň ochrany řídícího systému před negativními vlivy okolí, a to úmyslnými (hacking) nebo neúmyslnými (elektromagnetické rušení), ale lze uvažovat i o mechanických vlivech (pocházejících z prostředí, v němž se vozidlo pohybuje) i mechanických zásazích (třetí osobou), a to počínaje servisními zásahy nebo útokem na vozidlo jako věc movitou, s nimiž by se měl umět řídící systém také vypořádat – přinejmenším včasným varováním;

d)

samodokumentační schopnosti, tj. vytváření auditní stopy provozu vozidla (podobně jako existují tzv. „černé skříňky“ v letadlech).

V dalším vývoji lze očekávat kooperativní strategii uplatňovanou jednotlivými autonomně řízenými vozidly mezi sebou – tzv. „kooperativní řízení“ (cooperative driving). Zlepšování informovanosti každého účastníka silničního provozu bude realizováno prostřednictvím komunikace vozidlo-vozidlo (V2V, Vehicle-to-Vehicle) a komunikace vozidlo-dopravní infrastruktura v reálném čase. Tím se stane v podstatě jakákoliv aktivní účast řidiče nejen zbytečná, ale nežádoucí. Jde o to, že kooperace mezi vozidly, resp. mezi vozidly a jejich okolím může vést až k takovému objemu informací, s nimiž řidič nebude schopen pracovat v reálném čase nebo vůbec. Automatizace řízení bude proto efektivní tam, kde už by řidič nebyl schopen dodané množství informací v potřebném časovém rozsahu zpracovat a nepostačovalo by už ani to, aby se řídil doporučeními. Tedy bude de facto (nikoliv de iure) zbytečný a použitelný maximálně pro to, aby např. v případě, kdy se kooperující síť zhroutí (třeba v důsledku výboje blesku), byl schopen se vrátit do původního, méně komplexního modu a převzít řízení.

III. Odpovědnost za činnost robotů

1. Nový rozměr odpovědnostních vztahů

Již ze stručného výčtu kategorií robotů výše a z faktu, že půjde o stroje namnoze disponující značným potenciálem způsobit svým provozem nežádoucí následky, je zřejmé, že v budoucnu bude vznikat celá řada právních problémů z uvedeného plynoucích. Jedním ze zdrojů problémů a otázek je civilní či občanskoprávní odpovědnost za škodu způsobenou provozem robotů. A samozřejmě stejně zákonitě předpokladatelné bude i hledání případné odpovědnosti za protiprávní následek, představující porušení zájmu chráněného trestním právem anebo právem přestupkovým. Lze také předpokládat, že odpovědnostní vztah založený nechtěnými, a tedy právem neaprobovanými důsledky provozu robotů bude v mnoha směrech co do své podstaty a konečných závěrů identický odpovědnosti za provoz jiných strojů či mechanismů, lhostejno zda jde o provoz dopravního letadla anebo míchačky na beton. Rozdíl, a podle našeho názoru možná velmi dramatický, bude ale v posuzování objektivní stránky eventuálního trestného činu, konkrétně jednání a příčinné souvislosti, když následek zřejmě bude patrný a bude tím, co jakékoliv analýzy bude v praxi iniciovat.

Nový rozměr odpovědnostních vztahů bude dán tím, že snad u všech doposud používaných strojů a zařízení je z hlediska případné odpovědnosti relativně jednoduchá linie jednání a následku. Ať již jde o konstrukci a výrobu těchto strojů, na jejímž začátku je projekt s prakticky vždy verifikovatelnými parametry, a tedy s relativně jednoduchou možností následného prověření, zda nějaká významná skutečnost nebyla při projektování opomenuta. Totéž platí o výrobním procesu, u kterého, vyjdeme-li z premisy, že projekt neměl podstatnou vadu, jde o zjištění, zda byl respektován anebo z nějakého důvodu došlo k odchylce, která mohla či nemusela být v příčinné souvislosti s následným protiprávním následkem. Další fází je samotné užití konečného produktu, které tam, kde jde o složitější výrobek s relativně větším škodním potenciálem, je regulováno právními předpisy. Typicky pokud jde o dopravní prostředky všeho druhu, kde právní předpisy výslovně stanoví způsob jejich provozování na veřejných komunikacích. U jiných je upravena jen odpovědnost za protiprávní následek, např. v případě odpovědnosti za škodu způsobenou provozní činností (§ 2924 ObčZ). Kromě toho existuje řada technických předpisů a technických norem upravujících vlastnosti výrobků. Zde již ovšem bude k diskusi otázka aplikace takových předpisů či norem na straně jedné, nebo naopak jejich neexistence, přestože by z hlediska prevenční povinnosti to bylo namístě.

U robotů třetí a zejména čtvrté generace bude právě velmi důležitá úprava jejich užívání a všeho, co s tím souvisí, včetně případné odpovědnosti za škodu či újmu, která v důsledku selhání robota vznikne. V případě následku, který je v rozporu s účelem a smyslem stroje či zařízení, lze relativně jednoduše analyzovat jednání a jeho soulad s právem, případné zavinění, jako subjektivní stránku možného trestného činu, a samozřejmě i příčinný vztah mezi tímto jednáním a následkem.

V případě dopravní nehody lze logicky předpokládat námitku řidiče motorového vozidla, který bude podezřelý z toho, že svojí nedbalostí nehodu zavinil, že jeho jednání není v příčinné souvislosti se vzniklým následkem, neboť se spoléhal na automatizovaný systém, který z nějakého důvodu selhal. V současné době asi neobstojí obhajoba, podle níž se řidič na takovýto systém spoléhal plně a nevěnoval pozornost řízení motorového vozidla, což fakticky bylo příčinou dopravní nehody. Nicméně námitka, že se řidič naopak plně věnoval řízení, avšak brzdit začal ve chvíli, kdy zjistil, že jinak fungující automatický systém regulace odstupu od vpředu jedoucího vozidla selhal a on již po tomto zjištění s ohledem na krátkou vzdálenost nedokázal vozidlo ubrzdit, může právní relevanci mít.

Tím spíše to pak bude platit v případech, kdy již je zcela legálně přenechána „vláda“ nad určitou provozní činností robotům. Podobné to je či může být v případě plně automatizovaných výrobních linek na straně jedné, ale dost možná i např. u provozu kosmických stanic na straně druhé. Byť v tomto druhém případě si protiprávní následek asi lze zatím představovat jen poněkud obtížně. Ale zdůrazněme slovo „zatím“. Přitom do budoucna jsou zřetelně projektovány robotizované provozy, kde se s bezprostřední fyzickou kontrolou v zásadě nepočítá anebo spíše jen jako s korektivem, který má zabránit rozsáhlejším důsledkům selhání robota. Jako příklad si lze představit operační roboty, u nichž i jen vteřinové selhání může vést k větším či menším poškozením operovaného, a bude jen na obsluze tohoto robota, zda zabrání ještě horším důsledkům. Zcela zjevně se zde tedy objevují náznaky nových faktorů, které lze označit jako „bezprostřední kontrola provozu robota“ či „kontrola následků vzniklých provozem robota“. To je de facto připuštění toho, že samotný škodlivý následek provozu robota nebude v příčinné souvislosti s jednáním žádné fyzické osoby, neboť došlo k nepředvídanému či nepředvídatelnému selhání robota, ať již jde o jeho software nebo hardware. Roli ale bude hrát, do jaké míry byla činnost robota kontrolována z hlediska zabránění většího rozsahu tohoto selhání.

Současně se ovšem zcela zákonitě bude nabízet otázka, do jaké míry mohlo být toto selhání předvídáno při konstrukci robota a zda v této fázi nebo snad ve fázi výroby nedošlo k jednání, které by bylo možné dát do příčinné souvislosti s následkem a posléze zvažovat zavinění, resp. naplnění skutkové podstaty určitého trestného činu. Tím se otevře značný prostor pro technicko-právní analýzy toho, co se při konstrukci a programování robota dalo předpokládat jako možné selhání, čemu se v rámci tohoto předpokladu dalo zabránit vhodnými úpravami a co je v kategorii náhody či tzv. vis maior.

A to vše stále ještě v rámci úvahy o provozu robotů určených pro tzv. mírové účely. Naprosto samostatnou kapitolou pak budou různé roboty či robotické systémy využívané pro vojenské účely, a to nikoliv pouze k podpůrné činnosti (např. pyrotechnické roboty, nosiče břemen atd.), ale systémy, které budou buď zcela explicitně, tedy přímo anebo nepřímo, konstruovány za účelem likvidace živé síly nebo materiálního vybavení nepřítele, jak již bylo konstatováno výše. Jen na okraj je třeba v této souvislosti podotknout, že principiálně také nejde o nic zcela nového. V literatuře jsou popsány případy, kdy sice nikoliv robotický, ale přístrojový systém např. signalizoval letecký atak ze strany nepřátelského státu, na který striktně vzato mělo být reagováno protiútokem, dokonce snad s využitím zbraní s nukleární hlavicí. Přitom základní signalizace byla důsledkem přístrojové chyby, ovšem následkem nekritické víry v takto dodávané údaje mohl být nukleární konflikt se všemi představitelnými a dost možná i nepředstavitelnými důsledky.[17]

2. Deliktní odpovědnost v robotice

Zřejmě ani existence a posléze hromadné užívání robotů třetí, čtvrté, případně snad i nějaké vyšší generace nezmění nic na základním paradigmatu, podle něhož je-li základní či jedinou příčinou újmy selhání stroje, je z trestněprávního hlediska důležité, zda jde o selhání zaviněné či nezaviněné. Jak známo, civilní právo zná i objektivní odpovědnost za následek, tu ale nezkoumáme. Zkoumáme, co lze případně ještě označit za zavinění ve smyslu § 15–19 TrZ, tj. kdy půjde o zavinění, a kdy o událost, která nebyla zaviněna jednáním fyzické či právnické osoby. Např. zda jde o nezaviněné selhání či havárii, obecně coby důsledek náhody, resp. i nešťastné náhody. Toto bipolární schéma – zavinění vs. náhoda, jistě platí i u robotů, pokud problém zjednodušíme a neuvažujeme o jednání trestně neodpovědných osob, jakož i o jednání za okolností vylučujících trestní odpovědnost, např. stav přípustného rizika (viz dále). Problém je ale s rozlišením, které je či spíše bude velice obtížné tam, kde robot má značnou autonomii jednání a nadto se i samoprogramuje – učí.

Odpovědnost za způsobení protiprávního následku činností robotů je tématem této kapitoly. Je možné si zrekapitulovat tři skupiny, do nichž lze roboty rozdělit:

a)

Nepochybně již dlouhá léta fungují roboti či robotické systémy, které v takříkajíc konstantních vnějších podmínkách vykonávají stále stejné opakující se operace. Typicky roboti ve výrobní lince, ale také automatizované dopravní systémy. Ty jsou za situace, zjednodušeně řečeno, když někdo přímo nevstoupí do jejich operačního pole, z hlediska níže uvedené úvahy prakticky neškodné. Dokonce namnoze mají i čidla a další vybavení včetně SW pro případ, že jim do té dráhy někdo vstoupí.

b)

Pak jsou ale roboti pohybliví (servisní), kteří pracují v prostředí s proměnlivými až velmi proměnlivými vnějšími okolnostmi. Mezi tyto okolnosti patří i možnost kolize s někým jiným, ať již s člověkem nebo jiným robotem, či jinou věcí movitou či nemovitou. Typická jsou či v nejbližší budoucnosti budou roboticky řízená auta. Nicméně jde o roboty, kteří mají sice možná rozsáhlou, ale předem definovanou, a tedy i předvídatelnou škálu reakcí a postupů. Jinak řečeno, vše, co umí, do nich vložil člověk prostřednictvím programu.

c)

Autonomní systémy, učící se roboti, inteligentní roboti, hybridní roboti apod. jsou složitá zařízení, někdy v kombinaci „živého“ (biologické struktury) a “neživého“, jejichž reakce a postupy již tak předvídatelné nejsou, protože se v nějaké míře, větší či menší, programují sami v rámci oné sebeedukace, případně přejímají vzory jednání člověka. S pokračující mírou autonomie ale stále méně víme, resp. jsme schopni zjistit, co se v “mozku“ takového zařízení odehrává, či odehrálo před určitým incidentem.

Limitem trestní odpovědnosti, ostatně stejně pro všechny tři kategorie, je § 16 písm. b) TrZ. Vyloučime-li úmysl, nedbalost hrubou a vědomou, je v případě strojů zařaditelných do kategorie a) relativně snadné určit, co měl ten, kdo robota provozuje, vědět, ač tvrdí, že to nevěděl. Je to dáno relativně snadnou předvídatelností toho, co lze od robota očekávat.

U kategorie sub b) už je situace složitější. Zde už může být problém dovodit, co provozovatel robota měl vědět, aby bylo možné posuzovat jeho jednání jako zavinění ve formě vědomé nedbalosti. Tedy do jaké míry např. může již zmiňovaný řidič spoléhat na to, že systém ovládaný aktivním radarem zabrzdí jeho auto před překážkou, když to dělá běžně a toto je jasně deklarováno i v návodu. A dokonce je auto vybaveno signalizací poruchy daného systému. Je spoléhání na tento systém přiměřeným důvodem nemít nohu na brzdě, když se auto blíží k překážce? Anebo – což je ještě fatálnější – když náhle někdo vstoupí do vozovky?

Ještě větší problémy přinese užívání prakticky zcela autonomních robotů, kteří jsou zmíněni v kategorii sub c). U této skupiny bude zřejmě problém prokazovat i úmysl. Pokud např. „myslící“ robot sestrojí jiného robota, který místo toho, aby zvedal břemena, k nimž dojde, a nakládal je na dopravník, který je odváží do drtičky, naloží na dopravník obsluhu, bude především zjišťována technická příčina selhání robota. Paralelně ale bude nutno se zabývat i tím, stejně jako v případě jakékoliv jiné průmyslové havárie, zda provozovatel, případně výrobce (původního robota) udělali vše, aby k takovému selhání nedošlo. Aby např. „myslící“ robot nevyrobil místo funkčního robota zmetek. Což ovšem zase znamená zjistit, co onen „myslící“ robot vlastně vyrobil a hlavně proč.

Hovořit o odpovědnosti lze obecně ve dvojím smyslu: jednak o odpovědnosti dle občanského zákoníku, jednak dle trestního zákoníku, přičemž by se ještě dala uvést kategorie odpovědnosti za přestupky a správní delikty související s roboty. Z hlediska trestní odpovědnosti tedy bude třeba úmyslného zavinění, nestanoví-li trestní zákon výslovně, že postačí zavinění z nedbalosti (§ 13 odst. 2 TrZ), tedy ve smyslu § 16 TrZ. V případě úmyslu hovoříme o úmyslu přímém [§ 15 odst. 1 písm. a) TrZ] a úmyslu eventuálním [§ 15 odst. 1 písm. b) TrZ], přičemž pachatel si je vědom toho, že svým činem může způsobit protiprávní následek, nebo je s tím srozuměn [§ 15 odst. 2 TrZ].[18]

Příkladem může být činnost robota, který v důsledku selhání poškodí cizí majetek, chráněný zvláštním zákonem. Typicky půjde o činnost stavebního robota, který poškodí obecně prospěšné zařízení, např. síť elektrické energie. Pak proti odpovědné osobě může být vedeno správní řízení pro spáchání přestupku podle energetického zákona, ale při vyšší intenzitě následků a hrubé nedbalosti[19] může být stíhán pro trestný čin poškození a ohrožení provozu obecně prospěšného zařízení z nedbalosti (§ 277 TrZ). Není tím přitom dotčena občanskoprávní odpovědnost za způsobenou škodu, přičemž v daném případě by se zřejmě jednalo o odpovědnost za škodu způsobenou provozní činností podle § 2924 ObčZ. K diskusi dokonce může být, zda se v případě používání (určitých) robotů nejedná o zařízení zvláště nebezpečné podle § 2925 ObčZ. To je ale již oblast práva, které se věnují jiné publikace.[20]

Významné bude, zda potenciálnímu pachateli byla pro provozování robota uložena zákonem nebo případně podzákonným či dokonce interním předpisem povinnost určitého chování. V souvislosti s roboty to mohou být zcela obecně předpisy, jako je třeba zákoník práce v oblasti týkající se bezpečnosti a ochrany zdraví při práci, nebo ochrany obecně prospěšných zařízení,[21] stejně jako nařízení EU o zdravotnických prostředcích.[22] A zda dotyčná osoba úmyslně či z nedbalosti jednala v rozporu se svými povinnostmi, což může být kvalifikováno jako úmysl, nedbalost anebo opomenutí. V této souvislosti se jako relevantní jeví rozhodnutí Nejvyššího soudu týkající se opomenutí.[23]

Proti tomu stojí hledisko přiměřeného či přípustného rizika. Ani v běžném životě se nemůžeme vyhnout situacím, kdy vznik jakékoliv škody není zcela vyloučen. V každém konkrétním případě se proto z tohoto hlediska musí zkoumat, jak dalece bylo možné vznik škodlivého následku vůbec předvídat a jaká dostupná opatření byla nebo mohla být provedena, aby případný škodlivý následek byl minimalizován.[24] Jak uvádí Pavel Šámal a kol.: „Vývoj společenského poznání, zejména v oblasti výzkumu, výroby, lékařství aj. si začasté vyžaduje provedení experimentu, jehož výsledek nelze předem jednoznačně určit (protože zde působí dosud neznámé a neověřené vlivy, souvislosti a zákonitosti) a který je spojen s nebezpečím pro život či zdraví lidí nebo pro majetek (např. zkušební lety nových letadel, testování nových léků a léčebných postupů aj.). Bez rizika (nejistoty výsledku) často není možné poznat dosud nepoznané, není možný vědeckotechnický pokrok. Jestliže právní řád aprobuje vývoj vědy, výzkumu, technologie, zdravotnictví apod., musí tolerovat i určitá přiměřená rizika (ve výrobě, ve výzkumu, ve zdravotnictví, v obchodě apod.), která jsou s touto dovolenou, prospěšnou i žádoucí činností spojena.“[25]

Další zdroj pro vymezení požadavků na konstruktéry a výrobce stále dokonalejších robotů bychom mohli nalézt také v § 31 odst. 2 TrZ.

Budeme tedy vycházet z výše uvedeného a chápat robota jako systém sestávající kromě ryze mechanických součástek, které umožňují něco konat, především z počítačového hardware a software, který sice není v biologickém smyslu živý, ale má schopnost samostatného učení na základě zkušeností a interakce, je autonomní díky senzorům nebo výměně dat s okolním prostředím a má schopnost přizpůsobit své jednání a svou činnost okolnímu prostředí. Jinými slovy, jednání robota navenek je dané dílem primárním vnitřním nastavením (původním programem, vytvořeným člověkem) a dílem následným přetvářením tohoto programu robotem, které může spočívat v různých krocích: parametrizaci, vytváření databáze vzorů (modelů, heuristik), ale na vyšší úrovni přetvářením výchozí neuronové sítě na základě výše uvedených interakcí s okolím, tedy tím, co se nejvíce blíží lidskému pojmu „učení“.

Jak vyplývá z výše uváděného příkladu nehody automobilu, který je vybaven automatem umožňujícím částečně nebo snad i zcela jeho samořízení, dalším problémem, na který bude v této oblasti narážet právo, a tedy i právo trestní, bude určení příčinné souvislosti mezi následkem a jednáním člověka. Zjistit příčinnou souvislost mezi činností robota a protiprávním následkem asi většinově nebude obtížné. Byť už nyní se ukazuje, že ne vždy. Typicky v případech leteckých havárií je známa obtížnost zjišťování, co bylo její příčinou a zda případně nešlo o selhání automatických systémů.

Mimořádně obtížné ale může být hledání příčinné souvislosti mezi selháním robota a jednáním těch, kteří ho vyrobili a naprogramovali. A teprve poté, kdy tato příčinná souvislost bude spolehlivě zjištěna (prokázána), lze se zabývat i případným zaviněním fyzické nebo právnické osoby z hlediska její případné trestněprávní odpovědnosti.

3. Zavinění z nedbalosti v robotice

Lze se domnívat, že v oblasti robotiky budou převažovat trestné činy nedbalostní, jakkoliv i “přeprogramování“ robota na „vraha“ nelze vyloučit. V případě nedbalostních trestných činů je třeba rozlišit dva základní okruhy pachatelů. První skupinu tvoří pachatelé, kteří věděli, že svým jednáním (opomenutím) mohou způsobit škodlivý následek, ale bez přiměřených důvodů spoléhali, že tento následek nezpůsobí [§ 16 odst. 1 písm. a) TrZ]. Druhou skupinou jsou pachatelé, kteří nevěděli, že svým jednáním (nejednáním) mohou způsobit škodlivý následek, přičemž podmínkou trestnosti je v tomto případě skutečnost, že vzhledem k okolnostem a ke svým osobním poměrům (především vzdělání, povolání, zastávané funkci apod.) to vědět měli nebo mohli [§ 16 odst. 1 písm. b) TrZ]. Protože touha pachatelů po rychlém zbohatnutí je neutuchající, lze si i v souvislosti s roboty představit spáchání trestného činu z hrubé nedbalosti; nastane, jestliže přístup pachatele k požadavku náležité opatrnosti svědčí o jeho zřejmé bezohlednosti k zájmům chráněným trestním zákonem (§ 16 odst. 2 TrZ). Při neexistenci složky volní (u nedbalostních trestných činů) zákon vymezuje nedbalostní zavinění pomocí složky intelektuální. Při vědomé nedbalosti pachatel o možnosti způsobení relevantního trestněprávního následku ví, při nevědomé nedbalosti o této možnosti ani neví.[26]

Výše uvedený příklad použití robota při stavebních pracích by mohl být posuzován odlišně v případě, že o použití robota na konkrétním místě a konkrétním způsobem rozhodne kvalifikovaný odborník na robotické práce nebo stavbyvedoucí, který měl být proškolen, jak s robotem nakládat. Pak bude třeba posuzovat, zda ve druhém případě měl stavbyvedoucí takové informace, aby – slovy § 16 odst. 1 písm. b) TrZ – mohl předpokládat, že v blízkosti vedení vysokého napětí se robot vymkne z rukou a zamíří k nejbližšímu stožáru, kde způsobí škodu – např. na stožáru samém či na elektrickém vedení, přeruší dodávku elektrické energie zkratem apod.

Kritériem nedbalosti je zachování potřebné míry opatrnosti, která může být obecná (požadovaná u každé osoby), nebo zvláštní, vyšší (např. u výkonu určitých činností či povolání).[27]

Jak vidíme, objevuje se zde pojem „potřebná míra opatrnosti“. Jde o tzv. neurčitý právní pojem,[28] tudíž bude poměrně široká variabilita možného výkladu. Stanovení požadované (minimální) míry opatrnosti můžeme hledat ve zvláštních předpisech, technických předpisech[29] či technických normách,[30] nebo v obecně uznávaných pravidlech, která vyplývají z úrovně poznání v určitém oboru. Odkázat lze také na rozhodnutí Nejvyššího soudu pojednávající o přiměřené opatrnosti.[31]

Z výše uvedeného vyplývá, že se blížíme k něčemu podobnému, co je v zákoně o vynálezech a zlepšovacích návrzích definováno jako tzv. stav techniky. Podle § 5 odst. 2 tohoto zákona je to vše, k čemu byl přede dnem, od něhož přísluší přihlašovateli právo přednosti, umožněn přístup veřejnosti písemně, ústně, využíváním nebo jiným způsobem. Pokud dojde k protiprávnímu jednání robota v důsledku toho, že nebyl zhotoven podle poznatků vyplývajících ze stavu techniky, jde o podobnou situaci jako při postupu lékaře non lege artis.

Pokračování článku naleznete zde.


[1] Podle vyjádření Ústavu pro jazyk český AV ČR „Výraz robot, vytvořený Karlem Čapkem, ve svém původním významu označoval umělého člověka, a proto byl zařazen ke jménům rodu mužského životného. Postupně se jeho význam začal rozšiřovat, a protože ve svém původním významu byl hodnocen jako jméno životné, v nových významech životnost byla zachována, ale zároveň se připustila možnost užití tohoto slova jako jména neživotného. Slovo robot lze z jazykového hlediska užít vždy jako jméno rodu mužského životného, tedy bez ohledu na to, co označuje. V textech pojednávajících o robotech různých generací, tedy od přístrojů/strojů, které nejsou člověku vůbec podobné, až po ty, které ano, doporučujeme zvolit jednu životnost.“ Vzhledem k tomu, že se náš text netýká ve svém meritu robotů kuchyňských a jiných „neinteligentních“, ale je naopak zaměřen zejména na roboty učící se a autonomní, používáme tedy v celém textu skloňování „robot – roboti“.

[2] Viz Nedávejte práva robotům, varují experti EU. Novinky, 15. 4. 2018. https://www.novinky.cz/.

[3] Robot Institute of America, 1979.

[4] https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en.

[5] Proto např. tzv. chatbot, program komunikující se zákazníky, nebudeme považovat za nic jiného nežli specifický informační systém. Podobně i roboty typu webcrawler, DDoS útočník apod.

[6] Více viz Smejkal, V. Kybernetická kriminalita. 2. rozšířené a aktualizované vyd. Plzeň: Aleš Čeněk, 2018, s. 93 a násl.

[7] Rumíšek, P. Automatizace (roboty a manipulátory). Učební text FSI VUT v Brně. http://ust.fme.vutbr.cz/.

[8] Usnesení Evropského parlamentu z 16. 2. 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku [2015/2103(INL)]. P8_TA(2017)0051. http://www.europarl.europa.eu/.

[9] Soudě podle některých zdrojů (viz op. cit. sub 2), diskutuje se dokonce o tom, že by roboti měli mít jakýsi zvláštní právní statut „elektronické osoby“.

[10] Bostrom, N. Superinteligence: Až budou stroje chytřejší než lidé. Praha: Prostor, 2017.

[11] Více viz Ray Kurzweil: v roce 2029 budou mít počítače větší inteligenci než člověk, stanou se součástí našich mozků. https://www.zive.cz/.

[12] Kurzweil, R. The Singularity Is Near: When Humans Transcend Biology. New York: Penguin Books, 2006.

[13] Viz Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter. Future of Life Institute, 24. 4. 2015, a související dokument Research Priorities for Robust and Beneficial Artificial Intelligence. Future of Life Institute. 23. 1. 2015, oba dokumenty viz na https://futureoflife.org/.

[14] Ford, M. R. Rise of the Robots: Technology and the Threat of a Jobless Future. New York: Basic Books, 2015.

[15] Kaku, M. Budoucnost mysli. Praha: BIZBOOKS, 2015, nebo Brynjolfsson, E., McAfee, A. Druhý věk strojů. Brno: Jan Melvil publishing, 2015.

[16] Mařík, V. Čtvrtá průmyslová revoluce zasáhne celou společnost, in Bárta, M., Kovář, M., Foltýn, O. (eds.) Na rozhraní – Krize a proměny současného světa. Vyšehrad, 2016, s. 248.

[17] Zřejmě nejkritičtější situace se datuje 26. 9. 1983, kdy signál z ruského satelitního systému detekoval počítač jako vypuštění pěti amerických mezikontinentálních raket. Rozhodnutí, zda SSSR opravdu hrozí útok, bylo ponecháno podplukovníkovi Stanislavu Petrovovi, který naštěstí vyhodnotil situaci jako falešný poplach. Chyba byla vysvětlena tím, že satelit interpretoval odrazy slunce od mraků nad základnou vojenského letectva Maelstrom Air Force Base (USA) jako start raket. Viz Mandau, M. Největší softwarové katastrofy. CHIP, 2009, č. 7. https://www.chip.cz/.

[18] Srozuměním se rozumí i smíření pachatele s tím, že způsobem uvedeným v trestním zákoně může porušit nebo ohrozit zájem chráněný takovým zákonem.

[19Podle § 12 odst. 2 TrZ: „Trestní odpovědnost pachatele a trestněprávní důsledky s ní spojené lze uplatňovat jen v případech společensky škodlivých, ve kterých nepostačuje uplatnění odpovědnosti podle jiného právního předpisu.

[20] Např. Krausová, A. Status elektronické osoby v evropském právu v kontextu českého práva. Právní rozhledy, 2017, č. 20, s. 700–704.

[21] K tomu viz Smejkal, V. Kybernetická kriminalita. Plzeň: Aleš Čeněk, 2015, s. 117 a násl.

[22] Nařízení Evropského parlamentu a Rady (EU) 2017/745 ze dne 5. 4. 2017 o zdravotnických prostředcích, změně směrnice 2001/83/ES, nařízení (ES) č. 178/2002 a nařízení (ES) č. 1223/2009 a o zrušení směrnic Rady 90/385/EHS a 93/42/EHS. Úřední věstník, L 117, s. 1–175.

[23] Usnesení NS z 12. 10. 2017, č. j. 6 Tdo 1062/2017-28. Obdobně Jelínek, J. a kol. Trestní právo hmotné. 2. vyd. Praha: Leges, 2010, s. 164.

[24] Novák, P. Trestněprávní odpovědnost ve stavebnictví. Stavební právo, 2010, č. 1, s. 20–28.

[25] Šámal, P. a kol. Trestní právo hmotné. 7. vyd. Praha: Wolters Kluwer, 2014, s. 231.

[26] Tamtéž, s. 192.

[27] Viz nález ÚS z 31. 5. 2016, č. j. III. ÚS 2065/15-2, a rozsudek NS z 27. 6. 2012, sp. zn. 5 Tdo 540/2012.

[28] Viz Mates, P. K problematice neurčitých právních pojmů ve správním právu. Právní rozhledy, 2007, č. 9, s. 326–329.

[29] Podle § 3 zákona č. 22/1997 Sb., o technických požadavcích na výrobky a o změně a doplnění některých zákonů, ve znění pozdějších předpisů, se technickým předpisem rozumí právní předpis, obsahující technické požadavky na výrobky, popř. pravidla pro služby, nebo upravující povinnosti při uvádění výrobku na trh, popř. do provozu, při jeho používání nebo při poskytování nebo zřizování služby nebo zakazující výrobu, dovoz, prodej či používání určitého výrobku nebo používání, poskytování nebo zřizování služby.

[30] Česká technická norma definovaná v § 4 zákona o technických požadavcích na výrobky není obecně závazná, poskytuje pro obecné a opakované používání pravidla, směrnice nebo charakteristiky činností nebo jejich výsledků zaměřené na dosažení optimálního stupně uspořádání ve vymezených souvislostech. Jde vlastně o nabídku technického řešení, která nemusí být využita, případnou odpovědnost za škody vzniklé řešením, které je odchylné od normy, ale nese ten, kdo nesplnil požadavky obecně formulovaného technického předpisu. Pro specifikaci technických požadavků na výrobky, vyplývajících z nařízení vlády nebo jiného příslušného technického předpisu, může Úřad pro technickou normalizaci, metrologii a státní zkušebnictví po dohodě s ministerstvy a jinými ústředními správními úřady, jejichž působnosti se příslušná oblast týká, určit české technické normy, další technické normy nebo technické dokumenty mezinárodních, popř. zahraničních organizací, nebo jiné technické dokumenty, obsahující podrobnější technické požadavky.

[31] Usnesení NS z 30. 1. 2014, sp. zn. 6 Tdo 1450/2013.

trestní právo trestní odpovědnost umělá inteligence odpovědnost robotů

Líbil se vám náš článek? Ohodnoťte ho, prosím.

Diskuze k článku 0 komentářů

Všechny komentáře se zobrazí po vstupu do diskuze

Vstoupit do diskuze

Nejoblíbenější články