Trestněprávní aspekty robotiky - část II.

Zatímco občanskoprávní aspekty robotiky jsou již delší dobu předmětem ne vždy realistické diskuse na mezinárodních fórech, problematika trestněprávní odpovědnosti za jednání robotů zůstává poněkud opomíjena. Úměrně s tím, jak poroste autonomie robotů, bude stále obtížnější zjistit, kdo je odpovědný za určité protiprávní jednání, resp. za škodu způsobenou robotem, případně, zda se může z trestní odpovědnosti vyvinit.

Foto: Fotolia

První část článku si můžete přečíst zde.

4. Příčinná souvislost v robotice

Bylo již zmíněno výše, že zdrojem dalších obtíží nepochybně bude zjišťování a případně prokazování příčinného vztahu mezi jednáním a následkem.[32]

U medicínsko-právních sporů, kdy známe vstupní jednání, známe i následek, ale vlastní průběh je zcela nejasný, se mluví o tzv. fenoménu černé skříňky.[33] V takových záležitostech jde většinově o zavinění (obvykle nevědomou nedbalost), a tedy předvídatelnost následku. O kauzálním nexu nebývá sporu, nejde-li o působení více faktorů.

Selže-li zásadním způsobem robot třetí, a především čtvrté kategorie, jak jsou popsány výše, bude namnoze velkým problémem hledání kauzálního řetězce mezi příčinou a následkem. Nadto s nejistým výsledkem. Zde totiž nemusíme vždy znát všechny faktory, které ovlivnily fungování autonomního mechanismu. Můžeme znát jeho vstupní nastavení (resp. jaké mělo být, nedošlo-li k nějaké chybě při vývoji nebo výrobě), otázkou ovšem je, zda zjistíme, jaké všechny informace ovlivnily fungování robota. Také prozkoumání oné „černé skříňky“, budeme-li za ni považovat hardware a software robota, nemusí být za určitých podmínek úspěšné či dokonce realizovatelné (u biorobota), jakkoliv v současnosti to je zatím snáze uskutečnitelnější nežli zjištění všech procesů probíhajících v lidském těle.

Dalším problémem může být možná multikauzalita, kdy může dojít k souběhu nebo kumulaci více možných příčin negativní (deliktní) události, z nichž bude nutné vybrat jednu jako příčinu v daném případě rozhodující. Tím může být např. současná kombinace vstupních dat (tedy okolí robota), programu, který je vyhodnotí, a případně hardware (např. mechanické ruky), který učiní pohyb, jež bude mít za následek deliktní jednání. Jednou z možností by snad mohlo být vyjádření procentuálního poměru těchto vlivů, pokud to ovšem bude možné. K tomuto se jeví vhodné citovat usnesení Nejvyššího soudu, podle kterého: „Příčinná souvislost mezi jednáním pachatele a následkem se nepřerušuje, jestliže k jednání pachatele přistoupí další skutečnost, jež spolupůsobí při vzniku následku, avšak jednání pachatele zůstává takovou skutečností, bez níž by k následku nebylo došlo.“[34]

Příkladem může být ovladač pohybů robota, který nepředpokládá, že by se jeho rameno mohlo dostat do určité polohy prostě proto, že je naprogramován tak, aby tato poloha byla vyloučena. Pokud někdo násilím rameno do takové polohy uvede, čímž dojde k ovlivnění funkčnosti a bezpečnosti robota tak, že dalším pohybem se dostane do jiné, nepředvídatelné polohy, kde zraní jinou osobu, nelze přičítat odpovědnost programátorům, neboť bez zmíněného zásahu by k tomuto účinku vůbec nedošlo. Z toho lze odvodit jeden z hlavních požadavků na roboty: maximální vytváření tzv. auditní stopy, vypovídající o každém kroku robota a o jeho vnitřním stavu.

5. Software robotů a deliktní odpovědnost

Jeden z hlavních problémů robotiky spočívá v tom, že nikdo dnes nedokáže produkovat software s absolutní zárukou spolehlivosti a nezranitelnosti. Známé Murphyho zákony[35] aplikované do oblasti programování mj. říkají, že: „… neexistuje program, který by byl zcela prost chyb a že každé odstranění libovolné chyby zanese do programu chybu jinou, skrytou a zákeřnější. To znamená, že není možné vytvořit program, který by byl zcela bez chyb. Libovolný softwarový produkt bude vždy obsahovat nějaké chyby.“[36]

Chyby, které se mohou vyskytnout v software, mají obvykle kořeny spočívající v (ve): 1. formulaci problému, pro který se vytváří software, 2. prostředí pro tvorbu software, 3. psaní software, 4. testování software, 5. implementaci (nasazení) software, a to včetně interakcí s jinými programy a operačním systémem. Každá chyba může mít jiného původce, jehož míra odpovědnosti (a tedy zavinění) by měla být zkoumána. Problém se stává složitějším, nicméně v tomto řetězci stále ještě není nemožné se dopátrat zdroje problému.

Příkladem děje vedoucího až k trestní odpovědnosti může být chyba v programu, která při určité kombinaci parametrů (např. polohy robota, jeho ramene, zátěže apod.) způsobí nepředvídatelný stav, resp. chování, jež může mít dopad na okolí, např. v důsledku mechanického ataku vůči okolním subjektům. Obdobné případy jsou známy z minulosti v oblasti dobývání kosmu, kdy např. kvůli chybám v software (někdy přímo v logice programu, někdy kvůli „obyčejnému“ překlepu) musely být zničeny americké rakety nebo družice.[37]

Prvoplánově by bylo zřejmě možno zvažovat odpovědnost autora (autorů) programu, který přinejmenším „nevěděl, že svým jednáním může takové porušení nebo ohrožení způsobit, ač o tom vzhledem k okolnostem a ke svým osobním poměrům vědět měl a mohl“ [§ 16 odst. 1 písm. b) TrZ]. Tím se dostáváme opět k problematice zavinění, relevantní je zde následující rozhodnutí Ústavního soudu: „Hranice okolností, jež pachatel může či nemůže předvídat, nelze vymezovat jen v hypotetické rovině (neboť pak by musel každý předvídat v podstatě cokoliv), ale je zapotřebí vždy vycházet z existujících objektivních okolností vyplývajících z určité životní situace, která může být charakterizována celou řadou faktorů, jež pachatel vnímá svými smysly a může je pak hodnotit podle svých znalostí i dalších subjektivních dispozic. Z hlediska nedbalostního zavinění (§ 5 TrZ) to znamená, že kromě míry povinné opatrnosti, vyplývající z obecných pravidel bezpečného chování, zde existuje i subjektivní vymezení, které spočívá v míře opatrnosti, kterou je pachatel schopen vynaložit v konkrétním případě. Přitom o zavinění z nedbalosti může jít jen tehdy, pokud povinnost a možnost předvídat porušení nebo ohrožení zájmu chráněného trestním zákonem jsou dány současně.“[38]

Je ovšem otázkou, zda bylo vůbec v lidských silách předpokládat výskyt takové náhody (např. ve vstupních datech), na kterou měl umět software zareagovat.

Zde zřejmě bude vhodné vycházet z principu „potřebné (požadovatelné, rozumné) míry opatrnosti“, která by v daném případě měla být výrobcem robota zakotvena v principu secure by design (bezpečné díky návrhu). Znamená to, že navržený výrobek (můžeme tak chápat celého robota nebo jen jeho software) je od samého počátku vývoje a ve všech jeho etapách konstruován tak, aby byl bezpečný.[39]

Většina textů zabývajících se bezpečností (a to nejen v souvislosti s informačními systémy či roboty) zdůrazňuje, že nezbytným krokem pro zvýšení bezpečnosti (a tedy i snížení pravděpodobnosti provozní havárie a případné následné odpovědnosti) je existence systému řízení rizik.[40] Ten sestává z analýzy rizik, formulování bezpečnostní politiky (firmy, vývojových procesů, výroby atd.), vytvoření příslušných organizačních struktur (bezpečnostní management) a interních předpisů, uskutečnění bezpečnostních opatření formou bezpečnostních projektů, testování objektu a vyhodnocování bezpečnostních incidentů.[41] Při posuzování konkrétních případů pak to bude zřejmě otázka věcná, následně však i právní, zda se jednalo o riziko běžné či mimořádné, předvídatelné či nepředvídatelné, a jaká byla učiněna opatření pro jeho minimalizaci (viz výše k problematice přípustného rizika).[42]

V dané souvislosti je třeba poukázat na to, co již opět přesahuje rozsah tohoto článku a co spočívá v problematice dokazování, resp. posuzování, zda riziko bylo či nebylo přípustné. Konstatování, zda šlo či nešlo o přípustné riziko, je primárně věcí soudu. Zatímco při sjíždění tobogánu dítětem soud sám posoudil zobrazovanou situaci jako nebezpečnou,[43] pak při posuzování rizika v oblasti robotiky je ovšem velmi pravděpodobné, že bude nutno zohlednit nejen současný stav poznání, ale – v případě skokové změny technologie, která bude již mimo rámec tohoto stavu poznání – posoudit zcela novou situaci. To bude nejen nad možnosti soudu, ale i většiny dalších osob (znalců, jež nemusí být špičkovými osobnostmi v celosvětovém měřítku), které by měly odpovídat na odborné otázky (viz § 105 odst. 1 TrŘ). Závěrem k této problematice lze říci, že pokud byla provedena analýza rizik zahrnující všechny možné (předpokladatelné) škodlivé situace, vyloučeno riziko činnosti, která způsobí újmu na zdraví, smrt nebo větší hmotnou škodu, a zároveň je patrné, že zamýšleného (a legálního) cíle nelze dosáhnout jinak, je možno přistoupit k jednání, jež vykazuje prvky rizika, a následně by dodržení těchto podmínek mělo být zohledněno při posuzování okolností vylučujících protiprávnost.

Konkrétní příklady, které mohou nastat, budou různé podle stupně autonomie robota a dalších okolností. Může se vyskytnout taková chyba v programu, která způsobí, že činnost robota bude nejen neaprobovatelná, ale bude i ohrožovat zájem chráněný trestním zákoníkem; taková chyba, jakkoliv by se to nemělo stát, není nemožná, ovšem podstatná bude existence a funkčnost bezpečnostního mechanismu, který zastaví robota dříve, nežli k incidentu dojde. (Pak zde budeme řešit otázku odpovědnosti nejen za chybu umožňující nesprávné chování robota, ale i za neexistenci či selhání bezpečnostní pojistky.) Jedním z kritérií pro posuzování případné odpovědnosti je provedení či neprovedení funkčních zkoušek před zahájením výroby.

6. Další faktory ovlivňující činnost robotů

Zde je nutno upozornit na existenci dalších faktorů majících vliv na jednání robota. Každý program pracuje s daty, přičemž některá data mohou být zadávána jako konstanty (např. výrobcem), jiná jako proměnné (např. uživatelem) a jiná může získávat robot sám prostřednictvím čidel (senzorů). Takže opět může dojít i při bezchybném fungování programu k nesprávnému (neaprobovanému) jednání robota, přičemž pouze v prvních dvou případech bude zřejmě snadno zjistitelné, co se stalo. Pokud bude daný případ v sobě zahrnovat ovlivnění vnějšími faktory, a to neúmyslné i úmyslné, budeme opět závislí na možnosti analyzovat procesy uvnitř robota.

Robot se může chovat v rozporu se svým určením či programováním v důsledku vnitřní vady (chyby hardware, pravděpodobněji ale software), nebo v důsledku vnějšího působení, a oboje může být relevantní z hlediska zavinění cizí osobou anebo nemusí.

Neúmyslné ovlivnění může nastat např. kombinací vnějších signálů sejmutých senzory robota, které budou chybně vyhodnoceny a nastane incident. Pak je otázkou posoudit, zda se jednalo o natolik neočekávanou, ale i neočekávatelnou situaci, kterou nemohl výrobce předvídat. Vyloučí-li analýza, že nejde o zmíněnou nepředvídanou a neočekávatelnou situaci, stejně jako že došlo k selhání robota z důvodů spojených s ním samotným (vada konstrukce, programu apod.), budeme muset předpokládat, že šlo o situaci předvídatelnou, která mohla být zčásti nebo zcela vyvolána vnějším vlivem včetně zásahu jiné osoby. A v případě zjištění lidského faktoru bude třeba (kromě zjištění této osoby) řešit otázku úmyslu vs. nedbalosti, jak již bylo popsáno výše. Lze si představit nedbalé jednání někoho, kdo mimoděk nebo v souvislosti s jinou činností změní fyzickou konfiguraci robota, jenž se začne pohybovat po jiné dráze.

V případě úmyslu se může jednat o útok zvenčí, kdy se útočník bude snažit ovlivnit procesy probíhající v robotovi natolik, aby došlo ke změně jeho funkcí či fungování a následně ke vzniku incidentu. Příkladem může být jednání popsané v § 230 odst. 2 TrZ, kdy pachatel získá přístup k robotu (k počítačovému systému nebo nosiči informací) a data pozmění tak, aby došlo ke změně funkčnosti robota [data uložená v počítačovém systému nebo na nosiči informací neoprávněně vymaže nebo jinak zničí, poškodí, změní, potlačí, sníží jejich kvalitu nebo je učiní neupotřebitelnými – viz písm. b)], nebo změní program ovládající robota [učiní jiný zásah do programového nebo technického vybavení počítače nebo jiného technického zařízení pro zpracování dat – viz písm. c)]. Nelze vyloučit ani posouzení podle § 230 odst. 3, event. pak i odst. 4 nebo 5 TrZ.

Posléze bude věcí soudní praxe, zda v případě zneužití robota s velkými následky bude v rámci analýzy možného zavinění vzato v úvahu i to, zda byl tento robot vzhledem ke své potenciální nebezpečnosti přiměřeně konstruován tak, aby byl schopen takovým útokům odolat.

Tím, kdo může ovlivnit robota k jednání způsobem, který ohrožuje zájem chráněný trestním zákoníkem, může být v podstatě kdokoliv: majitel (uživatel, operátor apod.), který mu (vědomě či nevědomě) zadá chybná data – pak se zřejmě budeme pohybovat v oblasti posuzování případného nedbalostního jednání při protiprávním činu, možná ale i naplnění skutkové podstaty trestného činu podle § 232 TrZ – Poškození záznamu v počítačovém systému a na nosiči informací a zásah do vybavení počítače z nedbalosti.

V případě jiné třetí osoby (hackera), který může provést útok na program ovládající robota (ale samozřejmě i na data) s cílem, aby robot učinil něco, co není v souladu s jeho určením, je situace jednoznačnější. Bude se jednat o zneužití věci (použití robota jako předmětu nebo nástroje trestného činu).[44] Pachatel se zřejmě dopustí přinejmenším trestného činu podle § 230 odst. 2 písm. b), c) nebo d) TrZ.

Dojde-li i k dalšímu následku jednání hackera (útok na jiný zájem chráněný trestním zákoníkem s určitým škodlivým následkem), bude nutno zvažovat možný jednočinný souběh (např. ublížení na zdraví podle § 146 a zmiňovaného § 230 TrZ). Samozřejmě za předpokladu, že tento další následek bude kryt zaviněním. A zcela asi nelze vyloučit ani faktickou konzumpci v případech, kdy bude míra ublížení na zdraví (a tedy způsobená škoda) výrazně převyšovat míru zásahu do robota (a tedy škodu spáchanou na robotu jako takovém). Speciálně v případě uvedeného hackera připadá v úvahu i posouzení jeho jednání jako ublížení na zdraví z nedbalosti, chtěl-li si jen „vyzkoušet, jak se bude robot po jeho zásahu chovat“, a buď bez přiměřeného důvodu spoléhal, že k újmě na zdraví nedojde, anebo nevěděl, že k ní může dojít, ač to vědět měl.

V rámci posuzování konkrétní kauzy pak bude třeba stanovit, co lze u robota považovat za důsledek nedbalostního (případně úmyslného) jednání fyzické osoby. U robotů nulté až druhé generace lze na robota pohlížet jako na deterministický automat (DA), kde všechny jeho stavy jsou známé, zjistitelné, resp. odvoditelné, tedy v každém okamžiku je jasné, co robot udělá a proč. U třetí generace robotů, kdy již přiznáváme schopnost samostatné tvorby programu dle nabytých zkušeností, je již situace složitější, protože tím dostává robot charakter automatu nedeterministického (NDA), kdy se může do určitého stavu dostat více cestami nebo se ve více stavech nacházet současně; zde stále ještě lze předpokládat, v souladu s teorií informatiky, že budeme schopni převést NDA na DA a dobrat se ke zjištění důvodů chování robota. Konečně ve čtvrté generaci, kdy hovoříme o autonomních mechanismech s vlastní inteligencí, bude algoritmická složitost (variabilita) uvnitř robota natolik vysoká, že nelze vyloučit od určitého okamžiku nemožnost přesně a nade vši pochybnost určit, jaké děje v něm probíhaly a proč. Nástroje umělé inteligence, jako jsou např. neuronové sítě nebo fuzzy logika,[45] a ještě více pak evoluční programování a genetické programování,[46] nás posouvají ze světa, kde jsme schopni říci, co bylo příčinou a co následkem, do světa pravděpodobností. Jak uvádí I. Zelinka, jedná se o predikci pravděpodobnou, kdy nikdo nedokáže zaručit, že se daný systém bude vyvíjet (chovat – pozn. aut.) tak, jak bylo předpovězeno.[47] (Pak se dostaneme do oblasti označované např. jako tzv. NP-těžké problémy, kdy budeme muset hledat přibližná či částečná řešení, která uspokojivě odpoví alespoň v některých případech. Je ovšem otázkou, zda tento přístup bude použitelný v procesu trestního dokazování.)[48]

Majitelé (provozovatelé) robotů, jejichž činnost může v případě poruchy způsobit obecné ohrožení (díky váze, povaze činnosti atd.), případně jejichž provoz lze označit dnešním pojmem „zvlášť nebezpečný“ (§ 2925 ObčZ), mohou být také trestně odpovědni za případnou havárii způsobenou robotem. Jejich deliktní odpovědnost, co se týká nedbalostního jednání, může mít přinejmenším dvě roviny:

1.

postupovali v rozporu s pokyny (příručkou) výrobce, např. přetížením robota, nedostatečnou údržbou apod.;

2.

nezachovali potřebnou míru opatrnosti, kterou by vzhledem k vlastnostem daného robota měli dodržovat.

K tomu lze např. uvést rozhodnutí Nejvyššího soudu, které se zabývá zaviněním ve formě nevědomé nedbalosti.[49] Podobně také usnesení Ústavního soudu ohledně povinností, jejichž porušením vzniká právní odpovědnost, včetně odpovědnosti trestněprávní.[50]

7. Právnické osoby jako možní pachatelé robotických trestných činů

Pro úplnost je třeba zmínit i případnou trestní odpovědnost právnických osob. Není smyslem tohoto článku zabývat se detailněji konstrukcí odpovědnosti právnických osob, pouze lze připomenout, že jde o odpovědnost vyplývající z možného přičtení protiprávního činu právnické osobě spáchaného v jejím zájmu nebo v rámci její činnosti osobami, které vyjmenovává § 8 odst. 1 zákona č. 418/2011 Sb., o trestní odpovědnosti právnických osob a řízení proti nim, ve znění pozdějších předpisů („TOPO“). Tyto osoby sub písm. a), b) a c) lze souborně a s přijatelnou mírou zjednodušení označit jako vedoucí pracovníky, zatímco v písm. d) se hovoří o trestném činu spáchaném protiprávním činem zaměstnance nebo osoby v obdobném postavení („zaměstnanec“).

V případě protiprávního činu spáchaného vedoucím pracovníkem a za předpokladu, že jde o čin, který může být trestným činem dle zákona o trestní odpovědnosti právnických osob, což jsou všechny trestné činy s výjimkou těch, které výslovně uvádí § 7 TOPO, se takovéto jednání bez dalšího právnické osobě přičítá. Jinými slovy, v této úrovni se nemůže trestní odpovědnosti zbavit. V případě zaměstnance, a pokud tento nejednal na podkladě rozhodnutí, schválení nebo pokynů vedoucího pracovníka, se může právnická osoba přičtení protiprávního činu ubránit, pokud její orgány nebo vedoucí pracovníci provedli taková opatření, která měli provést podle jiného právního předpisu nebo která po nich lze spravedlivě požadovat, zejména provedli povinnou nebo potřebnou kontrolu činnosti zaměstnanců nebo jiných osob, jimž jsou nadřízeny, anebo učinili nezbytná opatření k zamezení nebo odvrácení následků spáchaného trestného činu. I když ale lze právnické osobě přičíst protiprávní čin spáchaný výše uvedenými osobami, může se ještě zprostit trestní odpovědnosti, pokud vynaložila veškeré úsilí, které na ní bylo možno spravedlivě požadovat, aby spáchání protiprávního činu svými vedoucími pracovníky nebo zaměstnanci zabránila.

Tato konstrukce je pak rozhodující i v případě, kdy bude zvažováno, zda právnická osoba odpovídá za protiprávní následek jednání robota. Z hlediska havárií způsobených roboty půjde tedy v první řadě o to, zda lze konstruovat odpovědnost fyzické osoby za tuto havárii, eventuálně zda jde o odpovědnost trestněprávní. Nutno poznamenat, že ale nemusí jít za všech okolností o zjištění konkrétní fyzické osoby, nebo jinak, i když nebude zjištěna konkrétní fyzická osoba, která se dopustila protiprávního činu přičitatelného právnické osobě, dle § 8 odst. 3 TOPO není dotčena trestní odpovědnost právnické osoby.

Mechanismus dovozování trestní odpovědnosti právnické osoby za havárii způsobenou robotem je tedy o jednu úroveň složitější, neboť nekončí zjištěním odpovědné fyzické osoby, ale pokračuje i posuzováním, zda tato fyzická osoba nejednala za okolností, za kterých lze její protiprávní čin přičíst osobě právnické. Bude-li odpověď kladná, zbývá již jen posoudit, zda se právnická osoba zprostila trestní odpovědnosti, neboť vynaložila veškeré úsilí, které na ní bylo možné spravedlivě požadovat, aby spáchání protiprávního činu výše zmíněnými osobami zabránila. Tím se problém robotů opět vrací k otázce rozsahu možného předvídání toho, jak bude robot v určité situaci reagovat, a míře dovozované odpovědnosti, např. za nedostatek předvídavosti v tomto směru. Lze si tedy např. představit trestní odpovědnost právnické osoby, výrobce robota třetí nebo čtvrté generace, za to, že jeho zaměstnanci nepředpokládali závadné chování robota, neboť jejich odborná úroveň byla dlouhodobě významně nižší, než jaká je pro konstrukci robotů tohoto druhu nutná. A právnická osoba, jejich zaměstnavatel, tento odborný deficit neřešila. Vzletněji řečeno, právnická osoba, jako výrobce, sice byla technicky schopna vytvořit monstrum, ale nebyla schopna dohlédnout, co všechno je posléze schopné toto monstrum provést.

V souvislosti s posuzováním trestní odpovědnosti za jednání robotů se ale zřejmě bude právnická osoba vyrábějící roboty nacházet v poněkud jiné situaci nežli výrobce cihel. Tedy míra rizika[51] související s předmětem podnikání takové právnické osoby bude podstatně vyšší, čemuž bude muset odpovídat i nastavení kontrolních mechanismů a postupů předcházejících způsobení negativních následků.

Aktuálně k tomu přispívá i relativně široké pojímání toho, co lze považovat za vynaložení veškerého úsilí, které je možné požadovat. Např. výkladové stanovisko Nejvyššího státního zastupitelství mimo jiné uvádí: „Aby se právnická osoba vyhnula trestní odpovědnosti a zůstalo u trestněprávního excesu podřízené osoby – zaměstnance nebo osoby v obdobném postavení, s trestní odpovědností pouze fyzické osoby, která trestný čin spáchala, nebo zcela bez trestní odpovědnosti v případě neustanovené osoby, jsou na ni tak kladeny požadavky k učinění určitých opatření. Spadají sem povinnosti řádného řízení a kontroly, včetně povinností k předcházení páchání trestné činnosti v rámci právnické osoby. Vnitřní kontrolní činnost se považuje za součást činnosti, v níž může být shledána odpovědnost právnické osoby za trestný čin. Není omezována na opatření, k nimž jsou orgány právnické osoby povinny ze zákona, ale vztahuje se rovněž i na další opatření, jejichž provedení po nich lze spravedlivě požadovat.“[52]

V současné době chybí dostatek výkladových stanovisek podaných soudy při rozhodování konkrétních případů, ale i to, jak by na případné protiprávní důsledky činnosti robota měli pohlížet státní zástupci, je významnou informací. Faktem také je, že zmíněné výkladové stanovisko s velkou pravděpodobností neuvažuje primárně průmyslové havárie nebo snad dokonce protiprávní účinky činnosti robotů, což ale na druhé straně vůbec nevylučuje aplikaci těchto principů v případě, kdy k takové nehodě dojde. Ostatně velmi podobně pojímá výklad pojmu veškerého požadovatelného úsilí i rozhodnutí Vrchního soudu v Praze.[53]

8. Robot jako oběť trestného činu

Již v dávnější minulosti jsme definovali počítačovou kriminalitu jako „páchání trestné činnosti, v níž figuruje určitým způsobem počítač jako souhrn technického a programového vybavení včetně dat, nebo pouze některá z jeho komponent, a to 1. jako předmět této trestné činnosti, ovšem s výjimkou té trestné činnosti, jejímž předmětem jsou zařízení jako věci movité, 2. nebo jako nástroj trestné činnosti“.[54]

Podle našeho názoru toto stále platí, byť škála možností, jak využít robota jako nástroj trestné činnosti, bude jiná (vyšší?) nežli u klasického PC. A také důvody pro útok mohou být klasické (majetková trestná činnost, poškozování cizí věci apod.), ale mohou souviset i s vlastnostmi, kterými se robot bude odlišovat od jiných prostředků výpočetní techniky. Lze předpokládat útoky na hardware a software, ze kterého robot sestává, s podobnými cíli jako u jiných počítačových zařízení: touha pachatele je zničit, ovládnout, zneužít k protiprávnímu jednání (např. monitorování osob), ale třeba i fyzickému útoku na jiného. V rámci dalšího předpokládaného či možného rozvoje robotiky a vzhledem k podobnosti humanoidů s lidmi lze diskutovat o útocích vyplývajících právě z této podobnosti.

IV. Závěr

Nahlíženo z tohoto pohledu, podstatné je, že robot funguje buď:

a)

předvídaným a žádoucím způsobem, tedy správně, nebo

b)

předvídaným, ale nežádoucím způsobem, tedy nesprávně, nebo

c)

nepředvídaným způsobem.

V případech sub b) a c) je kritické, zda takto dojde ke způsobení škody nebo nemateriální újmy. Pokud ano, stává se z hlediska trestního práva důležité, zda popsaným způsobem byl porušen zájem chráněný trestním právem, a pokud ano, kdo je za něj odpovědný.

V případě předvídaného nežádoucího fungování robota je kritické, jak k takovému nežádoucímu jednání došlo, zda se dalo předvídat a proč nebyla přijata opatření k eliminaci takového fungování. V případě nepředvídaného fungování robota bude nutno zkoumat totéž, tedy zda byla učiněna opatření, aby nežádoucímu a nepředvídanému fungování bylo bráněno nebo jeho důsledky minimalizovány.

Namísto nových, speciálních předpisů (např. zákona o robotech) či nových skutkových podstat v trestním zákoníku si spíše lze představit konstrukci obvinění, podle které „obviněný používal (prodával, distribuoval) robota, který byl díky své váze a mobilitě způsobilý působit škodu nebo nemateriální újmu, aniž by učinil vše, co lze požadovat, aby k takovému následku nedošlo. A v důsledku toho pak robot dne… v místě… způsobil průmyslovou havárii, při níž došlo k tomu, že…“ atd.

Toto je dle našeho názoru současný právní rámec trestní odpovědnosti související s roboty. Existují sice diskuse o tzv. elektronické osobě, ale nelze se domnívat, že to bude na pořadu brzkého dne. Uvádí-li usnesení Evropského parlamentu,[55] že: „čím je robot autonomnější, tím méně jej lze považovat za pouhý nástroj v rukou jiných subjektů (výrobců, provozovatelů, vlastníků, uživatelů atd.); s tím je spojena otázka, zda jsou dostačující obvyklá pravidla pro odpovědnost, nebo zda je zapotřebí stanovit nové zásady a pravidla, která vyjasní právní odpovědnost různých subjektů, pokud jde o jejich odpovědnost za jednání a opomenutí ze strany robotů, jejichž příčinu nelze vysledovat zpět k určitému lidskému činiteli, a zda takovému jednání či opomenutí ze strany robotů, jímž byla způsobena určitá újma, bylo možné zamezit“pak je to spíše otázka přiřazení odpovědnosti konkrétní fyzické (a/nebo právnické) osobě. Lze nicméně souhlasit s jeho vizí, že „pokud by robot byl schopen činit samostatná rozhodnutí, tradiční pravidla by již nestačila k určení odpovědnosti za škodu způsobenou robotem, protože by nebylo možné určit stranu, která má poskytnout odškodnění a napravit škodu, kterou robot způsobil“.[56]

Pak by ovšem bylo třeba jednat i v trestněprávní oblasti, a to o to více, čím složitější či dokonce nemožné bude dokazování, co se v daný okamžik skutečně odehrálo, tj. jaký byl v určitém čase stav onoho robota.

V této souvislosti je třeba ocenit návrh uvedený v čl. 12 usnesení. Článek vyzdvihuje zásadu transparentnosti, podle níž: „by mělo být vždy možné podat odůvodnění každého rozhodnutí učiněného s pomocí umělé inteligence, které může mít významný dopad na život jedné nebo více osob“. Evropský parlament se domnívá, že „výpočetní činnost systémů umělé inteligence by mělo být vždy možné převést do formy pochopitelné pro člověka, a že pokročilí roboti by měli být vybaveni ‚černou skříňkou‘, kde budou zaznamenávány údaje o každé operaci, kterou daný stroj provede, včetně logiky, na níž se jeho rozhodnutí zakládají“.[57]

Problémem bude, zda se nám u skutečně vyspělých robotů, např. vybavených neuronovými mozky (lhostejno, zda umělými nebo biologickými), podaří všechna jejich rozhodnutí převést do formy pochopitelné pro člověka, a ještě více, zda bude možno vůbec zjistit logiku, na níž se jejich rozhodnutí zakládají. Tato „černá skříňka“, pokud bude obsahovat skutečně všechny potřebné informace (inspirovat se lze v oboru letectví), může sloužit jako auditní stopa, jako významný, ne-li hlavní či dokonce jediný důkaz při zjišťování, co se v rámci incidentu odehrálo, jaký byl stav robota a kdo či co jej způsobilo. Z toho potom můžeme dojít k odpovědi na otázku položenou v úvodu tohoto článku: Jednalo se o zavinění úmyslné, nedbalost, náhodu či totálně nepředpokladatelnou událost – Černou labuť?[58]

Rozvoj autonomních mechanismů a jejich rozumových schopností bude proto velkou výzvou i pro oblast trestního práva a kriminalistiky. Přitom potenciální útočníci budou stále schopni nacházet nové možnosti útoků.

„Pokročilé útočné strategie jsou silně polymorfní, neopakují přenosy týchž binárních sekvencí, nepřistupují opakovaně na stejné servery atd.… Lze očekávat další výrazný nárůst ekonomicky motivovaných a cílených útoků na podnikovou výrobní infrastrukturu. V případě dopravy je velmi důležitou otázkou také bezpečnost autonomních vozidel. Vážnou hrozbou jsou trestné činy zaměřené nejen proti autonomním vozidlům (např. krádeže vozidel), ale i trestné činy páchané pomocí autonomních vozidel (např. možnost teroristického útoku pomocí autonomního vozidla naloženého trhavinou a naprogramovaného do cílového místa útoku).“[59]

Je třeba se připravit jak v oblasti právní teorie a praxe, promítnuté do legislativy a rozhodovací praxe, v oblasti technologické, promítnuté do normotvorné činnosti a vytváření „best practices“, jakož i v oblasti kriminalistické, promítnuté do vzniku nových postupů, případně podoblastí v rámci oboru kriminalistiky.


[32] Viz nález ÚS z 1. 11. 2007, sp. zn. I. ÚS 312/05.

[33] Doležal, A., Doležal, T. Kauzalita v civilním právu se zaměřením na medicínskoprávní spory. Praha: Ústav státu a práva AV ČR, 2016, s. 78 a 192.

[34] Usnesení NS z 27. 2. 2002, sp. zn. 3 Tz 317/2001.

[35] Murphyho zákony jsou různé výroky týkající se chybovosti, zákonů schválnosti a lidského selhání. Základní myšlenkou je tvrzení „Může-li se něco pokazit, pokazí se to“, údajně pojmenované po americkém leteckém inženýrovi Edwardu A. Murphym. Viz Bloch, A. Murphyho zákon. 1. vyd. Praha: ARGO, 1999.

[36] Více viz Smejkal, V., op. cit. sub 6, s. 830 a násl.

[37] Janíček, P., Marek, J. a kol. Expertní inženýrství v systémovém pojetí. Praha: Grada, 2013, s. 202.

[38] Usnesení ÚS z 20. 5. 2004, sp. zn. II. ÚS 728/02. Obdobně např. rozhodnutí NS ČSR ze 17. 3. 1986, sp. zn. 4 Tz 9/86, nebo usnesení NS z 6. 9. 2001, sp. zn. 3 Tz 182/2001 (R 43/2002).

[39] Více viz Smejkal, V., op. cit. sub 6, s. 831 a násl.

[40] Nejznámější je norma ČSN EN ISO/IEC 27001, doplněná dalšími normami z řady 270xx.

[41] Viz Smejkal, V. Analýza rizik jako nástroj prevence kybernetické kriminality, in Bradáč, A., Křižák, M. (eds.) Sborník příspěvků XXVI. mezinárodní vědecké konference Expert Forensic Science 2017. Brno: ÚSI VUT v Brně, 2017, s. 504–515.

[42] K tomu viz Smejkal, V., Rais, K. Řízení rizik ve firmách a jiných organizacích. 4. vyd. Praha: Grada, 2013.

[43] Viz rozsudek NSS z 22. 6. 2017, sp. zn. 7 As 65/2017.

[44] Jak bylo v souvislosti s počítači konstatováno již v publikaci Smejkal, V., Sokol, T., Vlček, M. Počítačové právo. 1. vyd. Praha: C. H. Beck, 1995.

[45] Viz např. Mařík, V., Štěpánková, O., Lažanský, J. Umělá inteligence 4. 1. vyd. Praha: Academia, 2003.

[46] Mařík, V., Štěpánková, O., Lažanský, J. Umělá inteligence 3. 1. vyd. Praha: Academia, 2001.

[47] Zelinka, I. Umělá inteligence: Hrozba nebo naděje? 1. vyd. Praha: BEN – technická literatura, 2003.

[48] Problematika automatů a algoritmů je přehledně popsána např. v publikaci Hliněný, P. Úvod do teoretické informatiky. Text pro distanční a kombinované studium. Ostrava: FEI VŠB – TUO, 22. 6. 2005. https://www.fi.muni.cz/ [cit. 9. 12. 2017].

[49] Usnesení NS z 30. 8. 2017, sp. zn. 7 Tdo 286/2017. Ve věci je podána ústavní stížnost vedená pod sp. zn. II. ÚS 3219/17.

[50] Usnesení ÚS z 20. 5. 2004, sp. zn. II. ÚS 728/02.

[51] Jelínek, J., op. cit. sub 23.

[52] Nejvyšší státní zastupitelství. Aplikace § 8 odst. 5 zákona o trestní odpovědnosti právnických osob a řízení proti nim. Průvodce novou právní úpravou pro státní zástupce. Verze pro veřejnost. Brno, 29. 11. 2016, sp. zn. 1 SL 123/2016, s. 9. http://www.nsz.cz/.

[53] Viz usnesení VS v Praze z 9. 3. 2017, sp. zn. 6 To 7/2017.

[54] Smejkal, V. a kol. Právo informačních a telekomunikačních systémů. 1. vyd. Praha: C. H. Beck, 2001, s. 480.

[55] Usnesení Evropského parlamentu cit. sub 8, bod AB.

[56] Tamtéž, bod AF.

[57] Tamtéž.

[58] Černými labutěmi nazýváme nečekané jevy nebo události, které mají široký dopad, jsou jen velmi nesnadno popisovatelné a zcela popírají veškerá očekávání, resp. nevyplývají ze žádných dosavadních zkušeností. Viz Taleb, N. N. The Black Swan. The Impact of the Highly Improbable. Penguin Books Ltd., 2008 (česky: Černá labuť. Následky vysoce nepravděpodobných událostí. Praha: Paseka, 2011).

[59] Ministerstvo průmyslu a obchodu ČR. Iniciativa Průmysl 4.0. Schválila vláda ČR na svém zasedání dne 24. 8. 2016. https://www.mpo.cz/.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články