Umělá inteligence a odpovědnost za škodu aneb redefinování zákonů robotiky, část II.

Zájem o vytváření umělých a samostatně myslících bytostí provází lidstvo již od starověku. Od antických legend o Pygmalionovi a bájných výtvorech boha Héfaista se tak přes novodobější pověst o Golemovi dostáváme až k umělou inteligencí nabité tvorbě science-fiction.

student 5. ročníku Právnické fakulty Univerzity Karlovy
Foto: Fotolia

Právní úprava odpovědnosti umělé inteligence v zahraničí

RoboLaw jako začátek inovativního přístupu Evropské unie

Dne 12. 1. 2017 byl Výborem pro právní záležitosti Evropského parlamentu schválen návrh[1] upravující doporučení občanskoprávních pravidel pro robotiku.[2] Bude-li tato zpráva v polovině února schválena i Plénem Evropského parlamentu, stane se důrazným doporučením Evropské komisi pro přípravu vlastního legislativního návrhu ohledně robotů a umělé inteligence.[3]

Inspirací pro návrh byl dle Mady Delvaux, jeho autorky a poslankyně Evropského parlamentu, projekt RoboLaw z roku 2014.[4] RoboLaw byla 27 měsíců trvající studie financovaná Evropskou komisí zaměřená na průnik etických, právních a technických norem v dané oblasti.[5]

Současný návrh se snaží zachytit veškeré myslitelné aspekty umělé inteligence. Naší ambicí však bude zaměřit se na ty, jež se věnují odpovědnosti za škodu. Jak již bylo řečeno výše, z dlouhodobého hlediska se návrh v bodě 59 f) vyjadřuje i k možnosti vytvoření zcela nového subjektu práva:

„V dlouhodobém výhledu bude vytvořen zvláštní právní status robota, aby alespoň ti nejsložitější autonomní roboti měli status elektronické osoby odpovědné za náhradu způsobené škody, přičemž elektronická osoba by mohla být používána i v případech, kdy roboti činí autonomní rozhodnutí nebo jiným způsobem samostatně interagují s třetími stranami;“

Pro účely aktuálnější problematiky odpovědnosti za škodu se v návrhu uvádí například možnost absolutní odpovědnosti[6] nebo způsobu založeném na řízení rizik[7].

Bod 56 návrhu nám poté připomíná problematiku, jež byla nastíněna výše v souvislosti   s použitelností rodičovské odpovědnosti:

„[…] jakmile by byly zjištěny strany, které nesou konečnou odpovědnost, měla by být odpovědnost těchto stran úměrná skutečnému rozsahu příkazů daných robotovi a míře jeho autonomie, takže by platilo, že čím má robot větší schopnost učení nebo vyšší autonomii a čím delší je doba jeho učení, tím větší by měla být odpovědnost jeho „učitele“; upozorňuje zejména na to, že při určování osoby, která je odpovědná za škodlivé jednání robota, by neměly být dovednosti, které robot získá formou „výcviku“, zaměňovány s dovednostmi nabytými výhradně prostřednictvím jeho schopnosti samostatného učení;“

V následujících bodech 57 a 58 se můžeme opět setkat s návrhy, které již byly zmíněny výše pro odpovědnost z provozu zvlášť nebezpečného:

„[…] odpovědnost za škodu způsobenou roboty s vyšší mírou autonomie by bylo možné vyřešit vytvořením povinného systému pojištění, jako je tomu již dnes v případě motorových vozidel; konstatuje však, že na rozdíl od systému pojištění používaného v silničním provozu, kde se toto pojištění vztahuje na jednání a chyby lidského činitele, by pojištění v oblasti robotiky mělo zohledňovat veškerou potenciální odpovědnost v rámci celého řetězce;“

„[…] jako je tomu v případě pojištění motorových vozidel, mohl by být tento systém pojištění doplněn fondem, který by zajistil, aby bylo možné kompenzovat škodu i v případech, kdy pojistné krytí neexistuje;“

Pro sledování dalšího vývoje evropské legislativy tak bude zásadním, jak moc si Evropská komise vezme jednotlivá doporučení k srdci. Díky současnému návrhu Evropského parlamentu a dřívějšímu vypracování studie RoboLaw jsou sílící tendence pro unijní úpravu umělé inteligence zcela zřetelné.

Do doby účinnosti daných předpisů se členské státy budou muset spokojit s již existující právní úpravou poskytující ochranu skrze výše vyjmenované instituty objektivní odpovědnosti.

Common law systémy – USA a Spojené království

Angloamerický právní systém je na rozdíl od toho kontinentálního založen na soudcovském právu. Ve zkratce jej lze vymezit tím, že případy před soudem se ve většině řeší podle již jednou rozsouzených sporů namísto podle aplikace zákonů a jiných normativních aktů přijatých zákonodárcem či výkonnou mocí.

V americké i anglické právní literatuře se tak objevují hlasy, že nová právní úprava pro oblast odpovědnosti za škodu způsobenou autonomními rozhodovacími systémy není vůbec zapotřebí. Příkladem může být výrok Adama Thierera z George Mason University, USA:

„Just leave it to the tort system.”[8] (volně přeloženo jako: „Nechejte to na soudcích“)

Jak vyplývá ze zprávy z 12. října 2016[9], stejná diskuze probíhá i na půdě Dolní sněmovny Spojeného království. Pro účely této diskuze zformulovala britská instituce The Law Society of England and Wales[10] určitá úskalí plynoucí z přenechání volného průběhu soudcovskému právu:

„Jednou z nevýhod přenechání této problematiky soudům […] je fakt, že common law se může vyvinout teprve při aplikaci právních principů poté, co se stane nová, nečekaná událost. To však může dotčené osoby stát velmi draho.“[11]

Jedním z možných precedentů, kterými se inspirovat, je případ Rylands v. Fletcher[12] z roku 1868 stanovující pravidlo objektivní odpovědnosti za škodu, jež je založena zanedbáním potřebného dohledu a péče. Později byl tento princip vztáhnut i na případy týkající se automobilů[13] a zacházení s elektřinou[14]. Je tudíž nutné počítat s možností, že v budoucnu bude na jeho základě odpovědný za škodu způsobenou autonomně jednající umělou inteligencí také uživatel, jenž nad ní zanedbal náležitý dohled.

Konkrétnější obrysy možné právní regulace se však v obou zemích týkají především jednoho specifického úseku autonomně rozhodujících systémů, kterým jsou autonomní motorová vozidla.

Centrum pro autonomní motorová vozidla při Ministerstvu dopravy Spojeného království vydalo v lednu 2017 zprávu zabývající se náhradou škody způsobenou právě těmito vozidly.[15] Ve zprávě je především zdůrazněna nutnost vytvoření nového systému pojištění, který předpokládá jak škodu způsobenou vozidly zcela autonomními, tak těmi, jež ke svému provozu zásahy člověka částečně vyžadují. Zmíněna je také možnost následného vymáhání škody pojišťovnou po výrobcích automobilů v případě absence liberačních důvodů (např. vynaložení veškeré péče při výrobě a postup v souladu s nejnovějším vědeckým poznáním).

Problematiku autonomních automobilů ve Spojených státech podrobně analyzuje zpráva americké Asociace pro spravedlnost z února 2017.[16] Zpráva se mimo jiné snaží vyvrátit argumenty zastánců omezené odpovědnosti výrobců založené na možnosti rychlejšího vývoje inovací, přičemž klade důraz především na bezpečnost a ochranu lidského zdraví. Jako nejvhodnější princip pro náhradu případné škody je zde z dlouhodobého hlediska uvedena objektivní odpovědnost výrobce. Jako vhodný postup pro krátkodobý časový horizont však Asociace pro spravedlnost preferuje přenechání problematiky na přirozeném vývoji judikatury.

Japonsko

O důležitosti robotiky v Japonsku nemůže mít nikdo nejmenších pochyb. Právo upravující umělou inteligenci a související odpovědnost za škodu se však i zde nachází stále v plenkách. Příslušná existující právní úprava pak především opět míří na autonomní motorová vozidla.

Současná autonomní vozidla (stále počítající s případnou nutností manuálního ovládání) jsou zde prodávána s vědomím, že řidič je za škodu odpovědný i v případě, kdy se vozidlo nachází ve zcela autonomním režimu.[17] Přístup k odpovědnosti za škodu způsobenou autonomními vozidly vyšší kategorie, která ke svému provozu nevyžadují lidských zásahů a která by se na silnicích měla standardně objevovat do roku 2021[18], stále není vymezen.[19]

Jeden ze směrů, kterým by se právní vývoj odpovědnosti za škodu v širším pojetí umělé inteligence mohl v dalších letech také ubírat, byl představen koncem roku 2016. Úprava míří především na prevenci škody prostřednictvím vytvoření příslušných bezpečnostních certifikací.[20] Větší stroje disponující umělou inteligencí tak nebudou smět mít výkon větší, než je nutný k naplnění jejich účelu, systémy umělé inteligence budou muset být pod neustálým lidským dohledem a v neposlední řadě je důraz kladen na kybernetickou bezpečnost osobních údajů.

U škody způsobené systémem umělé inteligence schopným učení má být zohledněna i míra přičinění lidského učitele.

První část článku si můžete přečíst zde.


[1] ZPRÁVA obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (2015/2013(INL)) ze   dne 27. 1. 2017 <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//CS>

[2] Robots: Legal Affairs Committee calls for EU-wide rules, European Parliament News, 12-01-2017 <http://www.europarl.europa.eu/news/en/news-room/robots-legal-affairs-committee-calls-for-eu-wide-rules>

[3] Roboti v Evropském parlamentu, Evropský parlament Zpravodajství, 09-02-2017 <http://www.europarl.europa.eu/news/cs/news-room/20170206STO61356/roboti-v-evropskem-parlamentu>

[4] WENG, Y-H. A European perspective on robot law: Interview with Mady Delvaux-Stehres <http://robohub.org/a-european- perspective-on-robot-law-interview-with-mady-delvaux-stehres/>

[5] Guidelines on Regulating Robotics D6.2 RoboLaw, 22/09/2014 <http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf>

[6] Bod 54 ZPRÁVY

[7] Bod 55 ZPRÁVY

[8] THIERER, A. When the Trial Lawyers Come for the Robot Cars, Slate, June 10, 2016<http://www.slate.com/articles/technology/future_tense/2016/06/if_a_driverless_car_crashes_who_is_liable.htm     l>

[9] Robotics and artificial intelligence, House of Commons, Science and Technology Committee, 12 October 2016 <https://www.publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf>

[10] Profesní sdružení pro solicitors – britské právníky poskytující komplexní právní služby včetně zastupování před soudem 39 “one of the disadvantages of leaving it to the courts [...] is that the common law only develops by applying legal principles after the event when something untoward has already happened. This can be very expensive and stressful for all those affected” Written evidence submitted by The Law Society (ROB0037), April 2016, <http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/32616.html>

[11] “one of the disadvantages of leaving it to the courts [...] is that the common law only develops by applying legal principles after the event when something untoward has already happened. This can be very expensive and stressful for all those affected” Written evidence submitted by The Law Society (ROB0037), April 2016 <http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology- committee/robotics-and-artificial-intelligence/written/32616.html>

[12] KEMP, R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016 <http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016- 2.pdf>

[13] Případ Musgrove v Pandelis [1919]

[14] Případ National Telephone Co. v Baker [1893]

[15] Pathway to driverless cars: Consultation on proposals to support Advanced Driver Assistance Systems and Automated Vehicles Government Response, Department for Transport, January 2017

[16] Driven to Safety: Robot Cars and the Future of Liability, American Association for Justice, February 2017

[17] Advent of self-driving autos spurs debate on accident liability in Japan, The Japan Times, Oct 27, 2016 <http://www.japantimes.co.jp/news/2016/10/27/business/corporate-business/advent-self-driving-autos-spurs-debate-accident-liability-japan/#.WKB5H3-B531>

[18] Blíže v části 4.1. věnující se autonomním motorovým vozidlům

[19] Self-driving vehicles to be tested near Haneda Airport, The Japan News, January 30, 2017 <http://the-japan-news.com/news/article/0003479265>

[20] Japan eyes safety certification for AI tech, Nikkei Asian Review, December 31, 2016<http://asia.nikkei.com/Politics-Economy/Policy-Politics/Japan-eyes-safety-certification-for-AI-tech?page=1>

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články