Odpovědnost za škodu způsobenou umělou inteligencí

Počítače v současnosti vykonávají stále více činností, které dříve zastával člověk. Algoritmy rozhodují o tom, zda banka poskytne klientovi úvěr, ve zdravotnictví se využívají algoritmy na určení diagnózy, automobilky vyvíjí autonomní vozidla.

of counsel v GHS Legal, s.r.o. / Ústav státu a práva AV ČR, v. v. i.
Foto: Fotolia

Typické pro tyto algoritmy je, že se dokáží samy učit. To znamená, že negenerují výstup pouze na základě určitých instrukcí, ale (také) na základě vzorců, které si samy odvodily. Proto ani jejich tvůrce neví nebo nedokáže jednoduše zjistit, proč v konkrétním případě algoritmus generoval určitý výsledek. Tím méně toto může vědět a kontrolovat uživatel. Nicméně aplikace na bázi výše uvedených algoritmů mohou způsobit škodu samotnému uživateli nebo další osobě.

Tyto technologie bývají nazývány umělou inteligenci. I když se o skutečnou umělou inteligenci nejedná, tento pojem je hojně používán, a to i v oficiálních dokumentech. Proto je termín umělá inteligence používán i v tomto článku.

Aktivity Evropské unie v oblasti odpovědnosti

Obecně rozlišujeme dva druhy odpovědnosti, a to odpovědnost subjektivní, u které se zkoumá přítomnost zavinění škůdce a odpovědnost objektivní, kde je zavinění odpovědné osoby irelevantní. V Občanskoprávních pravidlech pro robotiku akcentuje Evropský parlament zásadu absolutní odpovědnosti neboli objektivní odpovědnosti ve vztahu k aplikacím umělé inteligence. Zároveň zmiňuje přístup založený na řízení rizik, který je zaměřen na osobu, která je za určitých okolností schopna minimalizovat rizika a řešit negativní dopady technologie.[1] Důraz na objektivní odpovědnost v případě využívání umělé inteligence je důsledkem skutečnosti, že poškození nebudou zpravidla schopni prokázat zavinění konkrétní osoby, které často nemusí být přítomno, a nemohli by se tudíž náhrady škody domáhat.

Na konci roku 2019 vydala Evropská komise Zprávu Expertní skupiny pro odpovědnost a nové technologie (dále jen: „zpráva“). Tato zpráva zmiňuje celou řadu aspektů odpovědnosti za umělou inteligenci a uvádí škálu doporučení.[2] Zpráva kupříkladu navrhuje, aby objektivní odpovědnost za určité systémy umělé inteligence, které jsou provozovány ve veřejném prostoru a mohou tak způsobit značnou škodu, nesl tzv. operátor, tedy osoba, která kontroluje riziko spojené s provozováním této technologie. Zde zpráva míří hlavně na provoz autonomních vozidel, dronů apod. 

Zpráva se také dotýká problematiky nepřímé odpovědnosti, tzn. odpovědnosti za použití nové technologie v situacích, kdy by odpovědná osoba využila lidského pomocníka. Zde experti vyzývají k uplatnění zásady funkční ekvivalence. Osoba, která technologii použila, by měla být odpovědná stejně, jako by využila služeb člověka. Přestože doporučení obsahují v převážné většině pravidlo objektivní odpovědnosti, zpráva nevylučuje ani odpovědnost subjektivní. Odpovědný na základě zavinění by mohl být operátor, a to za výběr systému sloužícího konkrétnímu úkolu a za jeho monitorování a udržování.

Odpovědnost podle platného českého práva

Je třeba si uvědomit, že aplikace na bázi umělé inteligence netvoří homogenní skupinu. Stejně tak nelze (a v budoucnu pravděpodobně ani nebude možné) využít pouze jedno ustanovení občanského zákoníku upravující odpovědnost za škodu.

V souvislosti s umělou inteligencí a vznikem škody se pravidelně zmiňují autonomní vozidla. České právo, na rozdíl od některých právních řádů, činí objektivně odpovědného za škodu provozovatele vozidla (§ 2927 a násl. OZ). Již nyní není tedy nutné dokazovat zavinění v případě uplatnění nároku na náhradu škody způsobené provozem vozidla. Lze předpokládat, že se zavedením autonomních vozidel do provozu odpovědnost provozovatele nezmění.

Na umělou inteligenci, která byla použita uživatelem při poskytování služeb, by bylo možno aplikovat dvě ustanovení občanského zákoníku. Prvním z nich je škoda způsobená věcí podle § 2936 OZ. Kdo je povinen někomu něco plnit a použije při tom vadnou věc, nahradí škodu způsobenou vadou věci. To platí i v případě poskytnutí zdravotnických, sociálních, veterinárních a jiných biologických služeb. Věcmi, které byly použity při plnění závazku, budou typicky různé přístroje a stroje, které jejich uživatel použil při poskytování služeb druhé smluvní straně. Praktickým problémem při aplikaci tohoto ustanovení bude dokazování existence vady algoritmu, což bude pro poškozeného mnohdy těžké, ne-li nemožné.

Poškozený by mohl uplatnit nárok na náhradu škody i podle ustanovení § 2824 OZ. Kdo provozuje závod nebo jiné zařízení sloužící k výdělečné činnosti, nahradí škodu vzniklou z provozu, ať již byla způsobena vlastní provozní činností, věcí při ní použitou nebo vlivem činnosti na okolí. Povinnosti se zprostí, prokáže-li, že vynaložil veškerou péči, kterou lze rozumně požadovat, aby ke škodě nedošlo. „Pojem provozu je třeba vykládat jako činnost související s předmětem činnosti (zpravidla podnikatelské, obchodní), kterou subjekt vyvíjí zpravidla opakovaně za použití určitých organizačních opatření, někdy s využitím různých technologií či postupů, včetně věcí, jimiž je místo činnosti (provozovna) vybaveno.“[3]

Na škodu způsobenou při využívání aplikací na bázi umělé inteligence by bylo možné uplatnit ustanovení § 2939 OZ upravující odpovědnost za škodu způsobenou vadou movité věci. Škodu způsobenou vadou movité věci určené k uvedení na trh jako výrobek za účelem prodeje, nájmu nebo jiného použití nahradí ten, kdo výrobek nebo jeho součást vyrobil, vytěžil, vypěstoval nebo jinak získal, a společně a nerozdílně s ním i ten, kdo výrobek nebo jeho část označil svým jménem, ochrannou známkou nebo jiným způsobem. Vada je v tomto ustanovení omezena na movité věci a nevztahuje se tedy na software. Škodu musí způsobit vadný hmotný movitý předmět. V současné době se diskutuje o revizi směrnice 85/374/EHS o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky.[4]

Závěr

Umělá inteligence bývá stále více využívána v různých oblastech lidské činnosti. I při požívání umělé inteligenci budou vznikat škody na zdraví i na majetku, a je tudíž nezbytné se zabývat otázkami odpovědnosti souvisejícími s umělou inteligencí. Současná právní úprava je aplikovatelná jen do určité míry. Stejné platí i o právní úpravě v jiných evropských zemích. Toto je důvodem, proč je odpovědnost za škodu způsobená technologiemi na bázi umělé inteligence velkým tématem i pro evropského zákonodárce.


[1] Občanskoprávní pravidla pro robotiku. Dostupné z: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_CS.html.

[2] Liability for Artificial Intelligence Report from the Expert Group on Liability and New Technologies-New Technologies Formation. Dostupné z: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608.

[3] Hulmák, M. a kol.: Občanský zákoník VI. Závazkové právo. Zvláštní část (§ 2055–3014). Komentář. Praha: C. H. Beck.

[4] Např. White Paper On Artificial Intelligence - A European approach to excellence and trust. Dostupné z: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články