Umělá inteligence v justici II. Zdroj: Redakce

Umělá inteligence v justici II.

Vážený a milý kolega, ústavní soudce Tomáš Lichovník, zde 22. října varoval před nekritickým nadšením z využívání výpočetní techniky a umělé inteligence v soudnictví.

JUDr. Libor Vávra

JUDr. Libor Vávra

předseda Městského soudu v Praze

JUDr. Libor Vávra

předseda Městského soudu v Praze

Svůj apel zakončil slovy: Stálé podezírání, strašení všudypřítomnou korupcí, volání po transparentnosti všeho a všech nahrává lákavým řešením, která by z rozhodování co nejvíce odstranila (subjektivní) lidský faktor. Obávám se, že by jej neodstranila, pouze skryla. A že místo jmenovaného soudce či soudního funkcionáře by rozhodoval někdo jiný, skrytý, neznámý. Není lepší věřit konkrétnímu člověku, s konkrétní odpovědností?

Ta poslední věta podle mě neměla končit otazníkem, ale vykřičníkem. Samozřejmě, že veškerá dovednost umělé inteligence je vynikajícím pomocníkem pro konkrétní lidské konání, rozhodování soudů nevyjímaje. Ale jenom pomocníkem.

Není žádným tajemstvím, že i v soudnictví se umělá inteligence již dávno v zahraničí jako pomůcka používá, nebo alespoň testuje. Z kusých zpráv dotčených jurisdikcí vyplývá, že výsledky automatizovaného „soudce“ jsou mírně řečeno diskutabilní. Ač důsledně není součástí vstupních dat třeba rasový původ obžalovaných, umělá inteligence profil pachatele dotvoří a navrhuje ukládat podstatně přísnější tresty sociálně zranitelným minoritám. Na straně druhé dokáže tentýž program nemilosrdně odhalit lokální předsudky a nešvary soudců, čili rozdílnosti ve vnímání trestních kauz mezi jednotlivými oblastmi státu. Zkrátka, zatím o umělé inteligenci v trestním soudnictví nelze mluvit jako o pomůcce, která by vnímání výkonu spravedlnosti bez pochybností posunula dále, než to doposud dokázali soudci samotní.

Pokud kolega Lichovník zmínil, že důležité je i vědět, kdo příslušný počítačový program stvořil a proč, tak potvrzující příklad jeho myšlenky přinesla naše média právě v uplynulých dnech. Šlo o studii nabízející test, jak má být naprogramované autonomně řízené auto pro případ situace, kdy bude nutné volit mezi smrtí různých účastníků dopravní situace, či dokonce posádky vozu samotné:

V roce 2014 spustil MIT Media Lab internetový experiment Moral Machin, v němž si každý může zkusit roli autonomního vozu řízeného umělou inteligencí. Má přejet raději pár dětí, nebo kočiček? Sportovce, nebo tlusťocha? Nebo má v plné rychlosti strhnout volant do betonové zdi, čímž zachrání všechny na ulici, ale zahubí svou posádku?

Dle magazínu MIT Technology Review, zatímco individualistické společnosti typu Francie nebo Kanady obětují starého člověka na úkor života mladého, kolektivistické kultury typu Číny nebo Jižní Koreje mají větší úctu naopak ke starým a pošlou vozidlo raději přejet mladé. Neméně zajímavé jsou i takové věci, že pro účastníky z individualistických zemí typu USA je zásadní zachránit co nejvíce lidí, naopak respondenti z Číny chtějí řídit auto, které dá přednost životům své posádky.[1]

Takže na příkladu mnohem jednodušším, než běžně řeší soudci, vidíme, že, kdybychom měli žít v době, kdy budou soudit počítače, nebude důležité, co vypočítá umělá inteligence, ale co si myslí dávno před tím konkrétní programátoři.

Kdo má za pár let programovat vašeho soudce? Číňan, nebo Američan? A od koho z nich si koupíte auto? Od Číňana? No jasně, ale sousedům asi doporučíte vůz od Američana, že?


 

[1] Citováno dle časopisu Reflex z 1. Listopadu 2018, „Babka má smůlu“.

justice umělá inteligence

Diskuze k článku 0 komentářů

Všechny komentáře se zobrazí po vstupu do diskuze

Vstoupit do diskuze