AI

Umělá inteligence – nové výzvy z pohledu osobních údajů

V roce 2023 jsme zažili vzestup umělé inteligence (AI) a její rozšíření k masovému používání uživa­teli po celém světě. Umělá inteligence však také přináší významné výzvy v oblasti ochrany osobních údajů, tak jako všechny předchozí výrazné změny v oblasti moderních technologií.

MM
katedra mezinárodního a evropského práva Právnické fakulty Univerzity Palackého v Olomouci

Celosvětově lze sledovat dva přístupy k AI v souvislosti s ochranou osobních údajů, jeden přístup reprezentují zejména Spojené státy americké a druhý přístup reprezentuje zejména Evropská unie. USA se zaměřují zejména na inovace a flexibilitu, zatímco EU klade důraz na ochranu soukromí a bezpečnost nad technologický posun.

Úvod

Když v roce 1994 přišel na trh telefon IBM Simon, jednalo se o první smartphone na světě. I když to byl tehdy neúspěšný model, jenž se po roce prodeje a pouhých 50 000 prodaných kusech přestal prodávat, jednalo se o předzvěst současných chytrých telefonů. A samotné smartphony, respektive nepřeberné množství aplikací v nich, byly a stále jsou výzvou v oblasti regulace. A to nejen z hlediska ochrany uživatelů ve smyslu ochrany lidských práv, ale i například ve smyslu ekonomickém. Francouzský CNIL si pro období 2022–2024 sta­novil jako jednu ze svých priorit „sběr osobních údajů v aplikacích pro chytré telefony“,čímž dle mínění autora dokazuje, jak jeden přelomový produkt z roku 1994 dokáže výraz­ ně ovlivňovat legislativu i o 30 let později.[1]

V únoru roku 2004, deset let po prvním smartphonu, vznikla sociální síť Facebook. Tehdy síť přístupná pouze studentům, dnes sedmá největší společnost světa z pohledu tržní kapitalizace. I tento milník byl a stále je velkou výzvou, zejména z hlediska ochrany osobních údajů. Společnost Meta zejména kvůli ochraně osobních údajů dostala opakovaně pokuty od orgánů EU. Jedna z posledních, v celkové výši 1,2 miliard eur, pak byla udělena za přenášení dat uživatelů do USA.Nejde však jen o společnost Meta, problémy s ochranou osobních údajů a dalších lidských práv mají i jiné tzv. BigTech společnosti, které také dostaly pokuty od EU, například Google či Apple.[3][2]

Od vzniku Facebooku uplynulo skoro 10 let a díky Edwardu Snowdenovi (nejen) EU zjistila, že porušování lidských práv není doménou jen samotných Big Tech společností, ale i Spojených států, které ve spolupráci s Big Tech společnostmi získávaly osobní konverzace a historii vyhledávání uživatelů. Pro rok 2014 tak bylo výzvou, jak tento nejen práv­ ní, ale i politický problém vyřešit. V souvislosti s touto informací považuje autor za vhod­né zmínit judikaturu Soudního dvora EU v oblasti přenosu osobních dat do USA, a sice případy Schrems I[4]a Schrems II.Jedná se tedy o téma, které již v minulosti v Evropské unii silně rezonovalo.[5]

I aktuální rok 2025 je ve znamení výzev v oblasti moderních technologií a ochrany lidských práv uživatelů. Od roku 2023 totiž lze pozorovat velký boom umělé inteligence (AI). Stala se součástí nástrojů, jež využívají uživatelé na denní bázi. Jenže, jak jsme již zvyklí z digitálního světa, čím větší je naše aktivita na internetu, tím větší zanecháváme digitál­ ní stopu. A internet, ať již se jedná o jednotlivce, či soukromé společnosti, toho o nás díky tomu ví více a více. Bohužel tak zná i značně citlivé informace, což je nežádoucí jev. A to samé zanechávání digitálních stop hrozí i u AI. Jelikož se jedná o poměrně aktuální téma, je zajímavé sledovat mezikontinentální přístup v regulaci AI zejména mezi USA a EU, protože každý z nich zvolil zcela odlišný přístup. Předkládaný příspěvek se tak pokusí odpovědět na otázku, jak na konkrétní výzvy reaguje EU na základě analýzy aktuálního přístupu EU v oblasti regulace v kontextu ochrany osobních údajů uživatele, tedy jednu ze stěžejních hodnot stanovených EU, a odhalit aktuální nedostatky v přístupu EU k AI.

1. EU vs. USA

Přístup USA k AI je ovlivněn dvěma významnými proměnnými. Zaprvé, AI je vytvářena a provozována Big Tech společnostmi, jako je Microsoft, Google, Meta a další. A právě pří­ stup k těmto společnostem je velmi vstřícný. Důvodů je více. Jedním z nich je důvod eko­ nomický – velké technologické společnosti sídlící v USA znamenají zvýšenou zaměstna­nost a velké množství peněz pro ekonomiku na daních a odvodech. Také v USA funguje velmi silný lobbing těchto společností, který se projevuje při projednávání nových zákonů, což dokazuje i počet skupin lobbujících u federální vlády USA za umělou inteligenci, kte­rý se od roku 2022 do roku 2023 téměř ztrojnásobil.BigTech společnosti tak mají v USA silnější postavení a také zakládají společné dohody a uskupení, například Partnerství pro AI, ve kterém jsou velké technologické společnosti IBM, Intel, Amazon, Apple a Meta. Tato iniciativa sdružuje technologické společnosti, akademické instituce, výzkumné organizace a neziskové skupiny, aby společně diskutovaly etické otázky, transparentnost a spravedlnost v oblasti AI. Iniciativa spojuje akademiky, vývojáře, vlády i nevládní orga­nizace, publikuje výzkumné zprávy a doporučení pro vlády a firmy ohledně bezpečnosti a regulace AI a usiluje o to, aby byla AI vyvíjena a používána spravedlivě a transparentně.Toto spojení Big Tech s jinými institucemi a činnost sdružení opět posiluje jejich posta­vení. Silná pozice Big Tech společností však s sebou přináší i výhody, protože tzv. public- private partnership dokáže právě díky rychlejším reakcím BigTech společností reagovat mnohem rychleji v nápravě porušení lidských práv. Zejména v případě osobních údajů se jedná o citlivou oblast, kde rychlejší náprava stavu je bezpochyby vítaným aspektem. Autor v jednom výzkumu zkoumal vytvoření Google formuláře pro žádost o využití práva být zapomenut pro jednotlivce v EU. Google jej vytvořil a zpřístupnil do 20 dnů. V případě čistě legislativního procesu se autor dostal k výsledku za rok.A zde je třeba zdůraznit, že 20 dní vs. 1 rok je v tak citlivé oblasti, jako jsou osobní údaje, značně citelný a velký rozdíl. USA také navíc umožňují větší potenciál rozvoje a využití AI. To ve své podstatě nemusí být z pohledu ochrany osobních údajů negativní, jelikož, i když to na první pohled může vypadat paradoxně, i AI může pomoci k efektivní ochraně osobních údajů v oblasti AI, která vede k zajištění důvěrnosti, integrity a dostupnosti osobních dat a minimalizuje riziko jejich zneužití. Se zmiňovanými výhodami přístupu USA souvisí však i jeho nevýhody. A to nejen kvůli velkému či většímu vlivu Big Tech společností na legislativní proces ať již napřímo, nebo skrze lobbing, který je v USA rozšířen a má vzrůstající tendenci.Zejména je zde obava před převládnutím snahy o zisk nad ochranou osobních údajů, přičemž výskyt tohoto jevu potvrdila zpráva Federální obchodní komisea snaží se mu zamezit Evropský sbor pro ochranu osobních údajů.Svou roli hraje také první dodatek ústavy,díky kterému v proporčním testu převládá právo být informován nad ochranou osobních údajů, což je další komplikace pro jejich ochranu.[12][11][10][9][8][7][6]

Naproti tomu v proporčním testu v EU právo na ochranu jednotlivce spíše převažuje nad právem veřejnosti na informace, protože omezení práva na ochranu osobních údajů mají být výjimkou, nikoli pravidlem.Tento přístup se projevuje i ve vztahu k lobbingu BigTech společností, které v EU mají utlumenější a kooperativnější přístupoproti agre­sivnímu lobbingu ve stylu „vítěz bere vše“, jako tomu je v USA.Zároveň však přístup lob­ bingu v EU může být rizikový z důvodu neetického chování.Silná regulace chrání práva uživatelů, ovšem negativně se projevuje v rozvoji AI, která je v EU těmito regulacemi ome­zována.V USA tak lze vidět prostor pro rozvoj AI a nových technologií, ovšem ochrana uživatelů je zde lehce upozaděna. Naproti tomu v EU je ochrana uživatelů primární záleži­tostí, což se ale negativně podepisuje na rozvoji AI v Evropě a usazování technologických společností zde. Ochrana uživatele zde totiž má přednost i před maximálním využitím potenciálu společností a jejich ziskem. Z hlediska legislativního vývoje a směřování EU se jedná o kontinuální pokračování ochrany uživatele známého z GDPR,která je rozšířena na AI, což vyústilo v navržení a přijetí například AI Act.Proto se mezi akademiky, spo­lečnostmi i akciovými investory mluví o „zbytečně velké byrokratizaci EU“.Autor za­ stává názor, že efektivní ochrana lidských práv vyžaduje srozumitelnou a systematickou legislativu, která umožňuje její konzistentní aplikaci a zároveň minimalizuje nadměrnou administrativní zátěž. Tento aspekt je v případě ochrany osobních údajů minimálně diskutabilní, a lze tedy chápat onu kritiku přílišné regulace a byrokratizace AI v EU. Autor nepopírá, že ochrana osobních dat je v EU na velmi vysoké úrovni, a je to názor napříč akademickou sférou.Regulace ochrany osobních údajů není pouze GDPR, které je centrálním „kodexem“, ale je roztříštěna do velkého množství legislativních aktů.A čím více právních předpisů je, tím méně je právní regulace srozumitelná a systematická, tedy jed­ná se o negativní jev. Taktéž je výraznou nevýhodou, že je legislativní proces ve srovnání s technologickým pokrokem pomalý a nedokáže na něj reagovat.[23][22][21][20][19][18][17][16][15][14][13]

Je tedy otázkou, kde se celosvětově nastaví konsenzus mezi ochranou lidských práv a podporou rozvoje AI. EU podnikla významný krok směrem k celosvětové unifikaci regulace AI přijetím Rámcové úmluvy o umělé inteligenci a lidských právech, demokracii a právním státě, navržené Radou Evropy a podepsanou 5. září tehdejší místopředsedkyní Evropské komise pro hodnoty a transparentnost Věrou Jourovou.I když by celosvětový konsenzus k regulaci AI byl pozitivním krokem,USA i Čína zaujaly spíše rezervovaný postoj, protože USA preferují flexibilnější, méně restriktivní přístup a obávají se negativní­ ho dopadu na inovacea Čína sleduje především své vlastní strategické cíle v oblasti AI a klade důraz na státní kontrolu.Dle mínění autora tak nejhlasitější jména jako EU, USA, či Čína budou muset paradoxně pro dosažení shody v oblasti AI počkat na ty nejpomalejší, včetně afrických států. Teprve až bude mít každý kontinent stanovenou svou strategii pro regulaci AI, bude možné najít průniky napříč kontinenty a teprve na nich pak vystavět souhrn s minimálními požadavky na regulaci AI. Teprve poté lze najít jednoznačnou odpověď na otázku, kde přesně udělat pomyslný bod mezi „přílišnou regulací kvůli ochraně lidských práv“ a „žádnou regulací pro maximální rozvoj AI“.[27][26][25][24]

2. Ochrana uživatelů u AI

Zmíněná regulace AI ze strany Evropské unie je v akademickém prostředí vnímána roz­ poruplně. Musch, Borrelli a Kerrigan analyzují AI Act jako významný milník v oblasti glo­bální regulace AI a zdůrazňují jeho potenciál formovat mezinárodní standardy a podpo­rovat harmonizaci.Wilczek, Thäsler­Kordonouri a Eder naopak výzkumem kulturních faktorů ovlivňujících vnímání rizik spojených s AI preferují méně restriktivní přístup.Zejména je kritizována z důvodů týkajících se nadměrné regulace, což z hlediska nestát­ních aktérů zmiňují Tallberg, Lundgren a Geith, obavy z nadměrné regulace mezi obchod­ními aktéry;složitosti implementacea hodnocení rizik.Na druhou stranu je ovšem vhodné zdůraznit, že v dnešních dnech používaná AI není jen textová platforma založená na pravděpodobnosti posloupnosti slov. Od roku 2023 překonává AI lidskou výkonnost v některých měřítkách, včetně klasifikace obrázků, vizuálního uvažování a porozumění angličtině.AI se také používá i při rozhodování v bance u žádostí o úvěr,ve zdravotnic­ tví,pro předpovědi recidivy u obžalovanýcha další. Tato data mohou zahrnovat citlivé osobní údaje, jako jsou zdravotní záznamy (rozpoznání obrazu i v lékařství, při rozeznání rakoviny, Alzheimera a další), finanční data nebo geolokační údaje. AI umí také poznat jednotlivce díky charakteristickým rysům, jako jsou například obličej,řečnebo styl chůze.Také čerpá z internetových novin, což se aktuálně nelíbí například vydavatelství New York Times.Že i v nich se vyskytují citlivé osobní informace, je známo například z rozsudku ve věci Google Spain.Bez řádných bezpečnostních opatření mohou být tato data vystavena riziku úniku nebo zneužití. Nabízí se však otázka, jak zareagovat a efektiv­ně chránit osobní údaje v době AI.[41][40][39][38][37][36][35][34][33][32][31][30][29][28]

Bezesporu je třeba, aby se sami uživatelé snažili aktivně chránit své osobní údaje při užívání AI a aby věděli, kým a jak jsou zpracovávány, respektive zda jsou poskytovány i tře­ tím stranám. Možností, jak toho docílit, je více, většinou se neliší od obecných doporučení o bezpečnosti na internetu. Jedná se zejména o znalost zásad ochrany osobních údajů, omezení sdílení údajů, používání silných hesel a dvoufaktorové ověřování, používání důvěryhodných aplikací a jejich aktualizaci a preventivní opatrnost při práci s AI chatboty a asistenty. I přes tato opatření není žádná metoda ochrany dat 100% bezpečná a stále je z velké části zodpovědností samotného uživatele, zda je opatrný při sdílení osobních údajů online. Jako příklad lze uvést již zmíněný případ Google vs. Spain. Osobní údaje pana Costeji z tohoto případu nejsou známé kvůli nedostatečné legislativě nebo soudnímu rozhod­ nutí, ale kvůli jeho vlastnímu jednání, kdy dával rozhovory o svém případu do médií.Ale zmiňovaná silná pozice Big Tech společností zprostředkujících AI skrze jejich AI systémy je důvodem, proč i přes veškerou snahu o co největší ochranu osobních údajů není samotná ochrana soukromí ze strany uživatele dostačující. Dal by se zde použít příměr k Davidu s Goliášem, ovšem s tím rozdílem, že tentokrát by měl Goliáš (Big Tech) nad Da­ videm (uživatelem) obrovskou převahu. Regulace ze stran států, respektive EU jako celku v případě naší geopolitické oblasti, se tedy zdá potřebná.[42]

Při stanovení, jak obsáhlá či podrobná by měla právní regulace být, je vhodné si nejprve určit, jaká jsou rizika v oblasti ochrany osobních údajů u AI v kontextu zpracovávaných údajů. To bývá mnohdy vypsáno v podmínkách, se kterými musí uživatel souhlasit, ovšem výzkum společnosti Deloitte ukázal, že tyto podmínky nečte přes 91 % uživatelů, přičemž v kategorii 18–34 let dokonce 97 % uživatelů.Tim Sandle z Digital Journal poukázal na průzkum webové společnosti ProPrivacy.com, kde si podmínky nepřečetlo, a přesto souhlasilo závratných 99 % uživatelů.Ti odsouhlasili obchodní podmínky, aniž by je četli.Pro drtivou většinu uživatelů, kteří obchodní podmínky nečtou, tedy může dojít k negativnímu překvapení.[45][44][43]

 Článek byl publikován v časopise Právník č. 4/2025. Pokračování je dostupné zde.


[Clôturée] Collecte de données dans les applications mobiles: la CNIL lance une consultation publique sur les enjeux économiques. In: Cnil [online]. 18. 1. 2023 [cit. 2025-02-09]. Dostupné z: https://www.cnil.fr/fr/cloturee-collecte-de- donnees-dans-les-applications-mobiles-la-cnil-lance-une-consultation-publique?trk=article-ssr-frontend-pulse_little- text-block; Plan Stratégique 2022–2024. In: Cnil [online]. 17. 2. 2022 [cit. 2025-02-09]. Dostupné z: https://www.cnil.fr/ sites/cnil/files/atoms/files/cnil_plan_strategique_2022-24.pdf#page=7.[1]

1.2 billion euro fine for Facebook as a result of EDPB binding decision. In: European Data Protection Board [online]. 22. 5. 2023 [cit. 2025-02-09]. Dostupné z: https://www.edpb.europa.eu/news/news/2023/12-billion-euro-fine-facebook- result-edpb-binding-decision_en.[2] 

STOLTON, S. Apple, Google, Meta Probed by EU in Test of New Digital Law. In: Bloomberg [online]. 25. 3. 2024 [cit. 2025-02-09]. Dostupné z: https://www.bloomberg.com/news/articles/2024-03-25/apple-google-meta-probed-by-eu- in-test-of-new-digital-law.[3]

Rozsudek Soudního dvora ze dne 6. října 2015, Maximilian Schrems v Data Protection Commissioner, C-362/14.[4] 

Rozsudek Soudního dvora ze dne 16. července 2020, Data Protection Commissioner v Facebook Ireland Limited a Ma- ximillian Schrems, C-311/18.[5] 

HENSHALL, W. There’s an AI Lobbying Frenzy in Washington. Big Tech Is Dominating. In: Time [online]. 30. 4. 2024 [cit. 2025-02-09]. Dostupné z: https://time.com/6972134/ai-lobbying-tech-policy-surge/.[6] 

Partnership on AI [cit. 2025-02-09]. Dostupné z: https://partnershiponai.org/.[7] 

MACH, M. the ‘Right to Be Forgotten’ – by Watchdogs and Open-Source Search Engines. In: ŠIŠKOVÁ, N. (ed.). Legal Issues of Digitalisation, Robotization and Cyber Security in the Light of EU Law. Alphen aan den Rijn: Wolters Kluwer, 2024, s. 60–69.[8] 

STRICKLAND, J. America’s Crowded Statehouses: Measuring and Explaining Lobbying in the U.S. States. State Politics & Policy Quarterly. 2019, Vol. 19, No. 3 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1177/1532440019829408.[9] 

A Look Behind the Screens: Examining the Data Practices of Social Media and Video Streaming Services. In: Federal Trade Commission [online]. 2024 [cit. 2025-02-21]. Dostupné z: https://www.ftc.gov/system/files/ftc_gov/pdf/Social- Media-6b-Report-9-11-2024.pdf.[10] 

Prohlášení 3/2024 o úloze orgánů pro ochranu osobních údajů v rámci aktu o umělé inteligenci. In: European Data Protection Board [online]. 16. 6. 2024 [cit. 2025-02-09]. Dostupné z: https://www.edpb.europa.eu/system/files/2024-07/ edpb_statement_202403_dpasroleaiact_en.pdf.[11] 

První dodatek, Ústava Spojených států amerických.[12] 

Rozsudek Soudního dvora ze dne 21. prosince 2016, Tele2 Sverige AB v Post – och telestyrelsen a Secretary of State for the Home Department v Tom Watson, Peter Brice, Geoffre Lewis, spojené věci C-203/15 a C-698/15, body 89 a 104.[13] 

WOLL, C. The brash and the soft-spoken: Lobbying styles in a transatlantic comparison. Interest Groups & Advocacy. 2012, Vol. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1057/iga.2012.10.[14] 

MESTEY-COLON, I. Following the Money-Trail: A Cross-Cultural Analysis of Lobbying Expenditures in the United States and European Union. In: The Yale Review of International Studies [online]. 26. 11. 2024 [cit. 2025-02-09]. Dostupné z: https://yris.yira.org/column/following-the-money-trail-a-cross-cultural-analysis-of-lobbying-expenditures-in-the-united- states-and-european-union/#14beeb86-162f-4c03-a549-8b9e39f420b7.[15] 

GOUJARD, C. Big Tech accused of shady lobbying in EU Parliament. In: Politico [online]. 14. 10. 2022 [cit. 2025-02-09]. Dostupné z: https://www.politico.eu/article/big-tech-companies-face-potential-eu-lobbying-ban/.[16] 

UFERT, F. AI Regulation Through the Lens of Fundamental Rights: How Well Does the GDPR Address the Challenges Posed by AI? European Papers. 2020, Vol. 5, No. 2, s. 1087–1097.[17] 

Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislos- ti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).[18] 

Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci).[19] 

PRESUEL, C. R. – SIERRA, M. J. The Adoption of Artificial Intelligence in Bureaucratic Decision-making: A Weberian Perspective. Digital Government Research and Practice. 2023, Vol. 5, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/ 10.1145/3609861; BULLOCK, B. J. Artificial Intelligence, Discretion, and Bureaucracy. The American Review of Public Administration. 2019, Vol. 49, No. 7 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1177/0275074019856123.[20] 

BYGRAVE, L. A. Prospects for Global Consensus. In: BYGRAVE, L. A. Data Privacy Law: An International Perspective. Oxford: Oxford Academic, 2014, s. 205–210. Dostupné z: https://doi.org/10.1093/acprof:oso/9780199675555.003.0007.[21] 

Usnesení Evropského parlamentu ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku; Návrh nařízení Evropského parlamentu a Rady o respektování soukromého života a ochraně osobních údajů v elektronických komunikacích a o zrušení směrnice 2002/58/ES (nařízení o soukromí a elektronických komu- nikacích); Nařízení Evropského parlamentu a Rady (EU) 2022/2065 ze dne 19. října 2022 o jednotném trhu digitálních služeb a o změně směrnice 2000/31/ES (nařízení o digitálních službách); Směrnice Evropského parlamentu a Rady (EU) 2019/790 ze dne 17. dubna 2019 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu a o změně směrnic 96/9/ES a 2001/29/ES 2019/790; Nařízení Evropského parlamentu a Rady (EU) 2023/2854 ze dne 13. prosince 2023 o harmonizovaných pravidlech pro spravedlivý přístup k datům a jejich využívání a o změně nařízení (EU) 2017/2394 a směrnice (EU) 2020/1828 (nařízení o datech); Nařízení Evropského parlamentu a Rady (EU) 2022/868 ze dne 30. května 2022 o evropské správě dat a o změně nařízení (EU) 2018/1724 (akt o správě dat); Evropské prohlá- šení o digitálních právech a zásadách pro digitální dekádu; Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).[22] 

MANDEL, G. N. Legal Evolution in Response to Technological Change. In: BROWNSWORD, R. – SCOTFOR, E. – YEUNG, K. The Oxford Handbook of Law, Regulation and Technology. Oxford: Oxford Academic, 2017, s. 225–245. Dostupné z: https://doi.org/10.1093/oxfordhb/9780199680832.013.45.[23]

The European Commission signs historic Council of Europe Framework Convention on Artificial Intelligence and Human Rights. In: European Union External Action [online]. 10. 9. 2024 [cit. 2025-02-09]. Dostupné z: https://www.eeas.europa.eu/delegations/council-europe/european-commission-signs-historic-council-europe-framework-convention-artificial- intelligence-and_en?s=51.[24] 

WALTER, Y. Managing the race to the moon: Global policy and governance in Artificial Intelligence regulation—A con- temporary overview and an analysis of socioeconomic consequences. Discover Artificial Intelligence. 2024, Vol. 4, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s44163-024-00109-4.[25] 

DUDLEY, E. S. Lessons from the Past for Regulating AI. In: Regulatory Studies Center [online]. 12. 11. 2024 [cit. 2025-02-09]. Dostupné z: https://regulatorystudies.columbian.gwu.edu/sites/g/files/zaxdzs4751/files/2024-11/Dudley_Lessons_for_ Regulating_AI_11-2024_Working_Paper.pdf.[26] 

ROBERTS, H. – COWLS, J. – MORLEY, J. et al. The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation. AI & Society. 2021, Vol. 36, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s00146-020- 00992-2.[27] 

MUSCH, S. – BORRELLI, M. – KERRIGAN, Ch. The EU AI Act: A Comprehensive Regulatory Framework for Ethical AI Development. In: Ssrn [online]. 23. 8. 2024 [cit. 2025-02-09]. Dostupné z: https://ssrn.com/abstract=4549248.[28] 

WILCZEK, B. – THÄSLER-KORDONOURI, S. – EDER, M. Government regulation or industry self-regulation of AI? Inves- tigating the relationships between uncertainty avoidance, people’s AI risk perceptions, and their regulatory preferences in Europe. AI & Society. 2024 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s00146-024-02138-0.[29] 

TALLBERG, J. – LUNDGREN, M. – GEITH, J. AI regulation in the European Union: examining non-state actor preferences. Business and Politics. 2024, Vol. 26, No. 2 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1017/bap.2023.36.[30] 

ENGLER, A. The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment. In: Brookings Institution [online]. 25. 4. 2023 [cit. 2025-02-09]. Dostupné z: https://www.brookings.edu/articles/the-eu-and-us-diver ge-on-ai-regulation-a-transatlantic-comparison-and-steps-to-alignment/.[31] 

NOVELLI, C. – CASOLARI, F. – ROTOLO, A. et al. AI Risk Assessment: A Scenario-Based, Proportional Methodology for the AI Act. Digital Society. 2024, Vol. 3, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s44206-024-00095-1.[32] 

Artificial Intelligence Index Report 2024. In: Stanford University: Human-Centered Artificial Intelligence [cit. 2025-02-09]. Dostupné z: https://aiindex.stanford.edu/report/.[33] 

FARES, O. H. – BUTT, I. – LEE, S. H. M. Utilization of artificial intelligence in the banking sector: a systematic literature review. Journal of Financial Services Marketing. 2022, Vol. 28, No. 4 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.10 57/s41264-022-00176-7.[34] 

KITSIOS, F. – KAMARIOTOU, M. – SYNGELAKIS, A. I. – TALIAS, M. A. Recent Advances of Artificial Intelligence in Health- care: A Systematic Literature Review. Applied Sciences. Vol. 13, No. 13 [cit. 2025-02-09]. Dostupné z: https://doi.org/ 10.3390/app13137479.[35] 

FARAYOLA, M. M. – TAL, I. – CONNOLLY, R. – SABER, T. – BENDECHACHE, M. Ethics and Trustworthiness of AI for Predicting the Risk of Recidivism: A Systematic Literature Review. Information. 2023, Vol. 14, No. 8 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.3390/info14080426.[36] 

WANG, X. – WU, Y. C. – ZHOU, M. – FU, H. Beyond surveillance: privacy, ethics, and regulations in face recognition tech- nology. Frontier in Big Data. 2024, Vol. 7 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.3389/fdata.2024.1337465.[37] 

LI, Y. – HASHIM, A. S. – LIN, Y. – NOHUDDIN, P. N. E. – VENKATACHALAM, K. – AHMADIAN, A. AI-based visual speech recognition towards realistic avatars and lip-reading applications in the metaverse. Applied Soft Computing. 2024, Vol. 164 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1016/j.asoc.2024.111906.[38] 

SEPAS-MOGHADDAM, A. – ETEMAD, A. Deep Gait Recognition: A Survey. In: ArXiv [online]. 13. 2. 2022 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.48550/arXiv.2102.09546.[39] 

GRYNBAUM, M. M. – MAC, R. The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work In: Nytimes [online]. 27. 12. 2023 [cit. 2025-02-09]. Dostupné z: https://www.nytimes.com/2023/12/27/business/media/new-york- times-open-ai-microsoft-lawsuit.html.[40] 

Rozsudek Soudního dvora ze dne 13. května 2014, Google Spain SL a Google Inc. v. Agencia Española de Protección de Datos (AEPD) a Mario Costeja González, C-131/12.[41] 

KASSAM, A. Spain‘s everyday internet warrior who cut free from Google‘s tentacles. In: The Guardian [online]. 13. 5. 2014 [cit. 2025-02-09]. Dostupné z: https://www.theguardian.com/technology/2014/may/13/spain-everyman-google-mario- costeja-gonzalez.[42] 

CAKEBREAD, C. You’re not alone, no one reads terms of service agreements. In: Bussinessinsider [online]. 15. 11. 2017 [cit. 2025-02-09]. Dostupné z: https://www.businessinsider.com/deloitte-study-91-percent-agree-terms-of-service- without-reading-2017-11?r=US&IR=T.[43] 

SANDLE, T. Report finds only 1 percent reads ‘Terms & Conditions’. In: Digitaljournal [online]. 29. 1. 2020 [cit. 2025-02-09]. Dostupné z: https://www.digitaljournal.com/business/report-finds-only-1-percent-reads-terms-conditions/article/566127.[44] 

Mezi podmínky, se kterými respondenti souhlasili, patřily: „Právo na pojmenování jejich prvorozeného dítěte. Přístup do vzdušného prostoru nad svým majetkem pro účely provozu dronů. Povolení poskytnout své matce plný přístup k historii prohlížení. Schopnost „pozvat“ osobního agenta FBI na vánoční večeři na dalších 10 let. Možnost využít jejich streamovací platformy a zaplnit návrhy hroznými stand-up speciály.“ Ibidem.[45] 

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

AI2