Celosvětově lze sledovat dva přístupy k AI v souvislosti s ochranou osobních údajů, jeden přístup reprezentují zejména Spojené státy americké a druhý přístup reprezentuje zejména Evropská unie. USA se zaměřují zejména na inovace a flexibilitu, zatímco EU klade důraz na ochranu soukromí a bezpečnost nad technologický posun.
Úvod
Když v roce 1994 přišel na trh telefon IBM Simon, jednalo se o první smartphone na světě. I když to byl tehdy neúspěšný model, jenž se po roce prodeje a pouhých 50 000 prodaných kusech přestal prodávat, jednalo se o předzvěst současných chytrých telefonů. A samotné smartphony, respektive nepřeberné množství aplikací v nich, byly a stále jsou výzvou v oblasti regulace. A to nejen z hlediska ochrany uživatelů ve smyslu ochrany lidských práv, ale i například ve smyslu ekonomickém. Francouzský CNIL si pro období 2022–2024 stanovil jako jednu ze svých priorit „sběr osobních údajů v aplikacích pro chytré telefony“,[1] čímž dle mínění autora dokazuje, jak jeden přelomový produkt z roku 1994 dokáže výraz ně ovlivňovat legislativu i o 30 let později.
V únoru roku 2004, deset let po prvním smartphonu, vznikla sociální síť Facebook. Tehdy síť přístupná pouze studentům, dnes sedmá největší společnost světa z pohledu tržní kapitalizace. I tento milník byl a stále je velkou výzvou, zejména z hlediska ochrany osobních údajů. Společnost Meta zejména kvůli ochraně osobních údajů dostala opakovaně pokuty od orgánů EU. Jedna z posledních, v celkové výši 1,2 miliard eur, pak byla udělena za přenášení dat uživatelů do USA.[2] Nejde však jen o společnost Meta, problémy s ochranou osobních údajů a dalších lidských práv mají i jiné tzv. BigTech společnosti, které také dostaly pokuty od EU, například Google či Apple.[3]
Od vzniku Facebooku uplynulo skoro 10 let a díky Edwardu Snowdenovi (nejen) EU zjistila, že porušování lidských práv není doménou jen samotných Big Tech společností, ale i Spojených států, které ve spolupráci s Big Tech společnostmi získávaly osobní konverzace a historii vyhledávání uživatelů. Pro rok 2014 tak bylo výzvou, jak tento nejen práv ní, ale i politický problém vyřešit. V souvislosti s touto informací považuje autor za vhodné zmínit judikaturu Soudního dvora EU v oblasti přenosu osobních dat do USA, a sice případy Schrems I[4] a Schrems II.[5] Jedná se tedy o téma, které již v minulosti v Evropské unii silně rezonovalo.
I aktuální rok 2025 je ve znamení výzev v oblasti moderních technologií a ochrany lidských práv uživatelů. Od roku 2023 totiž lze pozorovat velký boom umělé inteligence (AI). Stala se součástí nástrojů, jež využívají uživatelé na denní bázi. Jenže, jak jsme již zvyklí z digitálního světa, čím větší je naše aktivita na internetu, tím větší zanecháváme digitál ní stopu. A internet, ať již se jedná o jednotlivce, či soukromé společnosti, toho o nás díky tomu ví více a více. Bohužel tak zná i značně citlivé informace, což je nežádoucí jev. A to samé zanechávání digitálních stop hrozí i u AI. Jelikož se jedná o poměrně aktuální téma, je zajímavé sledovat mezikontinentální přístup v regulaci AI zejména mezi USA a EU, protože každý z nich zvolil zcela odlišný přístup. Předkládaný příspěvek se tak pokusí odpovědět na otázku, jak na konkrétní výzvy reaguje EU na základě analýzy aktuálního přístupu EU v oblasti regulace v kontextu ochrany osobních údajů uživatele, tedy jednu ze stěžejních hodnot stanovených EU, a odhalit aktuální nedostatky v přístupu EU k AI.
1. EU vs. USA
Přístup USA k AI je ovlivněn dvěma významnými proměnnými. Zaprvé, AI je vytvářena a provozována Big Tech společnostmi, jako je Microsoft, Google, Meta a další. A právě pří stup k těmto společnostem je velmi vstřícný. Důvodů je více. Jedním z nich je důvod eko nomický – velké technologické společnosti sídlící v USA znamenají zvýšenou zaměstnanost a velké množství peněz pro ekonomiku na daních a odvodech. Také v USA funguje velmi silný lobbing těchto společností, který se projevuje při projednávání nových zákonů, což dokazuje i počet skupin lobbujících u federální vlády USA za umělou inteligenci, který se od roku 2022 do roku 2023 téměř ztrojnásobil.[6] BigTech společnosti tak mají v USA silnější postavení a také zakládají společné dohody a uskupení, například Partnerství pro AI, ve kterém jsou velké technologické společnosti IBM, Intel, Amazon, Apple a Meta. Tato iniciativa sdružuje technologické společnosti, akademické instituce, výzkumné organizace a neziskové skupiny, aby společně diskutovaly etické otázky, transparentnost a spravedlnost v oblasti AI. Iniciativa spojuje akademiky, vývojáře, vlády i nevládní organizace, publikuje výzkumné zprávy a doporučení pro vlády a firmy ohledně bezpečnosti a regulace AI a usiluje o to, aby byla AI vyvíjena a používána spravedlivě a transparentně.[7] Toto spojení Big Tech s jinými institucemi a činnost sdružení opět posiluje jejich postavení. Silná pozice Big Tech společností však s sebou přináší i výhody, protože tzv. public- private partnership dokáže právě díky rychlejším reakcím BigTech společností reagovat mnohem rychleji v nápravě porušení lidských práv. Zejména v případě osobních údajů se jedná o citlivou oblast, kde rychlejší náprava stavu je bezpochyby vítaným aspektem. Autor v jednom výzkumu zkoumal vytvoření Google formuláře pro žádost o využití práva být zapomenut pro jednotlivce v EU. Google jej vytvořil a zpřístupnil do 20 dnů. V případě čistě legislativního procesu se autor dostal k výsledku za rok.[8] A zde je třeba zdůraznit, že 20 dní vs. 1 rok je v tak citlivé oblasti, jako jsou osobní údaje, značně citelný a velký rozdíl. USA také navíc umožňují větší potenciál rozvoje a využití AI. To ve své podstatě nemusí být z pohledu ochrany osobních údajů negativní, jelikož, i když to na první pohled může vypadat paradoxně, i AI může pomoci k efektivní ochraně osobních údajů v oblasti AI, která vede k zajištění důvěrnosti, integrity a dostupnosti osobních dat a minimalizuje riziko jejich zneužití. Se zmiňovanými výhodami přístupu USA souvisí však i jeho nevýhody. A to nejen kvůli velkému či většímu vlivu Big Tech společností na legislativní proces ať již napřímo, nebo skrze lobbing, který je v USA rozšířen a má vzrůstající tendenci.[9] Zejména je zde obava před převládnutím snahy o zisk nad ochranou osobních údajů, přičemž výskyt tohoto jevu potvrdila zpráva Federální obchodní komise[10] a snaží se mu zamezit Evropský sbor pro ochranu osobních údajů.[11] Svou roli hraje také první dodatek ústavy,[12] díky kterému v proporčním testu převládá právo být informován nad ochranou osobních údajů, což je další komplikace pro jejich ochranu.
Naproti tomu v proporčním testu v EU právo na ochranu jednotlivce spíše převažuje nad právem veřejnosti na informace, protože omezení práva na ochranu osobních údajů mají být výjimkou, nikoli pravidlem.[13] Tento přístup se projevuje i ve vztahu k lobbingu BigTech společností, které v EU mají utlumenější a kooperativnější přístup[14] oproti agresivnímu lobbingu ve stylu „vítěz bere vše“, jako tomu je v USA.[15] Zároveň však přístup lob bingu v EU může být rizikový z důvodu neetického chování.[16] Silná regulace chrání práva uživatelů, ovšem negativně se projevuje v rozvoji AI, která je v EU těmito regulacemi omezována.[17] V USA tak lze vidět prostor pro rozvoj AI a nových technologií, ovšem ochrana uživatelů je zde lehce upozaděna. Naproti tomu v EU je ochrana uživatelů primární záležitostí, což se ale negativně podepisuje na rozvoji AI v Evropě a usazování technologických společností zde. Ochrana uživatele zde totiž má přednost i před maximálním využitím potenciálu společností a jejich ziskem. Z hlediska legislativního vývoje a směřování EU se jedná o kontinuální pokračování ochrany uživatele známého z GDPR,[18] která je rozšířena na AI, což vyústilo v navržení a přijetí například AI Act.[19] Proto se mezi akademiky, společnostmi i akciovými investory mluví o „zbytečně velké byrokratizaci EU“.[20] Autor za stává názor, že efektivní ochrana lidských práv vyžaduje srozumitelnou a systematickou legislativu, která umožňuje její konzistentní aplikaci a zároveň minimalizuje nadměrnou administrativní zátěž. Tento aspekt je v případě ochrany osobních údajů minimálně diskutabilní, a lze tedy chápat onu kritiku přílišné regulace a byrokratizace AI v EU. Autor nepopírá, že ochrana osobních dat je v EU na velmi vysoké úrovni, a je to názor napříč akademickou sférou.[21] Regulace ochrany osobních údajů není pouze GDPR, které je centrálním „kodexem“, ale je roztříštěna do velkého množství legislativních aktů.[22] A čím více právních předpisů je, tím méně je právní regulace srozumitelná a systematická, tedy jedná se o negativní jev. Taktéž je výraznou nevýhodou, že je legislativní proces ve srovnání s technologickým pokrokem pomalý a nedokáže na něj reagovat.[23]
Je tedy otázkou, kde se celosvětově nastaví konsenzus mezi ochranou lidských práv a podporou rozvoje AI. EU podnikla významný krok směrem k celosvětové unifikaci regulace AI přijetím Rámcové úmluvy o umělé inteligenci a lidských právech, demokracii a právním státě, navržené Radou Evropy a podepsanou 5. září tehdejší místopředsedkyní Evropské komise pro hodnoty a transparentnost Věrou Jourovou.[24] I když by celosvětový konsenzus k regulaci AI byl pozitivním krokem,[25] USA i Čína zaujaly spíše rezervovaný postoj, protože USA preferují flexibilnější, méně restriktivní přístup a obávají se negativní ho dopadu na inovace[26] a Čína sleduje především své vlastní strategické cíle v oblasti AI a klade důraz na státní kontrolu.[27] Dle mínění autora tak nejhlasitější jména jako EU, USA, či Čína budou muset paradoxně pro dosažení shody v oblasti AI počkat na ty nejpomalejší, včetně afrických států. Teprve až bude mít každý kontinent stanovenou svou strategii pro regulaci AI, bude možné najít průniky napříč kontinenty a teprve na nich pak vystavět souhrn s minimálními požadavky na regulaci AI. Teprve poté lze najít jednoznačnou odpověď na otázku, kde přesně udělat pomyslný bod mezi „přílišnou regulací kvůli ochraně lidských práv“ a „žádnou regulací pro maximální rozvoj AI“.
2. Ochrana uživatelů u AI
Zmíněná regulace AI ze strany Evropské unie je v akademickém prostředí vnímána roz poruplně. Musch, Borrelli a Kerrigan analyzují AI Act jako významný milník v oblasti globální regulace AI a zdůrazňují jeho potenciál formovat mezinárodní standardy a podporovat harmonizaci.[28] Wilczek, ThäslerKordonouri a Eder naopak výzkumem kulturních faktorů ovlivňujících vnímání rizik spojených s AI preferují méně restriktivní přístup.[29] Zejména je kritizována z důvodů týkajících se nadměrné regulace, což z hlediska nestátních aktérů zmiňují Tallberg, Lundgren a Geith, obavy z nadměrné regulace mezi obchodními aktéry;[30] složitosti implementace[31] a hodnocení rizik.[32] Na druhou stranu je ovšem vhodné zdůraznit, že v dnešních dnech používaná AI není jen textová platforma založená na pravděpodobnosti posloupnosti slov. Od roku 2023 překonává AI lidskou výkonnost v některých měřítkách, včetně klasifikace obrázků, vizuálního uvažování a porozumění angličtině.[33] AI se také používá i při rozhodování v bance u žádostí o úvěr,[34] ve zdravotnic tví,[35] pro předpovědi recidivy u obžalovaných[36] a další. Tato data mohou zahrnovat citlivé osobní údaje, jako jsou zdravotní záznamy (rozpoznání obrazu i v lékařství, při rozeznání rakoviny, Alzheimera a další), finanční data nebo geolokační údaje. AI umí také poznat jednotlivce díky charakteristickým rysům, jako jsou například obličej,[37] řeč[38] nebo styl chůze.[39] Také čerpá z internetových novin, což se aktuálně nelíbí například vydavatelství New York Times.[40] Že i v nich se vyskytují citlivé osobní informace, je známo například z rozsudku ve věci Google Spain.[41] Bez řádných bezpečnostních opatření mohou být tato data vystavena riziku úniku nebo zneužití. Nabízí se však otázka, jak zareagovat a efektivně chránit osobní údaje v době AI.
Bezesporu je třeba, aby se sami uživatelé snažili aktivně chránit své osobní údaje při užívání AI a aby věděli, kým a jak jsou zpracovávány, respektive zda jsou poskytovány i tře tím stranám. Možností, jak toho docílit, je více, většinou se neliší od obecných doporučení o bezpečnosti na internetu. Jedná se zejména o znalost zásad ochrany osobních údajů, omezení sdílení údajů, používání silných hesel a dvoufaktorové ověřování, používání důvěryhodných aplikací a jejich aktualizaci a preventivní opatrnost při práci s AI chatboty a asistenty. I přes tato opatření není žádná metoda ochrany dat 100% bezpečná a stále je z velké části zodpovědností samotného uživatele, zda je opatrný při sdílení osobních údajů online. Jako příklad lze uvést již zmíněný případ Google vs. Spain. Osobní údaje pana Costeji z tohoto případu nejsou známé kvůli nedostatečné legislativě nebo soudnímu rozhod nutí, ale kvůli jeho vlastnímu jednání, kdy dával rozhovory o svém případu do médií.[42] Ale zmiňovaná silná pozice Big Tech společností zprostředkujících AI skrze jejich AI systémy je důvodem, proč i přes veškerou snahu o co největší ochranu osobních údajů není samotná ochrana soukromí ze strany uživatele dostačující. Dal by se zde použít příměr k Davidu s Goliášem, ovšem s tím rozdílem, že tentokrát by měl Goliáš (Big Tech) nad Da videm (uživatelem) obrovskou převahu. Regulace ze stran států, respektive EU jako celku v případě naší geopolitické oblasti, se tedy zdá potřebná.
Při stanovení, jak obsáhlá či podrobná by měla právní regulace být, je vhodné si nejprve určit, jaká jsou rizika v oblasti ochrany osobních údajů u AI v kontextu zpracovávaných údajů. To bývá mnohdy vypsáno v podmínkách, se kterými musí uživatel souhlasit, ovšem výzkum společnosti Deloitte ukázal, že tyto podmínky nečte přes 91 % uživatelů, přičemž v kategorii 18–34 let dokonce 97 % uživatelů.[43] Tim Sandle z Digital Journal poukázal na průzkum webové společnosti ProPrivacy.com, kde si podmínky nepřečetlo, a přesto souhlasilo závratných 99 % uživatelů.[44] Ti odsouhlasili obchodní podmínky, aniž by je četli.[45] Pro drtivou většinu uživatelů, kteří obchodní podmínky nečtou, tedy může dojít k negativnímu překvapení.
Článek byl publikován v časopise Právník č. 4/2025. Pokračování je dostupné zde.
[1] [Clôturée] Collecte de données dans les applications mobiles: la CNIL lance une consultation publique sur les enjeux économiques. In: Cnil [online]. 18. 1. 2023 [cit. 2025-02-09]. Dostupné z: https://www.cnil.fr/fr/cloturee-collecte-de- donnees-dans-les-applications-mobiles-la-cnil-lance-une-consultation-publique?trk=article-ssr-frontend-pulse_little- text-block; Plan Stratégique 2022–2024. In: Cnil [online]. 17. 2. 2022 [cit. 2025-02-09]. Dostupné z: https://www.cnil.fr/ sites/cnil/files/atoms/files/cnil_plan_strategique_2022-24.pdf#page=7.
[2] 1.2 billion euro fine for Facebook as a result of EDPB binding decision. In: European Data Protection Board [online]. 22. 5. 2023 [cit. 2025-02-09]. Dostupné z: https://www.edpb.europa.eu/news/news/2023/12-billion-euro-fine-facebook- result-edpb-binding-decision_en.
[3] STOLTON, S. Apple, Google, Meta Probed by EU in Test of New Digital Law. In: Bloomberg [online]. 25. 3. 2024 [cit. 2025-02-09]. Dostupné z: https://www.bloomberg.com/news/articles/2024-03-25/apple-google-meta-probed-by-eu- in-test-of-new-digital-law.
[4] Rozsudek Soudního dvora ze dne 6. října 2015, Maximilian Schrems v Data Protection Commissioner, C-362/14.
[5] Rozsudek Soudního dvora ze dne 16. července 2020, Data Protection Commissioner v Facebook Ireland Limited a Ma- ximillian Schrems, C-311/18.
[6] HENSHALL, W. There’s an AI Lobbying Frenzy in Washington. Big Tech Is Dominating. In: Time [online]. 30. 4. 2024 [cit. 2025-02-09]. Dostupné z: https://time.com/6972134/ai-lobbying-tech-policy-surge/.
[7] Partnership on AI [cit. 2025-02-09]. Dostupné z: https://partnershiponai.org/.
[8] MACH, M. the ‘Right to Be Forgotten’ – by Watchdogs and Open-Source Search Engines. In: ŠIŠKOVÁ, N. (ed.). Legal Issues of Digitalisation, Robotization and Cyber Security in the Light of EU Law. Alphen aan den Rijn: Wolters Kluwer, 2024, s. 60–69.
[9] STRICKLAND, J. America’s Crowded Statehouses: Measuring and Explaining Lobbying in the U.S. States. State Politics & Policy Quarterly. 2019, Vol. 19, No. 3 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1177/1532440019829408.
[10] A Look Behind the Screens: Examining the Data Practices of Social Media and Video Streaming Services. In: Federal Trade Commission [online]. 2024 [cit. 2025-02-21]. Dostupné z: https://www.ftc.gov/system/files/ftc_gov/pdf/Social- Media-6b-Report-9-11-2024.pdf.
[11] Prohlášení 3/2024 o úloze orgánů pro ochranu osobních údajů v rámci aktu o umělé inteligenci. In: European Data Protection Board [online]. 16. 6. 2024 [cit. 2025-02-09]. Dostupné z: https://www.edpb.europa.eu/system/files/2024-07/ edpb_statement_202403_dpasroleaiact_en.pdf.
[12] První dodatek, Ústava Spojených států amerických.
[13] Rozsudek Soudního dvora ze dne 21. prosince 2016, Tele2 Sverige AB v Post – och telestyrelsen a Secretary of State for the Home Department v Tom Watson, Peter Brice, Geoffre Lewis, spojené věci C-203/15 a C-698/15, body 89 a 104.
[14] WOLL, C. The brash and the soft-spoken: Lobbying styles in a transatlantic comparison. Interest Groups & Advocacy. 2012, Vol. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1057/iga.2012.10.
[15] MESTEY-COLON, I. Following the Money-Trail: A Cross-Cultural Analysis of Lobbying Expenditures in the United States and European Union. In: The Yale Review of International Studies [online]. 26. 11. 2024 [cit. 2025-02-09]. Dostupné z: https://yris.yira.org/column/following-the-money-trail-a-cross-cultural-analysis-of-lobbying-expenditures-in-the-united- states-and-european-union/#14beeb86-162f-4c03-a549-8b9e39f420b7.
[16] GOUJARD, C. Big Tech accused of shady lobbying in EU Parliament. In: Politico [online]. 14. 10. 2022 [cit. 2025-02-09]. Dostupné z: https://www.politico.eu/article/big-tech-companies-face-potential-eu-lobbying-ban/.
[17] UFERT, F. AI Regulation Through the Lens of Fundamental Rights: How Well Does the GDPR Address the Challenges Posed by AI? European Papers. 2020, Vol. 5, No. 2, s. 1087–1097.
[18] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislos- ti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).
[19] Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci).
[20] PRESUEL, C. R. – SIERRA, M. J. The Adoption of Artificial Intelligence in Bureaucratic Decision-making: A Weberian Perspective. Digital Government Research and Practice. 2023, Vol. 5, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/ 10.1145/3609861; BULLOCK, B. J. Artificial Intelligence, Discretion, and Bureaucracy. The American Review of Public Administration. 2019, Vol. 49, No. 7 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1177/0275074019856123.
[21] BYGRAVE, L. A. Prospects for Global Consensus. In: BYGRAVE, L. A. Data Privacy Law: An International Perspective. Oxford: Oxford Academic, 2014, s. 205–210. Dostupné z: https://doi.org/10.1093/acprof:oso/9780199675555.003.0007.
[22] Usnesení Evropského parlamentu ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku; Návrh nařízení Evropského parlamentu a Rady o respektování soukromého života a ochraně osobních údajů v elektronických komunikacích a o zrušení směrnice 2002/58/ES (nařízení o soukromí a elektronických komu- nikacích); Nařízení Evropského parlamentu a Rady (EU) 2022/2065 ze dne 19. října 2022 o jednotném trhu digitálních služeb a o změně směrnice 2000/31/ES (nařízení o digitálních službách); Směrnice Evropského parlamentu a Rady (EU) 2019/790 ze dne 17. dubna 2019 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu a o změně směrnic 96/9/ES a 2001/29/ES 2019/790; Nařízení Evropského parlamentu a Rady (EU) 2023/2854 ze dne 13. prosince 2023 o harmonizovaných pravidlech pro spravedlivý přístup k datům a jejich využívání a o změně nařízení (EU) 2017/2394 a směrnice (EU) 2020/1828 (nařízení o datech); Nařízení Evropského parlamentu a Rady (EU) 2022/868 ze dne 30. května 2022 o evropské správě dat a o změně nařízení (EU) 2018/1724 (akt o správě dat); Evropské prohlá- šení o digitálních právech a zásadách pro digitální dekádu; Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).
[23] MANDEL, G. N. Legal Evolution in Response to Technological Change. In: BROWNSWORD, R. – SCOTFOR, E. – YEUNG, K. The Oxford Handbook of Law, Regulation and Technology. Oxford: Oxford Academic, 2017, s. 225–245. Dostupné z: https://doi.org/10.1093/oxfordhb/9780199680832.013.45.
[24] The European Commission signs historic Council of Europe Framework Convention on Artificial Intelligence and Human Rights. In: European Union External Action [online]. 10. 9. 2024 [cit. 2025-02-09]. Dostupné z: https://www.eeas.europa.eu/delegations/council-europe/european-commission-signs-historic-council-europe-framework-convention-artificial- intelligence-and_en?s=51.
[25] WALTER, Y. Managing the race to the moon: Global policy and governance in Artificial Intelligence regulation—A con- temporary overview and an analysis of socioeconomic consequences. Discover Artificial Intelligence. 2024, Vol. 4, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s44163-024-00109-4.
[26] DUDLEY, E. S. Lessons from the Past for Regulating AI. In: Regulatory Studies Center [online]. 12. 11. 2024 [cit. 2025-02-09]. Dostupné z: https://regulatorystudies.columbian.gwu.edu/sites/g/files/zaxdzs4751/files/2024-11/Dudley_Lessons_for_ Regulating_AI_11-2024_Working_Paper.pdf.
[27] ROBERTS, H. – COWLS, J. – MORLEY, J. et al. The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation. AI & Society. 2021, Vol. 36, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s00146-020- 00992-2.
[28] MUSCH, S. – BORRELLI, M. – KERRIGAN, Ch. The EU AI Act: A Comprehensive Regulatory Framework for Ethical AI Development. In: Ssrn [online]. 23. 8. 2024 [cit. 2025-02-09]. Dostupné z: https://ssrn.com/abstract=4549248.
[29] WILCZEK, B. – THÄSLER-KORDONOURI, S. – EDER, M. Government regulation or industry self-regulation of AI? Inves- tigating the relationships between uncertainty avoidance, people’s AI risk perceptions, and their regulatory preferences in Europe. AI & Society. 2024 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s00146-024-02138-0.
[30] TALLBERG, J. – LUNDGREN, M. – GEITH, J. AI regulation in the European Union: examining non-state actor preferences. Business and Politics. 2024, Vol. 26, No. 2 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1017/bap.2023.36.
[31] ENGLER, A. The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment. In: Brookings Institution [online]. 25. 4. 2023 [cit. 2025-02-09]. Dostupné z: https://www.brookings.edu/articles/the-eu-and-us-diver ge-on-ai-regulation-a-transatlantic-comparison-and-steps-to-alignment/.
[32] NOVELLI, C. – CASOLARI, F. – ROTOLO, A. et al. AI Risk Assessment: A Scenario-Based, Proportional Methodology for the AI Act. Digital Society. 2024, Vol. 3, No. 1 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1007/s44206-024-00095-1.
[33] Artificial Intelligence Index Report 2024. In: Stanford University: Human-Centered Artificial Intelligence [cit. 2025-02-09]. Dostupné z: https://aiindex.stanford.edu/report/.
[34] FARES, O. H. – BUTT, I. – LEE, S. H. M. Utilization of artificial intelligence in the banking sector: a systematic literature review. Journal of Financial Services Marketing. 2022, Vol. 28, No. 4 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.10 57/s41264-022-00176-7.
[35] KITSIOS, F. – KAMARIOTOU, M. – SYNGELAKIS, A. I. – TALIAS, M. A. Recent Advances of Artificial Intelligence in Health- care: A Systematic Literature Review. Applied Sciences. Vol. 13, No. 13 [cit. 2025-02-09]. Dostupné z: https://doi.org/ 10.3390/app13137479.
[36] FARAYOLA, M. M. – TAL, I. – CONNOLLY, R. – SABER, T. – BENDECHACHE, M. Ethics and Trustworthiness of AI for Predicting the Risk of Recidivism: A Systematic Literature Review. Information. 2023, Vol. 14, No. 8 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.3390/info14080426.
[37] WANG, X. – WU, Y. C. – ZHOU, M. – FU, H. Beyond surveillance: privacy, ethics, and regulations in face recognition tech- nology. Frontier in Big Data. 2024, Vol. 7 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.3389/fdata.2024.1337465.
[38] LI, Y. – HASHIM, A. S. – LIN, Y. – NOHUDDIN, P. N. E. – VENKATACHALAM, K. – AHMADIAN, A. AI-based visual speech recognition towards realistic avatars and lip-reading applications in the metaverse. Applied Soft Computing. 2024, Vol. 164 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.1016/j.asoc.2024.111906.
[39] SEPAS-MOGHADDAM, A. – ETEMAD, A. Deep Gait Recognition: A Survey. In: ArXiv [online]. 13. 2. 2022 [cit. 2025-02-09]. Dostupné z: https://doi.org/10.48550/arXiv.2102.09546.
[40] GRYNBAUM, M. M. – MAC, R. The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work In: Nytimes [online]. 27. 12. 2023 [cit. 2025-02-09]. Dostupné z: https://www.nytimes.com/2023/12/27/business/media/new-york- times-open-ai-microsoft-lawsuit.html.
[41] Rozsudek Soudního dvora ze dne 13. května 2014, Google Spain SL a Google Inc. v. Agencia Española de Protección de Datos (AEPD) a Mario Costeja González, C-131/12.
[42] KASSAM, A. Spain‘s everyday internet warrior who cut free from Google‘s tentacles. In: The Guardian [online]. 13. 5. 2014 [cit. 2025-02-09]. Dostupné z: https://www.theguardian.com/technology/2014/may/13/spain-everyman-google-mario- costeja-gonzalez.
[43] CAKEBREAD, C. You’re not alone, no one reads terms of service agreements. In: Bussinessinsider [online]. 15. 11. 2017 [cit. 2025-02-09]. Dostupné z: https://www.businessinsider.com/deloitte-study-91-percent-agree-terms-of-service- without-reading-2017-11?r=US&IR=T.
[44] SANDLE, T. Report finds only 1 percent reads ‘Terms & Conditions’. In: Digitaljournal [online]. 29. 1. 2020 [cit. 2025-02-09]. Dostupné z: https://www.digitaljournal.com/business/report-finds-only-1-percent-reads-terms-conditions/article/566127.
[45] Mezi podmínky, se kterými respondenti souhlasili, patřily: „Právo na pojmenování jejich prvorozeného dítěte. Přístup do vzdušného prostoru nad svým majetkem pro účely provozu dronů. Povolení poskytnout své matce plný přístup k historii prohlížení. Schopnost „pozvat“ osobního agenta FBI na vánoční večeři na dalších 10 let. Možnost využít jejich streamovací platformy a zaplnit návrhy hroznými stand-up speciály.“ Ibidem.


Diskuze k článku ()