K soukromoprávním hlediskům blokace dezinformačních webů (studie) - část II.

Ruská invaze na Ukrajinu poodkryla stinná místa garance základních svobod na internetu prolomené státní cenzurou na pozadí toho, že mimořádná doba žádá mimořádná řešení.

PP
PF Univerzity Palackého v Olomouci
Dezinformace, fake news
Foto: Shutterstock

Tato cenzura je přitom soudobě terminologicky označována nikoli jako cenzura, ale společensky snesitelnějším termínem „boj proti dezinformacím“.

První část článku si můžete přečíst zde.

Historické případy a významnost dezinformací

K prvním novodobým událostem, při kterých se začalo historicky intenzivně hovořit o dopadu šíření dezinformací na společnost (západní), byly počátky ukrajinské krize, které představovaly rozsáhlý politický konflikt mezi Ukrajinou a Ruskem probíhající od listopadu 2013 jako následek toho, že ukrajinský prezident Viktor Janukovyč nečekaně odmítnul podepsat asociační dohodu s Evropskou unií, následkem čehož se po celé zemi rozšířily masové protesty, kdy západní a střední části Ukrajiny požadovaly proevropské směřování, zatímco jihovýchodní oblasti proruské směřování.[1] K dalším událostem patřilo možné ovlivnění výsledků prezidentských voleb v USA v roce 2016, na základě kterých byl zvolen prezidentem Donald Trump.[2] Dle médií mělo údajně docházet k cílenému zveřejňování citlivých dokumentů a využití sociálních sítí k ovlivnění voleb.[3] Ani Česku se diskuse nad dopadem dezinformací na společnost nevyhýbají a jako příklad uvádíme poslední prezidentské volby v roce 2018, kdy se dezinformační útoky týkaly obou hlavních kandidátů.[4] V poslední době pak lze vysledovat, že dezinformace se pravidelně týkají společensky problematických témat, kterými stále jsou např. Black Lives Matter, Green Deal, otázka povinného očkovaní proti onemocnění covid-19 apod. Je tak zřejmé, že problémem, kterému společnost a právo jako regulatorní nástroj čelí, je vznik tzv. sociálních bublin, které by v krajních případech mohly představovat bezpečnostní riziko.

Metody detekce dezinformací a význam algoritmů

Detekce dezinformací je možná pouze manuálně nebo automaticky. Jak již sám název napovídá, manuální detekce předpokládá přímou lidskou aktivitu týkající se konkrétního obsahu spočívající v podrobení tohoto obsahu přímé lidské kontrole. V praxi se tato metoda označuje jako tzv. fact-checking. V závislosti na tom, kdo tuto metodu provádí, pak zpravidla následuje označení zprávy za nepravdivou s možným následkem označení či ohlášení této nepravdivé zprávy či přímo blokace, pokud zprávu detekuje sám poskytovatel služeb informační společnosti. Metoda automatické detekce oproti tomu spoléhá na proaktivní činnost algoritmů vyvinutých nejčastěji samotnými platformami, na kterých dochází ke zveřejňování obsahu. Tato metoda je stále ve vývoji a těžko dohlédnout nějakého dosažitelného konce, neboť tyto algoritmy je nutné neustále měnit a přizpůsobovat na nové jevy.

Z praxe se opět ukazuje, že např. tvůrci obsahu na platformě YouTube zaznamenali v souvislosti s napadením Ukrajiny Ruskem v únoru letošního roku 2022 proměnu algoritmů, který začal blokovat videa obsahující nežádoucí slova týkající se např. označení ruských speciálních jednotek apod. Je tomu tak zjevně proto, že stávající algoritmy používají jako stěžejní prvek (submetodu) metodu jazykové analýzy. Problematičnost této metody ale spočívá v tom, že není schopná odlišit nechtěnou dezinformaci od chtěné a žádoucí politické satiry (vtipu).[5] Webové platformy jakými jsou YouTube, Facebook, Google proto kombinují metodu automatické a manuální detekce, kdy však k blokaci obsahu zpravidla dojde bez dalšího na základě automatické detekce založené v současnosti převážně na metodě jazykové analýzy a až na základě zaslaného nesouhlasu[6] ukladatele či přímo tvůrce obsahu, se provede kontrola manuální, tedy s pomocí lidské činnosti. Chybovost jakékoli metody tak zpravidla znamená vždy zásah do přirozených práv, byť je pouze časově omezený. Preventivní opatření proti šíření dezinformací proto musí nepochybně cílit do úpravy těchto algoritmů a možná webové architektury internetových platforem celkově. Sdílení by např. mohlo být podmíněno přečtením celého obsahu a jeho odsouhlasením nebo přidáním nového komentáře nebo časovým omezením za jak dlouhou dobu lze obsah sdílet dále. Informačně-technologických řešení zde existuje na podobném principu nepochybně vícero, byť nejsou běžně známé a používané.

Co má jistě nezanedbatelný význam, hovoříme-li o metodách detekce dezinformačního či jinak závadného obsahu, je pak také tzv. statistický okruh potencionálních adresátů dezinformačního obsahu. Lze říci, že čím je tento okruh širší, což může být dáno např. jak osobou ukladatele obsahu, tak i načasováním, resp. obdobím či dobou, kdy dochází ke zveřejnění např. v předvolebním období apod., tím přísnější je třeba při posuzování být a s tímto kritériem již současné metody detekce rovněž pracují, jakož i legislativa některých evropských zemích (viz dále).  Opatření, která by se měla týkat regulace dezinformací, se proto musí v zásadě zaměřit směrem k nastavení algoritmů a statistickému okruhu adresátů.

Obrana proti dezinformacím

Na otázku, proč má smyl hledat právní řešení a obranu proti dezinformacím, existuje jednoduchá odpověď. Názory veřejnosti ovlivňují tržní chování, ale i politické rozhodování. Je proto nejen zájmem soutěžitelů a různých skupin ovlivňovat společenské mínění a chování, ale mělo by být samozřejmým zájmem státu, aby měl na šíření informací určitý vliv, resp. měl takové nástroje, které jsou schopné odfiltrovat projevy extrémního rázu a jevy nežádoucí z hlediska jeho bezpečnosti.

Za stávajícího stavu možné právní řešení spočívající v obraně proti šíření dezinformací vychází z daného právního východiska, že šíření dezinformací není samo o sobě bez dalšího protiprávní. Protiprávním se stává až za předpokladu, že dezinformační zpráva naplní kvalifikační znaky, které předpokládají zákony veřejného a soukromého práva. Příkladem může být trestný čin pomluvy dle § 184 zák. č. 40/2009 Sb., trestní zákoník (dále jen tr. zák.), trestný čin šíření poplašné zprávy dle § 357 tr. zák., z oblasti soukromého práva pak zásahy do osobnosti člověka a právnické osoby. V případě ochrany před zásahy do ochrany osobnosti jde o ochranu, která se týká a musí se týkat vždy a jen konkrétní osobnosti člověka a chráněných statků konkrétní právnické osoby, kdy recentní judikatura i dogmatika vychází dlouhodobě z rozdílu mezi tzv. oprávněnou kritiku tj. odůvodněným názorem jednajícího, oproti mylnému sdělování faktu neodpovídajících skutečnosti.[7] V případě uvedených skutkových podstat trestního práva navíc zpravidla dochází k současnému naplnění předpokladů vzniku nároku dle soukromého deliktního práva spočívající ve vzniku škody (§ 2910 odst. 1 věta druhá o. z.). Pro všechny uvedené případy podle veřejného i soukromého práva platí, že o protiprávnosti jednání, resp. naplnění kvalifikačních předpokladů stanovených jednotlivými zákony, rozhoduje soud a to výlučně. Zcela jinou otázkou, která by měla své místo v souvislosti s válečným konfliktem v České republice, je otázka dovolené míry cenzury v tzv. válečném stavu dle zák. č. 240/2000 Sb., krizový zákon. Tento stav však dosud na našem území v souvislosti s válečným konfliktem na Ukrajině nenastal. Domníváme se, že ve válečném stavu je cenzura nezbytná až klíčová pro udržení obranyschopnosti státu a jde o stav, předpokládaný zákonem, upravující legální a legitimní postup možné cenzury informací. Ovšem znovu podotkněme, že tento stav nebyl v první polovině roku 2022 na našem území naplněn, neboť pro něj nebyl v souvislosti s konfliktem na Ukrajině důvod.

Evropská řešení „boje proti dezinformacím“

Vzhledem k tomu, že „boj s dezinformacemi“ je novodobou evropskou záležitostí, dosud k němu neexistuje jednotné evropsko-unijní legislativní řešení. V roce 2015 v časové návaznosti na ukrajinskou krizi vznikla skupina East StratCom Task Force jako součást Evropské služby pro vnější činnost. Skupina nemá status orgánu EU, nýbrž pouze poradní skupiny zaměřující se na propagaci aktivit EU ve východní Evropě a její činnost nemá přímý legislativní dopad s účinky pro národní legislativy členských států. Řešení konkrétních otázek, a tedy konkrétní zákonné řešení, je tak zatím ponecháno pouze na jednotlivých členských státech. Některé z nich již postupně přistoupily k legislativním řešením spočívajícím ve zvláštních zákonech umožňujících povinnou spolupráci definovaných subjektů se státními orgány, povinnost informační a zakročovací spočívající v blokaci závadného obsahu apod. Diskuse o zvláštním zákonu se tak pod tíhou popsaných skutkových okolností blokace dezinformačních webů nevyhnula ani Česku, přičemž média informovala o započaté neveřejné práci na takovém zákonu.[8]

Při EU rovněž vznikla Vysoká skupina odborníků pro fake news a online dezinformace, která v roce 2018 zveřejnila závěrečnou zprávu.[9] Podle této závěrečné zprávy následně Evropská komise zveřejnila 26. dubna 2018 tiskovou zprávu,[12] ve které označila dezinformace za vícestranný problém, který nemá jednoznačnou příčinu, a tedy ani jediné řešení a následně 26. září roku 2018 Evropská komise přijala Kodex postupu proti dezinformacím.[13] Tento Kodex měly odsouhlasit i některé sociální platformy (Facebook, Google, Twitter a další).[13] V preambuli tento Kodex podává vlastní definici dezinformace, kterou je informace a) vytvořená, prezentovaná a šířená za účelem ekonomického zisku nebo záměrného klamání veřejnosti; a b) může způsobit veřejné škody, které představují hrozbu pro demokratickou politiku a tvorbu politických procesů stejně jako i pro veřejné statky, kterými jsou ochrana zdraví občanů EU, životního prostředí, příp. bezpečnost. Lze kvitovat, že z definice je výslovně vyňata satira a parodie, kdy Kodex výslovně uvádí, že: „Pojem „dezinformace“ nezahrnuje klamavou reklamu, hlášení chyb, satiru a parodie nebo jasně identifikované partyzánské zprávy a komentáře a není dotčena závaznost zákonné povinnosti, samoregulační reklamní kodexy a normy týkající se klamavé reklamy.“

Evropský parlament na základě zprávy Evropské komise k fungování Kodexu postupu proti dezinformacím založené na vyhodnocení výsledků zapojení webových platforem[14] přijal Doporučení Evropského parlamentu ze dne 13. března 2019 Radě a místopředsedkyni Komise / vysoké představitelce Unie pro zahraniční věci a bezpečnostní politiku o přezkumu opatření navazujících na dva roky ze strany Evropské služby pro vnější činnost po zprávě Evropského parlamentu o strategickém sdělení Unie zaměřeném na boj proti propagandě namířené proti Unii ze strany třetích stran (2018/2115(INI)). Dne 16. června 2022 pak došlo k přijetí Posíleného kodexu postupu proti dezinformacím[15], jež navazuje na Kodex z roku 2018 a který podepsalo 34 signatářů, mezi kterými nechybí Meta (FaceBook), Microsoft, Seznam, Google a další.[16] Tento nový kodex podrobně upravuje především oblasti spolupráce, součinnosti a transparentnosti fungování webových platforem na síti internet.

Německo

Německo přijalo dne 7. 9. 2017 s účinností od 1. 1. 2018 zákon (Netzwerkdurchsetzungsgesetz BGBl. I str. 3352, dále jen NetzDG) upravující primárně dodržování pravidel pro poskytovatele sociálních sítí. Zákon se vztahuje výhradně na velké ziskové sociální sítě s minimem dva miliony registrovaných uživatelů na území Německa. Takový poskytovatel služeb je zákonem označen za povinného poskytovatele. Podle § 1 odst. 1 NetzDG se pravidla nevztahují na sítě umožňující individuální komunikaci[17] jakož i ty, které šíří žurnalistický nebo specifický obsah. Vedle toho tento zákon rovněž upravuje vyřizování stížností uživatelů, notifikace závadného obsahu, jejich čtvrtletní reporty a další povinnosti. Klíčovým z celého zákona je z našeho pohledu § 1 odst. 3 NetzDG definující tzv. nezákonný projev, který zákon definuje ve vazbě na německé trestní právo. Německý zákon nestanoví žádné nové skutkové (trestní) podstaty, ale pouze odkazuje na již stávající ustanovení trestního práva. Mezi zmiňované trestné činy patří propagace organizací nebo používání symbolů v rozporu s německou ústavou, hanobení náboženských nebo jiných skupin, jiné osobní útoky (pomluva atd.). Za předpokladu, že povinný poskytovatel obdrží více než 100 stížností od uživatelů ročně, vzniká mu dle § 2 NetzDG ohlašovací povinnost, jejíž obsah zákon upřesňuje.

V případě zjištění zjevně nezákonného obsahu je povinný poskytovatel povinen reagovat do 24 hodin a obsah blokovat po obdržení žádosti. Postup vyřizování žádostí NetzDG rovněž podrobně upravuje. V opačném případě zákon stanoví sedmidenní lhůtu pro zablokování přístupu k obsahu, pokud posouzení nezákonnosti vychází z jiných skutkových okolností, které budou hodnoceny v rámci samoregulace v rámci dané platformy. Zákon stanoví taktéž sankce za nesplnění povinnost, a to až ve výši 50 milionů EUR, a to i v případě, že trestný čin nebyl spáchán na území Německa.

Zákon zprvu neobsahoval zvláštní úpravu opravného prostředku či postupu pro uživatele proti blokaci. Uživateli tak nezbývalo nežli postupovat podle obecné právní úpravy obsažené v občanském zákoníku (BGB) týkající se práv z vadného plnění ze strany poskytovatele služby, případně podle všeobecných podmínek poskytovatele služby, což se setkalo s kritikou veřejnosti.[17] Té rovněž vadila možnost tzv. overblockingu, tedy snaze poskytovatelů více blokovat i jinak nezávadný obsah s cílem vyhnout se vysokým sankcím. Německý zákon NetzDG byl proto v roce 2021 novelizován[18] s ohledem na požadavky veřejnosti. Uživatelé tak nově mají možnost požadovat přezkum rozhodnutí o blokaci obsahu a spory se dle § 3c novelizovaného NetzDG řeší v rozhodčím řízení.

Francie

Francie přijala po vzoru Německa rovněž vlastní Zákon proti dezinformacím z 22. prosince 2018 (Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information). Zákon je již podle svého názvu v doslovném překladu zaměřen na „boj proti manipulaci s informacemi v kontextu volebních kampaní“. Tímto zákonem došlo ke změně čl. 163-1 Volebního řádu (Art. L. 163-1 Code Électoral). Zákon podobně jako německý NetzDG rovněž akcentuje postup proti nenávistným a manipulativní projevům na internetu a opatření jsou shodně zaměřená na zlepšení transparentnosti velkých platforem působících na francouzském území.

Východiskem francouzského zákona je však výše zmíněný článek 163-1 Volebního řádu, podle kterého během tří měsíců před všeobecnými volbami (prezidentskými, národními, unijními nebo referendem) je možné zastavit šíření nepravdivých informací (dezinformací) prostřednictvím veřejných komunikačních služeb online, pokud by tyto informace byly způsobilé ovlivnit integritu voleb. Konkrétně během tří měsíců před volbami musí platformy zaregistrovat do veřejného online registru totožnost lidí, kteří platí za propagaci obsahu obecného zájmu, jakož i výši zaplacených částek a způsob, jakým jsou uživatelská data v této souvislosti používána.

Podobně jako německý NetzDG i francouzský zákon upravuje povinnosti spočívající v identifikaci závadného obsahu, přijetí opatření proti dezinformacím na sociálních sítích, systém upozorňování národních úřadů. Transparentnost algoritmů pro blokaci apod. Ve vztahu k poskytovatelům služeb sociálních sítí ukládá zákon zvláštní povinnost identifikovat jakoukoli fyzickou nebo právnickou osobu, která poskytovateli služby platí „odměnu“ výměnou za propagaci zpravodajského obsahu spojeného s diskusí obecného zájmu (tj. sponzorovaný obsah) jakož i povinnost trvalé spolupráce.

Zákon také upravuje nové pravomoci Národního regulačního úřadu pro audiovizuální oblast zřízeného již v roce 1989 (Conseil Supérieur de l’Audiovisuel, dále jen CSA), přičemž nová role tohoto úřadu, resp. v doslovném překladu Nejvyšší rady, má spočívat v přispívání k boji proti šíření nepravdivých informací. CSA má proto poskytovatelům služeb sociálních sítí dávat doporučení a sledovat, jak dodržují povinnosti uložené zákonem. Ve vztahu k audiovizuálním službám, které francouzský zákon pojímá obšírně, může CSA např. zamítnout žádost o licenci rozhlasové nebo televizní služby, pokud „šíření pořadů vážně ohrožuje lidskou důstojnost, svobodu a majetek druhých, pluralitní vyjadřování myšlenkových a názorových proudů, … [nebo ] ochranu veřejného pořádku, národní bezpečnost nebo základních zájmů národa (včetně bezproblémového fungování jeho institucí.“[19] CSA je také nadána pravomocí pozastavit distribuci licencované služby kontrolované nebo ovlivňované cizím státem, pokud záměrně šíří „nepravdivé informace, které by mohly ovlivnit integritu hlasování“.[20]  

Francouzský zákon však ideově rozdílně od německého NetzDG má primárně zabránit vměšování kohokoli do volebního procesu, kdy ostatní formy sdílení dezinformací mezi uživateli na platformách jsou až sekundární oblastí.

Slovensko

Slovensko přijalo v roce 2022 zákon č. 55/2022 Z. z., o niektorých opatreniach v súvislosti so situáciou na Ukrajine, který novelizoval zákon č. 69/2018 Z. z., o kybernetickej bezpečnosti a o zmene a doplnení niektorých zákonov (dál jen z. k. b.). Zákon o kybernetické bezpečnosti Slovensko přijalo v roce 2018. V původním znění však tento zákon neobsahoval možnost blokace na internetu. Ta byla umožněna až zmíněnou novelou (zákon č. 55/2022 Z. z.) účinnou od 26. 2. 2022. Do stávajícího z. k. b. byla vložena nová ustanovení § 27b, § 27 c, která umožnila slovenskému Národnímu bezpečnostnímu úřadu (NBÚ) rozhodovat o blokování, způsobu blokování a výkonu blokování webového obsahu. Nově byla taktéž upravena i definice škodlivého obsahu (§ 27 b odst. 3 z. k. b.). Legislativní zvláštností oproti právní úpravě německé či francouzské je, že blokování mělo být časově omezené, kdy novelou z. k. b. provedenou zák. č. 55/2022 Z. z. byl termín možného blokování „škodlivého obsahu nebo škodlivé aktivy“ umožněn časově omezeně do 30. 6. 2022 (§ 27b odst. 9 z. k. b.). Slovensko již ale mezitím přijalo další novelu z. k. b. provedenou zák. č. 231/2022 Z. z., který termín blokace mění na pozdější datum 30. 9. 2022. Lze očekávat, že termín možné blokace bude i nadále posunován v závislosti na délce trvání konfliktu na Ukrajině. Naznačuje to ale i skutečnost, že Slovensko vnímá stávající legislativní řešení pouze jako dočasné, a není tak vyloučena možnost nové komplexní právní úpravy. Pro úplnost dodejme, že slovenský z. k. b. zřídil Národní centrum kybernetické bezpečnosti jako organizační složku NBÚ, strategii kybernetické bezpečnosti, jednotný informační systém, povinné hlášení incidentů a v neposlední řadě i odpovědnost za přestupky se sankcemi od 300 do 100 tisíc EUR. Podobně jako v Česku, tak i na Slovensku došlo k blokaci dezinformačního webu v první polovině roku 2022, o čemž informovala média.[21] Rozdílně od Česka však blokace byla na Slovensku provedena NBÚ na základě zákona.

Další opatření

Kromě legislativních možností řešení je jistě třeba uvažovat i v rovině dalších opatření, která jsou schopna přispět a doplnit zákonodárně-politicky vytčené cíle. Přehlížená je z našeho pohledu role médií, která by měla plošně dodržovat minimální etické standardy. Příkladem zde může být Kodex České televize z roku 2003,[22] který byl i schválen Poslaneckou sněmovnou. Dále lze zaměřit pozornost na relevanci nadpisů k přiloženému obsahu. Mediální nadpisy (titulky) jsou často zaměřeny na senzacechtivost, a ne vždy odpovídají skutečnému obsahu. Mohou být klamavé, což je oblast dosud – vyjma obecné nekalosoutěžní úpravy v o. z. – neřešený. V praxi bývá řešen pouze v souvislosti s klamavou reklamou. Přitom jde o rovněž dezinformační jev. Svoji roli může sehrát občanská společnost, která bude státem motivována ke kritickému myšlení formou vzdělávání, investic do vzdělávání a upozorňování na negativní jev šíření dezinformací na internetu. Podobně se v poslední době prosadila do základní výuky i dříve opomíjená finanční gramotnost. Pomoci může i IT výuka zaměření na práci s médii a sociálními sítěmi.

Jsme však přesvědčeni, že nejdůležitější klíč mezi dalšími opatřeními se nalézá v rukou poskytovatelů služeb informační společnosti, kteří by měli poskytnout data pro výzkum a výzkum vládě, která posléze může legislativně nebo i jinak mířit do černého konkrétními opatřeními. Například do oblasti transparentnosti algoritmu sociálních platforem včetně možnosti jejich optimalizace samotnými uživateli, úpravy alokace příjmů z reklamy, povinnosti poskytovat různorodý obsah uživatelům apod.

Pokračování článku si můžete přečíst zde.

Článek byl publikován v Advokátním deníku.


[1] Lina Kushch. Donetsk view: Ukraine ‘other half’ resents Kiev protests – BBC News. BBC – Homepage [online]. 2022 BBC. The BBC is not responsible for the content of external sites. [cit. 7. 8. 2022]. Dostupné z: https://www.bbc.com/news/world-europe-25198943

[2] Allcott, H. – Gentzkow, M. Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives. 2017, Vol. 31, No. 2, str. 211–236.

[3] 2016. Rok, kdy falešné zprávy překonaly ty skutečné [online]. Dostupné z: https://ct24.ceskatelevize.cz/media/1988026-2016-rok-kdy-falesne-zpravy-prekonaly-ty-skutecne

[4] Ministerstvo varuje před dezinformací. ‘Zeman postupuje automaticky, k prvnímu kolu nemusíte,’ navádí leták | iROZHLAS – spolehlivé zprávy. iROZHLAS – spolehlivé a rychlé zprávy [online]. 1997 [cit. 7. 8. 2022]. Dostupné z: https://www.irozhlas.cz/volby/prezidentske-volby-2018-milos-zeman-hoax-dezinformace-novinka-k-prvnimu-kolu_1801121250_haf, Prezidentské volby provázejí dezinformace o Drahošovi i Zemanovi. Týkají se uprchlíků, StB či zdraví [online]. Dostupné z: https://ct24.ceskatelevize.cz/media/2364862-prezidentske-volby-provazeji-dezinformace-o-drahosovi-i-zemanovi-tykaji-se-uprchliku

[5] Uživatelé internetu se ve snaze o zisk samozřejmě snaží algoritmy platforem obcházet, např. vkládáním závadného obsahu do jinak obsahu nezávadného. Častým příkladem může být záměrně vložená sexualita, např. v podobě cvičitelky v prosvítajícím oblečení při cvičení Yogy na sociální síti Youtube apod., videa z pořadu Naked Attraction rovněž na síti YouTube, nebo klamavé označován obsahu videa spolu s vložením závadného obsahu formou jednoho okna (střihu) do jinak obsahu nezávadného a kontextem zcela odlišného.

[6] Formu a způsob nesouhlasu zpravidla upravují všeobecné podmínky užívání konkrétní služby.

[7] Srov. rozhodnutí Nejvyššího soudu, sp. zn. 30 Cdo 608/2007, ze dne 29. 11. 2007.

[8] Jen bezpečnostní složky. Zákon proti dezinformacím vzniká bez veřejnosti, poradce váže mlčenlivost | iROZHLAS – spolehlivé zprávy. iROZHLAS – spolehlivé a rychlé zprávy [online]. 1997 [cit. 7. 8. 2022]. Dostupné z: https://www.irozhlas.cz/zpravy-domov/dezinformace-vnitro-zakon-legislativa_2207160500_cib

[9] Final report of the High Level Expert Group on Fake News and Online Disinformation | Shaping Europe’s digital future. Archive-It Wayback Machine [online]. Dostupné z: https://wayback.archive-it.org/12090/20210303153856/https://ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online-disinformation#xd_co_f=YmNkYWYxNDgtODM1Yy00ZDYwLTliNzktZDYzYjEyZGQxZjk2~

[10] Tackling disinformation online: Expert Group advocates for more transparency among online platforms. European Commission [online]. Dostupné z: http://europa.eu/rapid/press-release_IP-18-1746_en.htm.

[11] EU Code of Practice on Disinformation, 26 septembre 2018 [online]. Dostupné z: https://www.hadopi.fr/sites/default/files/sites/default/files/ckeditor_files/1CodeofPracticeonDisinformation.pdf

[12] JUST – Item. European Commission | Choose your language | Choisir une langue | Wählen Sie eine Sprache [online]. Dostupné z: https://ec.europa.eu/newsroom/just/items/54300

[13] Statement on the Code of Practice against disinformation: Commission asks online platforms to provide more details on progress made | Shaping Europe’s digital future. Redirecting to https://digital-strategy.ec.europa.eu/en [online]. Dostupné z: https://digital-strategy.ec.europa.eu/en/news/statement-code-practice-against-disinformation-commission-asks-online-platforms-provide-more

[14] 2022 Strengthened Code of Practice on Disinformation | Shaping Europe’s digital future. Redirecting to https://digital-strategy.ec.europa.eu/en [online].  European Commission [cit. 7. 8. 2022]. Dostupné z: https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation

[15] Signatories of the 2022 Strengthened Code of Practice on Disinformation | Shaping Europe’s digital future. Redirecting to https://digital-strategy.ec.europa.eu/en [online]. Dostupné z: https://digital-strategy.ec.europa.eu/en/library/signatories-2022-strengthened-code-practice-disinformation

[16] Např. WhatsApp, Skype apod.

[17] Viz např. Netzwerkdurchsetzungsgesetz: Studie zeigt Schwächen bei Gesetz gegen Hassrede auf. netzpolitik.org [online]. Dostupné z: https://netzpolitik.org/2021/netzwerkdurchsetzungsgesetz-studie-zeigt-schwaechen-bei-gesetz-gegen-hassrede-auf/

[18] Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes (Bundesgesetzblatt Teil I Nr. 29)

[19] Čl. 33-1 zákona (loi n° 86-1067, du 30 septembre 1986), o svobodě komunikací

[20] Čl. 33-1-1 zákona (loi n° 86-1067, du 30 septembre 1986), o svobodě komunikací

[21] Slovenský úřad zablokoval webovou stránku, která šířila neověřené informace – Novinky.cz. Novinky.cz – nejčtenější zprávy na českém internetu [online]. 2003 [cit. 7. 8. 2022]. Dostupné z: https://www.novinky.cz/internet-a-pc/clanek/slovensky-urad-zablokoval-webovou-stranku-ktera-sirila-neoverene-informace-40389015

[22] Kodex České televize – zásady naplňování veřejné služby v oblasti televizního vysílání. Česká televize. [online].  [cit. 7. 8. 2022]. Dostupné z: https://img.ceskatelevize.cz/boss/image/contents/kodex-ct/pdf/kodex-ct.pdf

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články