Deepfake je zmanipulované video knerozeznání od skutečného. Využívá technologii hloubkového učení. Dokáže, pokud má dostatek vstupních dat, tak perfektně napodobit řeč těla i mimiku libovolné osobnosti, stejně jako její hlas. Takto dokonale může vypadat iluze, na tomto videu opravdu není Morgan Freeman.
Tato technologie se dá využít vzábavě – třeba ve filmech nebo vaplikacích, které nahradí obličeje celebrit vslavných filmových scénách vašim vlastním. Má ale také potenciálně děsivé důsledky. Objevilo se třeba video, ve kterém „Barack Obama“ nadává Donaldu Trumpovi. Nedávno internetem kolovala také deepfake video prezidenta Zelenského, kde vyzývá armádu ke složení zbraní.
Zneužít takovou manipulace lze kdiskreditaci známých osobností, ale třeba také šikaně. Vminulost se deepfake využíval například kangažování slavných hereček vlechtivých filmech bez jejich vědomí – oběťmi takového incidentu se staly třeba Natalie Portman nebo Emma Watson. Podle analýzy společnosti Deeptrace zroku 2019 bylo 96 % deepfake videí zkategorie p*rnografie. Obětí ale může být každý. Manipulátor potřebuje jen dostatek videí oběti.
Je zmanipulované video i kněčemu dobré?
Přesto lze deepfaky využít i k dobrým účelům: ať už se bavíme o herním průmyslu nebo vzdělávání. Děti se mohou stát třeba hvězdami svých oblíbených pořadů, videoher a filmů. Využilo je třeba Dalího muzeum na Floridě, aby si návštěvníci mohli udělat se slavným umělcem selfie. Díky technologii Dalí návštěvníky pozdraví, vyfotí se s nimi a reaguje vreálném čase na jejich chování.
Deepfake je, stejně jako oheň, dobrý sluha, ale špatný pán. Nezatracujme technologie jen proto, že ji někdo zneužívá.
Deepfake vytvoříte na koleni, ale nepoznáte ani po hodinách zkoumání
Triviální verze deepfakes lze snadno vytvořit pomocí mobilních aplikací jako FaceApp nebo FaceSwap, ale složitější videa často vyžadují zručnost a odpovídající technické vybavení. Technologie tvorby deepfakes je poměrně mladá, ale jde dopředu mílovými kroky (stejně jako třeba filmové efekty). Poměrně kvalitní deepfake ale vytvoří kdokoli, kdo má dost času, kvalitní výpočetní techniku a hlavně dost záznamů osobnosti, které chce něco vložit do úst.
Ostatně sveřejně dostupnými programy to zkusil bloger Patrik Kořenář. Takovýchto výsledků dosáhne amatér.
Jak mluvit sdětmi o deepfake?
#1 Shlédněte několik podvodných videí
Dost možná vás překvapí, kolik toho dnešní děti už vědí o nespolehlivosti internetového obsahu. Nebo dokonce nějaká deepfake videa samy už viděly. Přesto neuškodí promluvit si o tom, proč to někdo takto podvádí. Zdůrazněte, že ke sdílení něčích fotek nebo videí je nutný nejprve souhlas.
#2 Mluvte o ochraně vlastního soukromí
Když děti sdílejí své fotky nebo video, mohou nevědomky sdílet data, které lze i tímto způsobem zneužít. Není třeba hned všechno smazat, ale spíše sdílet opatrněji a střídmě. Promluvte si to o tom, jaké sociální sítě používají a poraďte jim, jak na nich fungovat bezpečněji.
Deepfake je skvělý způsob, jak dětem vysvětlit možnosti technologií a možná i hlouběji probrat podstatu dezinformací.
#3 Zaměřte se na prevenci podvodů
Většině rizik na internetu lze předcházet. Mluvte sdětmi o tom, na co mohou narazit. Výbornou prevencí je například striktně komunikovat jen slidmi, které děti znají zreálného života.
Pokud se vaše děti rozhodnou používat aplikace, které jim umožňují vytvářet deepfakes, jako je FaceApp nebo FaceSwap, vyzkoušejte je nejdřív společně a používejte je jen pro zábavu a vzdělávání, nikdy pro zesměšňování ostatních.
Jak zmanipulované video poznat?
Zukázek vúvodu článku je zřejmé, že poznat opravu propracovaný deepfake je velice, velice obtížné. Obzvláště na sociálních sítích, kde obsah konzumujeme rychle a nesledujeme drobné nuance.
Zkuste se na to, co čtete a sledujete, trochu více soustředit. Obzvláště, pokud osoba na videu říká něco trochu nečekaného. Stále jde o nedokonalou technologii, a tak můžete vidět chyby.
Deepfake má stále problémy s replikováním jemnějších fyzických atributů: zvuk nemusí zcela odpovídat pohybu rtů mluvčího a může docházet k třepení podél linií obličeje osoby, v blízkosti linie vlasů či linií oděvu. Typické jsou chyby vosvětlení: obličej může být světlejší/tmavší než tělo, může se objevit neobvyklý stín nebo každé z očí může odrážet jiný obraz. Velice často také postavy vdeepfake nemrkají, což je u lidí dost neobvyklé.
Někdy neodpovídá vybavení vprostoru okolo mluvčího, například se liší nábytek, jsou špatně umístěné vlajky, pozadí se hýbe a podobně. Lišit se může také ostrost obrazu (například obličej je ostřejší než řečnický pultík – protože obličej doplňuje umělá inteligence, zatímco pult je staticky natočený kamerou). Část těchto chyb můžete vidět vpropagačním deepfake videu stanice HBO.
Pokud se vám video nezdá, zkontrolujte si oficiální profily domnělého mluvčího. Známé osobnosti vše důležité sdílí na svých oficiálních profilech a nejen vnějakém bulvárním plátku.
Článek je součástí projektu Safer Kids Online
Safer Kids Online je celosvětová iniciativa společnosti ESET. Cílem této iniciativy je přinášet informace, které mohou rodiče, vychovatelé, děti a učitelé využít kotevření diskuze obezpečnosti nainternetu a poskytnout nástroje provytváření bezpečného online prostředí provšechny děti.
Novinky z magazínu Dvojklik.cz
Jednou měsíčně vám pošleme tonejbezpečnější čtení. Pohodlně. Domailu.
Další informace o zpracování osobních údajů najdete v našich zásadách ochrany osobních údajů.