Po fotomontážích je na řadě video: Umělá inteligence umí udělat pornohvězdu z kohokoliv

12. únor 2018
02679638.jpeg

Představte si, že by šel vytvořit pornografický film, ve kterém by hrála libovolná celebrita nebo váš soused, pouhým kliknutím tlačítka. Každý by mohl během pár minut vyrobit kompromitující materiály na neoblíbeného politika nebo zničit život expřítelkyni. Kvůli neuronovým sítím se to nejspíš brzy stane skutečností. A dokázat pravdivost jakéhokoliv videa bude skoro nemožné.

Kamera sleduje muže v obleku, jak kráčí chodbami Kremlu a skládá svůj prezidentský slib. Místo Vladimira Putina má ale obličej opozičního lídra Alexeje Navalného. Tedy, alespoň přibližně. Video vytvořené pomocí neuronové sítě není dokonalé, ale všichni se shodují, že je jen otázka času, kdy už taková videa od originálů nerozeznáme. Jmenují se deep fakes, podle stejnojmenného diskuzního klubu na fóru Reddit, kde se poprvé objevila. Politika se v nich ale zatím objevuje výjimečně, drtivá většina jsou videomontáže s erotickým obsahem.

Mezi nejpopulárnější už existující videa patří falešný striptýz Emmy Watson nebo montáž těla pornoherečky Krystal Boyd a tváře Taylor Swift. Deep fakes zatím nejsou technicky dokonalé a udělat je delší než pár desítek vteřin je náročné. Ty méně povedené jde snadno rozpoznat podle trhaných pohybů a vizuálních chyb, nejpřesvědčivěji působí videa s malým rozlišením nebo ta uložená jako gif. Přesto jsou deep fakes už teď uvěřitelné daleko víc než dosavadní pokusy o zneužití celebrit pro falešné pornosnímky. Videa s veřejně známými lidmi jsou mezi deep fakes zastoupena kromě popularity i kvůli technickým omezením. Síť pro naučení tváře potřebuje velké množství záběrů z různých úhlu a herci jsou pro ni proto ideální materiál. Ne náhodou jedno z nejpřesvědčivějších videí vytvořených pomocí FakeApp ukazuje Nicolase Cage v neexistujících rolích.

Jak se budou nedobrovolní pornoherci bránit?

Název je odvozený od technologie, která se při tvorbě deep fakes pro „roubování“ obličejů celebrit na těla pornohereček používá. Na rozdíl od ručního kopírování a retušování těl tahle falešná pornovidea vytvořila vícevrstvá neuronová síť. Umělá inteligence se na základě fotografií nebo videa naučí výrazy původní i nové tváře a pomocí algoritmu je pak dokáže prohodit. Na Redditu se objevila taky aplikace FakeApp, díky které si jinak složitý proces mohou vyzkoušet i lidé s mírně pokročilými technickými znalostmi.

Vzhledem k množství fotografií (prý jich stačí zhruba 500), které o sobě všichni šíříme po internetu, nemusí ale být ani výroba deep fakeu s vaší tváři nemožná. A jak upozorňuje magazín Wired, právně to bude dost šedá zóna. Zatímco uniklé domácí porno je stále materiál chráněný právy na soukromí, falešná videomontáž žádný neoprávněný materiál nepoužívá, protože využívá veřejných zdrojů, a teoreticky je jako autorské dílo chráněna svobodou uměleckého vyjádření a nejlepší obranou bude nejspíš nařčení z pomluvy.

Kritici deep fakes poukazují na to, že montáže snadno půjde využít jako „revenge porn“. Zneuznaní bývalí partneři by tak mohli dostat další nástroj, jak se svým ex za rozchod pomstít. V odpovědi na komentář pod svým pesimistickým článkem přirovnává alternativní porno režisérka Erika Lust deep fakes k nekonsensuálnímu sexu. „Gal Gadot s použitím svého obličeje v pornofilmu nesouhlasila. Je to jen další příklad toho, jak jsou ženy objektifikované a redukované jen na sexuální objekty.“ Nejznámější poskytoval erotických videí Pornhub oznámil, že deep fakes bude mazat, protože jde o „nekonsensuální pornografii“. A potrvá to možná jen pár let, než se videomontáže zapojí i do politického boje. Dezinformační weby rády používají manipulované fotografie a není důvod se domnívat, že by do svého arzenálu videa s ochotou nezařadily. Stačí trochu šikovnosti a štěstí a brzy půjde vyrobit skandální video na kohokoliv, jehož tvář je k nalezení na dostatečném množství snímků.

Na druhou stranu – fotografie jsou retušované prakticky od svého vzniku a na všudypřítomné a od originálů laikem nerozlišitelné fotomontáže jsme si taky zvykli. Deep fakes nám tak možná ze všeho nejvíc připomínají něco, co bychom už stejně měli dělat – důsledně ověřovat zdroje všeho, co k nám skrze sociální sítě a jiné kanály dojde. Za pár let to totiž může být i erotický film s vaším kolegou.

Další články autora