Hortenzia, Gergő
8 °C
17 °C
Index - In English In English Eng

A pornóipar segíti a politikai célú deepfake fejlődését

cover.gif
2019.11.01. 21:30

A kamuhírek ideje sokak szerint hamarosan korszakot vált, és az írott hazugságok helyett hamarosan azzal verik majd át az embereket, hogy a saját szemükkel-fülükkel láthatják-hallhatják, ahogyan egy ország elnöke, politikusa vagy egy híresség mond olyasmit, amit valójában sosem mondana. És persze soha nem is mondott. A deepfake műfaja folyamatosan fejlődik, de egyelőre nem úgy, ahogyan attól a szakemberek féltek. 

Olyan, mint a photoshop, csak videóban

A deepfake kifejezés a deep learning és fake szavak összevonásából ered, mert minél több információt kap a gépi tanulással felvértezett algoritmus (deep learning), annál valósághűbb, de hamis (fake) videó az eredmény.

Kicsit olyan ez, mint a photoshoppolt képek videóra átültetett változata, ahol a hamis videón egy ismerős arc kerül olyan ismeretlen szituációba, vagy olyan mondanivalót lehet tőle hallani, ami meglehetősen szokatlan. A veszélye abban rejlik, hogy a hitelességet is valós időben kellene tudnunk megállapítani, de ez egyelőre különösen nehéz problémának tűnik. 

A közéletben még mindig a hamis hírek jelentik az igazi veszélyt

Sokan jósolták, hogy az aktuális amerikai elnökválasztás manipulálásának nagy dobása lesz a deepfake videók terjesztése, amikor maguk az elnökjelöltek beszélnek majd arról egész meggyőző videókon, hogy szabadidejükben csecsemővért isznak, és esőerdőt áldoznak a háttérhatalmaknak.

A deepfake lényege, hogy miután az emberek és a politikusok jelentős része attól függetlenül, hogy valójában igaz vagy nem igaz egy állítás, a hírekre, fényképekre és hangfelvételre azonnal rávágja, hogy manipulált, a videóra sokkal nehezebb ráfogni, hogy trükköztek vele. (Igaz, erre is volt példa az elmúlt napok belpolitikai híreit olvasva.) És ne felejtsük el azt a videót sem, ahol Nancy Pelosinak, az amerikai kongresszus demokrata párti elnökének hangját változtatták el úgy, hogy részegnek tűnjön. Ez még nem nevezhető klasszikus deepfake videónak, de miután a Facebook nem volt hajlandó eltávolítani a felületéről a manipulált felvételt, jól látszik, milyen hatékony módja lehet az ilyesmi a politikai haszonkovácsolásnak.

Úgy tűnik azonban, egyelőre a pornóban hasítanak a deepfake videók - igaz az amerikai elnökválasztás finiséig még majdnem egy év van tökéletesíteni a technikát. 2018-ban már volt egy meglehetősen gyenge próbálkozás arra, hogy Donald Trumpot így járassák le, a videó készítői állítólag komolyan is gondolták, hogy valaki azt fogja hinni, hogy igazi. A videóból azonban egyértelműen kiderül, hogy meggyőző deepfake-et készíteni nem egyszerű feladat. De egyben az is, hogy milyen hátborzongatóan hihető lehetne egy ilyen, ha sikerülne jobb minőségben megcsinálni. 

Ebből a videóból pedig az derül ki, hogy egy év alatt mennyit fejlődött a műfaj, ugyanis ez szintén deepfake, csak éppen Mark Zuckerbergről. Valami megmagyarázhatatlanul furcsát érez benne az ember, de már korántsem annyira szembetűnő a kamu, mint Trump videójánál. 

96 százaléka pornó

Nem feltétlenül azért pornó a deepfake videók túlnyomó többsége, mert hirtelen az összes politikus vagy gazdasági szereplő úriemberként viselkedik, és véletlenül sem vetemedne arra, hogy ilyen videókat tegyen közzé. Inkább azért, mert a pornófogyasztók körében olyan nagyon nem zavar senkit, ha nem teljes az élmény, azaz ha az ismert színésznő vagy celeb nem 100%-ig olyan, mint a valóságban, furcsán pislog és természetellenes a mimikája. A Deeptrace kutatása szerint neten keringő deepfake videókat

nagyjából 134 millióan látták, és 96 százalékuk pornó.

A kutatás szerint a deepfake videók jelentős többsége (7144 videó) pornóoldalakon van fenn, míg kevesebb mint 500 ilyen videó a Youtube-on.

Az is kiderült, hogy a Youtube videókon, vagyis a nem pornográf jellegű deepfake-ek esetében a célszemélyek többségében férfiak, míg a pornós célszemélyek szinte kizárólag nők, akiknek persze a beleegyezésük nélkül montírozták az arcát pornójelenetekre.

És ha azt hinné, hogy csak az énekesnők vagy a színésznők rettegnek attól, hogy egy ilyenen felbukkan az arcuk, tévednek. A videóknak ugyanis mindössze egy százaléka készült ismert művészekről, még ha az elhíresült Rihanna-videó után azt is hihetnénk, hogy erre találták fel az egészet. 

Ha nem fizet, a videót megkapják az ismerősök

A kiberbűnözés teljesen új módszerét indíthatja el a deepfake pornó. Bár nagyobb energiabefektetést igényel, a siker is biztosabb, hiszen senkinek nem tesz jót, ha nyilvánosságra kerül egy videó, amin felületesebb szemlélőknek úgy tűnhet, mintha az illető egy pornóvideóban szerepelne. Már a kétség is pénzre váltható, és már azért is hajlandóak fizetni emberek, hogy az ismerőseiben, üzlettársaiban fel se merüljön, hogy tényleg ő az ott a videóban.

Egyelőre azonban még nem tart itt a technológia, a deepfake videókról még viszonylag egyszerűen megmondja egy laikus is, hogy hamisak, és az elhíresült jachtos orgiás felvételekre sem lehet ráfogni, hogy azokat manipulálták.

De az egészen biztos, hogy a minőségük rohamosan fejlődik, és nem valószínű, hogy a témájuk, és a felhasználási céljuk megáll a pornónál és a zaklatásnál. A szakemberek szerint ahhoz, hogy minél hamarabb tökéletessé tudják fejleszteni a deepfake algoritmusokat, az kell, hogy minél több arcképen tudják trenírozni azokat. Hogy, hogy nem, erre pont megfelelnek azok a mostanában divatos alkalmazások, amiknek boldogan és önként adja meg bárki az arcképét.

Az appok, amik a telefonok előlapi kameráját használva élőben tesznek a felhasználóra sminket, varázsolják kutyává vagy megmutatják, hogy fog kinézni idősen, mind alkalmasak arra, hogy néhány másodpercnyi szórakozásra lehessen cserélni az arcképet.

Hogy az öregítős app mennyire valósághű idős embert készít a felhasználóból, pontosan megmutatja, hol tart ez a technológia. Ha van megfelelő mennyiségű rendelkezésre álló valós arckép és videó, és egy csapat jó programozó, csak idő kérdése, hogy a deepfake videók is egyre jobb minőségűek legyenek.

Jim Meskimen humorista arca például ezen a videón mindig azzá a hírességgé változik ezen a videón, akit éppen megszemélyesít, és a hangját utánozza. Az eredmény még nem teljesen tökéletes, de közel áll már ahhoz, hogy nehéz legyen megmondani, éppen a fáradt George Clooney szaval, vagy deepfake az egész.

Fórumokon megy igazán nagyot

A Redditen nem olyan régen zárták be azt a fórumot, ahova a felhasználók deepfake videókat töltöttek fel. Ennek ellenére nem nehéz olyan felületeket találni internetszerte, ahol deepfake-készítőkkel lehet beszélgetni, tanácsokat kérni, és mint kiderült, ez a legjobb közösség azoknak is, akik nőismerőseik arcképét szeretnék egy manipulált pornóvideóban látni, és ezért fizetni is hajlandóak. Hogy egészen pontosan mire is kell egy ilyen felvétel nekik, vagy mi lesz a videónak az utóélete, arról csak találgatni lehet, de semmiképpen nem szívderítő a gondolatmenet.

Már a Facebook és a Youtube is bejelentette, hogy hamarosan a nagyközönségnek is bemutatják azt a kiterjesztett valósággal működő szolgáltatásukat, amivel például sminkeket lehet felpróbálni. Az első videók alapján meglepően élethűen mutatja meg, hogyan áll a rúzs vagy a szemfesték valamelyik árnyalata az emberen, és pont olyan a hatás, mintha a tükörben nézegetné magát valaki. Le is lehet fotózni az eredményt, és várhatóan a szépségipari márkák mellett hamarosan más termékeket is fel lehet próbálni, és a tervek szerint itt is valóságos lesz az eredmény, nem olyan, mintha anno a papírból kivágható öltöztethető figurák esetében.

Próbál felkészülni a törvényhozás

A pornóipar mindig is segítette az új technológiák elterjedését és fejlődését, a VHS-lejátszóktól kezdve a felugró ablakos hirdetéseken és az online fizetésen át az élő stream videók megjelenéséig. És most itt a deepfake, amit azért nehéz szabályozni, mert nem klasszikus értelemben vett, könnyen büntethető bosszúpornóról szól, hanem olyan dolgot látunk, ami a valóságban sosem történt meg. Pont ezzel védekeznek a készítők is, akik szerint ezzel az erővel a horrorfilmek rendezőit vagy a krimiírókat is le lehetne tartóztatni gyilkosságért. Ennek ellenére az Amerikai Egyesült Államok 46 államában készül olyan törvénymódosítás, hogy a deepfake pornóvideókat is bosszúpornónak lehessen tekinteni.

A Szenátus hírszerzési bizottságának tagjai kérdéseket küldtek a legnagyobb közösségi oldalaknak, és arra várnak választ, hogyan készültek fel az oldalak arra, hogy az ilyen tartalmakat szűrjék. Mármint nem a pornót, hiszen arra már régóta megvannak a módszereik, hanem a például a politikusos deepfake videókat. Ez azért is érdekes, mert fentebb említett kutatásokat végző cég is azt mondta, hogy elképzelhetőnek tartja, hogy ha még most nem is, de előbb-utóbb előállhat valaki egy olyan deepfake videóval, ami nagyon valósághű, nagyon életszerű, és akár eldöntheti egy elnökválasztás sorsát. Kalifornia állam már törvénybe is foglalta, hogy bűncselekmény politikai vagy pornográf célokra deepfake videót készíteni.

Mindez azért izgalmas kérdés, mert egy technikai szint fölött már nagyon nehezen bizonyítható egy videóról, hogy manipulált, még a szakembereknek is. Azaz egy kellően valósághű felvételről nem biztos, hogy meg tudnák mondani az elemzők, hogy a szemnek lehet hinni, vagy az adott politikus állításának. 

(Címlap és borítókép illusztráció: szarvas / Index)