- Belföld
- deep fake
- tom cruise
- scarlett johansson
- bruce willis
- erzsébet királynő
- obama
- putyin
- gyurcsány ferenc
- hollik istván
- márki-zay péter
Itt a deepfake, mit tegyünk?
További Belföld cikkek
- Reagált a kormány a legújabb Magyar Péter-féle hangfelvételre
- Átkot és rontást is levesznek, de füvesasszony is lesz a Miniszterelnökség által támogatott sámánfesztiválon
- A Hős utcai gettónak már a megépítése sem volt jó ötlet, most felszámolják
- „Ennek k..va nagy következményei lesznek, ebből elég volt” – újabb hangfelvétel került ki Magyar Péterről
- Csaknem húsz éve az Alkotmánybíróság dobta le a „választási atombombát”
A deepfake álvideók a mesterséges intelligencia segítségével bárki szájába bármilyen tartalmat adhatnak, akár a saját hangján is, sőt, bármilyen „kényes szituációba”, akár egy szexjelenetbe is belehelyezhetik az áldozatot. Egy kampány finisében, egy-két nappal a választás előtt közzétett, tökéletes minőségben előállított deepfake videó hamisságának leleplezésére szinte semmi esély, kártékony hatása egy elbukott választás súlyával mérhető.
A deepfake a ma ismert talán leghatékonyabb eszköz polgárok magánéletének tönkretételére (feleség afférja egy idegen férfival) vagy politikusok lejáratására (kereszténydemokrata politikus egy éjjeli bárban, amint húszezrest dug a rúdtáncoslány bugyijába – és akkor még le is fékeztük a fantáziánkat).
Képzeljük el például, hogy egy muszlimok százezreit befogadó ország vezetőjének szájába deepfake technikával Mohamedet gyalázó szöveget adnak, vagy mondjuk azt, hogy egy közszereplő „elismeri″ egy privát beszélgetés során, hogy őt egy idegen hatalom zsarolja, olyan döntésekre kényszerítve, melyeket különben soha nem tett volna meg. Egy ilyen típusú/tartalmú deepfake videó nyilvánvalóan eldönthetné a magyar választást is kiegyenlített erőviszonyok esetén. És utána már hiába is derülne ki a tényleges igazság.
A jövő elkezdődött
Tavaly történt az USA-ban, hogy egy 50 éves amerikai anya annyira a szívén viselte lánya pomponkarrierjét, hogy úgy döntött, a deepfake technológia segítségével őrületbe kergeti a lány riválisait, és ezzel megpróbálja kifúrni őket a pomponcsapatból. Manipulált fotókat készített, melyeken a kipécézett lányokat meztelenül, dohányozva vagy alkoholizálva mutatta be. Ezeket aztán egy névtelen e-mail-címről áldozatainak is elküldte, illetve az iskola egyik edzőjének is megmutatta. Nem volt elég okos, az IP-címe lebuktatta.
Politikai példák is akadnak már. 2018 szilveszterén a gaboni elnök népszerűségét egy deepfake videóval próbálták meg csökkenteni, két évvel ezelőtt pedig az indiai választási kampányban is bevetették a módszert. De jelent már meg deepfake videó Donald Trumpról is, a brit uralkodó, Erzsébet sem úszta meg (jóllehet, ő nem politikai célból vált a deepfake áldozatává). Készült már deepfake videó Obamáról és Putyinról is, igaz, egyelőre csak ismeretterjesztő céllal: maguk a készítők igyekeztek bemutatni, hogyan is állítják elő ezeket a hamisítványokat mások.
Mára eljutottunk oda, hogy némi informatikai tudással szinte bárki képes lehet egy meggyőző, de hamis hang- és képanyagot előállítani, és annak sincs semmi akadálya, hogy ezt az interneten akár milliókhoz is eljuttassa. Márpedig ha egy közszereplő a saját hangján olyasmit „mond”, amit egyébként soha nem mondana, vagy olyasmit „tesz”, amit soha nem tett és nem is tenne, ráadásul mindezt tökéletesen hihető módon, „mélyhamisítással” – akkor könnyű belátni, hogy a kommunikációs háborúk közelgő szintlépéséről beszélhetünk.
Hiszen ha belegondolunk: minden hírfogyasztóban sok évtizedes tapasztalat alapján rögzült az, hogy a hangok és képek segítségével rögzített események az igazságot mutatják, a hangos dokumentumfilmek eredeti forrásanyagként szolgálnak a tények megismeréséhez. Ha már annak sem lehet hinni, amit látunk, amit hallunk, akkor semminek és senkinek sem. Elviekben tehát bármit el lehet hitetni ily módon az emberekkel, és annak a bárminek az ellenkezőjét is.
Szárnypróbálgatás nálunk, praxis a világban
Egy kezdetleges verziót láthattunk már Magyarországon is a Facebookon felpörgetett fideszes kampány részeként, amikor Gyurcsány Ferenc nemzeti és uniós zászlók előtt mond éppen beszédet, ám a képsor alatt az elhíresült őszödi beszédből játszottak alá részleteket. Ennek a videónak a készítője azzal nem bíbelődött, hogy szinkronizálja is a Gyurcsány-videót, mindössze annyi lehetett a célja, hogy a 2006-ban elemi felháborodást kiváltó hanganyagot képi megjelenítéssel tegye erősebbé. A „felvétel” még mindig megnézhető Hollik István fideszes képviselő honlapján.
Ám vannak jóval profibb változatok is már. Az első, választási kampányban bevetett deepfake videó Indiában, a WhatsApp alkalmazáson kezdett terjedni. A hamis felvételen Manoj Tiwari, a kormányzó párt elnöke volt látható, aki a hindi nyelv – általa nem beszélt – haryavni dialektusában kritizálta politikai ellenfelét, Arvind Kejriwalt. A videót 5800 csoportban osztották meg, 15 millió potenciális szavazót ért el.
2020 karácsonya előtt maga Erzsébet, brit királynő mondott ünnepi beszédet a Channel 4 nevű brit közszolgálati adón – de csak látszólag. Valójában egy élethűnek tűnő számítógépes másolat beszélt az alattvalókhoz. A trükkfelvételen a „királynő” olyan – az uralkodócsalád számára – kínos témákról beszélt, mint András yorki herceg szexbotránya, illetve Harry herceg és Meghan függetlenedése a királyi családtól. A műsor felháborodást váltott ki ízléstelenségével és tiszteletlenségével. A csatorna védekezése, hogy csupán a fake news jelenség veszélyeire szerették volna felhívni a figyelmet, nevetségesebbre sikeredett, mint maga a „deepfake királynő”.
Híres színészekről is készült már deepfake videó, Tom Cruise és Scarlett Johansson is akarata ellenére lett a deepfake áldozata a TikTok-on.
Gyerekcipőben jár a megoldás
Ma gyakorlatilag bárki feltölthet bármit a közösségi médiára, de igazán hatékonyan ellenőrizni az ott megjelenő tartalmakat nagyon nehéz. Bár a Facebook két évvel ezelőtt, 2020 januárjában hivatalosan is szabályzatába foglalta, miként akarja kezelni a deepfake videókat és manipulált médiatartalmakat, ez is csupán eső után köpönyeg. Mire kiszűrik az ilyen hamis tartalmakat, már bőven megtették hatásukat.
Mindenesetre a techóriások már kutatják a mesterséges intelligencia által generált tartalmakra jellemző jeleket, és mind szorosabban együttműködnek a hatóságokkal, egyetemekkel és a technológiai szektor más szereplőivel az automatizált hitelességi vizsgálatok érdekében.
(Borítókép: China Photos / Getty Images)