Totális káosz jöhet a pornóban és a politikában egyaránt
További Külföld cikkek
- Továbbra sincs nyugalom Georgiában, elutasították az elnök keresetét a választással kapcsolatban
- Alig értek véget a választások, Trump miatt már a kormányalakítással foglalkoznának Írországban
- NATO-főtitkár: A NATO-nak Ukrajna támogatására kell összpontosítania, nem a béketárgyalásokra
- Joe Biden kegyelme Donald Trumpot segítheti
- Puccskísérlet Dél-Koreában: betiltották a pártokat, de a parlament ellenáll
A deepfake videók egyre nagyobb teret nyernek manapság, de ezek a tartalmak már nemcsak egy szubkultúra részét képzik, hanem a reklámokban, a televízióban és a pornóiparban is egyre inkább jelen vannak. Néhány hónapja a dél-koreai MNB csatornán történt, hogy az egyik televíziós munkatársuk arcát deepfake technológiával rászerkesztették egy másik műsorvezetőére, így úgy tűnt, mintha ő lenne ott, és ő beszélne.
Hogyan működik a hamisítás?
A deepfake alappillére két számítógépes rendszer, az autoencoder, valamint a generative adversarial network (GAN).
Leegyszerűsítve előbbi fölismeri és vizsgálja a mimikát és azt, hogy miként mozog az adott ember arca, majd ezen információk alapján azt „ráhelyezi” a másik egyén arcára, míg a GAN
addig tökéletesíti a felvételt, amíg az teljesen élethű nem lesz.
Egy minőségi deepfake elkészítéséhez azonban több dologra is szükségünk van: egyrészt kell egy videó, ahova ráilleszthető az egyén arca. Emellett nagyon sok részletes, magas felbontású kép is kell az egyén arcáról, valamint a fent említett mesterségesintelligencia-alapú programok.
Egy deepfake elkészítéséhez azonban nincs szükségünk nagyon bonyolult és fejlett hálózati rendszerekre, elég, ha van egy jó számítógépünk. A Synthesia rendszerén keresztül például lehet ilyen videókat csinálni. Mindössze annyi a dolgunk, hogy ki kell választani a sok emberi arc közül egyet, majd egy szövegdobozba beírjuk az általunk kért szöveget, és készen is van a deepfake-ünk, hiszen az avatár, a szerkesztett arc azt fogja mondani, amit mi leírtunk.
Ez a nyelvi korlátok leküzdése szempontjából egyébként hasznos lehet a nagyvállalatoknak, mert ha különböző nemzetiségű dolgozókat alkalmaznak a vállalatnál, akkor nekik különböző nyelveken lehet elkészíteni ugyanazt az üzenetet.
A gerillamarketing új szintje
A technológiával kapcsolatos bizonytalanság azonban aláássa a reklámok hitelességét is, valamint etikai és jogi kérdéseket is fölvet. Ilyen például az, amikor már elhunyt emberek arcát használják föl marketing- vagy akár oktatási céllal. Nagyon érdekes például a Dél-kaliforniai Egyetem kiállítása, ahol holokauszttúlélők avatárjaival beszélgethetünk, természetesen előre fölvett felvételek alapján.
Rövid időn belül akár az is lehetővé válhat majd, hogy halott felmenőinkkel beszélgessünk ilyen módon.
Ezek azonban nem az elsődleges okai annak, hogy miért van sok embernek kétsége a technológiával kapcsolatban. Az észt titkosszolgálat például figyelmeztetett, hogy az orosz kibertámadásokban, valamint dezinformációs műveletekben jelentős szerepet kaphatnak a deepfake-ek.
Politika és pornó
Emellett az Europol is fölhívta rá a figyelmet, hogy vezető politikusok arcképeivel élhetnek vissza így. Ennek többek között már Barack Obama is áldozatul esett, de Donald Trumpról is terjedtek hasonló felvételek. Természetesen nemcsak a politikusok, hanem más hírességek is ki vannak téve a deepfake veszélyeinek. Tom Cruise arcát például egy belgiumi művész használja föl a TikTok-oldalán, ahol rendkívül valósághű videókat csinál.
A színészek és hírességek viszont az ilyen ártatlannak tűnő tréfák mellett hamis pornóvideókban is föltűnhetnek. A deepfake megjelenésekor sokan a politikai folyamatok manipulálását tartották a legnagyobb veszélynek, azonban ez – mint mára kiderült – sokkal inkább a pornográf tartalmakat érinti.
A deepfake pornóvideókban döntő többségben hírességek arcát használják föl, de előfordulnak olyan esetek is, amikor magánszemélyek esnek áldozatul az ilyen tartalmaknak. Mivel egy deepfake-et ma már nem nehéz elkészíteni – tulajdonképpen a Snapchat face swap funkciója is erre épül –,
többször előfordult, hogy valaki bosszúból az expartneréről tett közé deepfake pornográf videókat.
Mint minden technológia, így a deepfake is használható jóra és rosszra is. Ugyan a legnagyobb pornóoldalak, és ahogy már beszámoltunk róla, a Microsoft is beszállt a rosszindulatú deepfake-ek elleni harcba, az ilyen hamis videók tömegével vannak jelen az előbb említett internetes felületeken is. A technológia fokozatos fejlődésével pedig lassacskán elérünk majd oda, hogy nem hisszük el azt sem, amit a saját szemünkkel látunk – mondta Deborah Johnson, a virginiai egyetem alkalmazottetika-professzora.
(Borítókép: Manipulált videó Vlagyimir Vlagyimirovics Putyinról, Oroszország elnökéről 2019. január 25-én. Fotó: Alexandra ROBINSON / AFP)
Ebben a cikkben a téma érzékenysége miatt nem tartjuk etikusnak reklámok elhelyezését.
Részletes tájékoztatást az Indamedia Csoport márkabiztonsági nyilatkozatában talál.