Életeket tesz tönkre a mesterséges intelligencia, utat tört a deepfake
További FOMO cikkek
- Medveczky Ilona a Barcelona futballistájáról: Azt hittem, belehalok, akkora volt a férfiassága
- Nehéz időszakáról vallott Balogh Levente: A Blaha Lujza téren omlottam össze, szerencsére a mentők hamar kiértek
- Ő lett Katalin hercegné jobbkeze
- Megszólalt régi barátja Andrei Mangráról: Nem ugyanaz, lelki és mentális problémákkal küzd
- Budapest is szerepel a legszebb és legolcsóbb karácsonyi vásárok listáján
A mesterséges intelligencia gyors, már-már kontrollt nem ismerő fejlődése több kérdést vetett fel az utóbbi években, amelyek többsége a biztonság köré összpontosul. A technológia még gyerekcipőben jár, legalábbis olyan értelemben, hogy még nem látjuk biztosan, milyen hatással lesz a jövőben az életünkre, és kiknek fogja megnehezíteni a mindennapjait – ideértve akár a különböző szakmákban dolgozók piacról való kiszorulását. Bár a munkahelyek elvesztése már önmagában súlyos gondot okozhat, ez egyelőre még nem jelent akkora veszélyt, ám a mesterséges intelligencia némely funkciója jelenleg is komoly problémákat rejt. Közéjük tartoznak a deepfake videók, azaz olyan hamisított felvételek, amelyeket akárkiről létre lehet hozni, mivel az AI valódi embereket utánoz le akár hang, kép vagy mozgókép formájában.
A technológia megtévesztés gyanánt akár politikai kampányokhoz is használható, de leginkább a pornóiparban veszik nagy hasznát. Egy 2019-ben készült holland tanulmány szerint az interneten megtalálható hamis videók 96 százaléka pornográf tartalmú, és többségük nőket ábrázol. Míg egy 2023-as kutatásban azt közölték, 2019 óta 550 százalékkal nőtt a hamisított képek előfordulása az AI megjelenésének köszönhetően. Sophie Maddocks, a Pennsylvaniai Egyetem kutatója korábban kifejtette, a mesterséges intelligencia segítségével gyártott pornográf tartalmak terjedése a nők kihasználását erősíti. Roberta Duffield AI-szakértő pedig azt nyilatkozta, az egyszerű hozzáférés, a felügyelet hiánya és az ipar egyre növekvő professzionalizálódása a nők kizsákmányolásának és meggyengítésének új eszközévé teszi ezeket a technológiákat. Hogy a valóságban mekkora veszély leselkedik a gyengébbik nemre, azt a saját szemünkkel láthatjuk az RTL+-on nemrég megjelent dokumentumfilmben, ami az Egy másik test címet kapta.
A produkcióban egy amerikai diáklány történetét kísérhetjük végig, akinek védelme érdekében az arcát deepfake technológiával megmásították, illetve az eredeti nevét sem árulták el. A Taylor Klein fedőnévvel illetett fiatalról deepfake pornóvideókat töltöttek fel a Pornhubra és más felületekre, majd ismeretlen férfiak kezdtek üzeneteket küldözgetni neki a közösségi oldalain. Bár értesítette a rendőrséget a történtekről, nem tudták, mi a megfelelő lépés ebben az esetben. Egy ideig telefonon keresztül tartotta velük a kapcsolatot, majd egy nyomozó kereste meg őt, kérve, hogy mesélje el, mi történt. Azt állította, meg kell vizsgálniuk a felvételeket, hogy ki lehet rajta, majd arra a megállapításra jutott, hogy annak ellenére, hogy ő maga is helytelennek tartja, ami történt, az elkövető nem követett el jogsértést a feltöltéssel, így nem történt bűncselekmény.
Klein ekkor egy ügyvéd, Adam Dodge segítségét kérte, aki kifejezetten erre szakosodott. A jogász kiemelte, nem minden államban szabályozzák a deepfake használatát, bár néhányban már megtették a szükséges lépéseket, szövetségi szinten még nem hoztak törvényt a hamisított felvételek ellen.
A deepfake videók többsége nem esik a nem beleegyezésen alapuló pornográf felvételekről szóló törvény hatálya alá, ugyanis ezen a felvételen nem a sértett teste látható. Ilyenkor személyazonosság hamisítása vagy képmással való visszaélés miatt lehet eljárást indítani
– nyilatkozta Dodge a filmben, kiemelve, az interneten könnyen el lehet titkolni a személyazonosságunkat, és ugyan a legtöbb esetben az elkövetőt pillanatok alatt el lehet kapni, ez alól kivételt képez, ha az illető virtuális magánhálózatot használ.
Ahogy a dokumentumfilmben elhangzik, a deepfake videókkal nehéz felvenni a harcot, a legtöbben fel is adják a próbálkozást, mivel tehetetlennek érzik magukat, illetve azon portálokat is a törvény védi, amelyekre felkerülhetnek ezek a felvételek. A Kaliforniai Egyetem egyik professzora, Hany Farid azt állította, az Egyesült Államokban a techóriásokat már 20 éve a törvény pajzsa védi a felelősségre vonás alól. Mint a produkcióban kiemelik, a kommunikációról szóló jogszabály 230. fejezetéről van szó, aminek értelmében az országban üzemeltetett weboldalakat semmilyen felelősség nem terheli. A filmben így olyan nehézségeknek lehetünk szemtanúi, hogy ilyen esetben az áldozatok számára milyen jogi lehetőségek adottak – és azt is végigkísérhetjük, mindez lelkileg milyen megpróbáltatásokkal jár.
A dokumentumfilmben egyébként kiderül, hogy nemcsak Klein, hanem több fiatal lány is érintett az ügyben, majd némi nyomozás után le tudják szűkíteni a kört, hogy az iskolatársaik közül ki állhatott bosszút rajtuk ekképp, azonban a tettes megtalálása még így sem vezetett eredményre. Az elkövető ugyanis – aki addigra már 132 deepfake videót készített, köztük Billie Eilishról és Greta Thunbergről – virtuális magánhálózatot használt, így a nyomozás a hatóságok részéről megrekedt. Telefonon ugyanakkor felkeresték a tettest, aki sem megerősíteni, sem cáfolni nem akarta, hogy ő volt a hunyó, így csak szóbeli megrovásban részesült, és arra kérték őt, bár törvényileg egyelőre nincsenek szabályozva az efféle esetek, ne tegyen még egyszer ilyet, majd le is zárták a nyomozást – az elkövető pedig meg is köszönte a rendőröknek, hogy foglalkoznak az üggyel.
Mint azt a filmben kiemelik, a deepfake-készítés ma már nem hobbi, hanem jövedelmező tevékenység. Jelenleg 9500 oldal foglalkozik nem beleegyezésen alapuló deepfake videókkal, azonban ez a szám folyamatosan növekszik, mivel akárki használhatja ezt a technológiát. A legnagyobb oldalnak már 14 millió látogatója van havonta, így a veszély aktuálisabb, mint gondolnánk. A dokumentumfilmben úgy fogalmaznak, a hamisított pornóvideók első számú célpontjai a nők, akik valamilyen okból – akár amiatt, mert túl sikeresek – felbőszítettek egy férfit, és így akarják fegyelmezni őket. Hozzáteszik, a deepfake tartalmak félévente megduplázódnak, és azt jósolták, hogy 2024-re már több mint 5,2 millió lesz elérhető belőlük a neten. A 90 százalékuk pedig olyan pornófelvétel, amely nem a benne szereplő nők beleegyezésével készült.
Döntött az Európai Parlament
A mesterséges intelligencia veszélyei nemcsak az Egyesült Államokban, hanem Európában is terítékre kerültek már. Idén márciusban az Európai Parlament elfogadott egy ezzel kapcsolatos jogszabályt, amelynek „célja az alapvető jogok, a demokrácia, a jogállamiság és a környezeti fenntarthatóság védelme a magas kockázatú mesterséges intelligenciával (MI) szemben, miközben serkenti az innovációt és megteremti Európa vezető szerepét a mesterséges intelligencia területén”. A rendelet a mesterséges intelligencia lehetséges kockázatai és hatásai alapján állapít meg kötelezettségeket az alkalmazásra vonatkozóan. A jogszabály értelmében:
- tiltott lesz az érzékeny személyes adatokon alapuló, biometrikus kategorizálás vagy az arcfelismerő adatbázisok létrehozása „olyan arcképek felhasználásával, amelyeket az internetről vagy zárt láncú televíziós hálózatok felvételeiből nem célirányosan válogatnak le”;
- a munkahelyen és az iskolákban tilos lesz gépi érzelemfelismerő rendszereket alkalmazni;
- a polgárokat kockázati profiljuk vagy társadalmi hovatartozásuk alapján nem lehet pontozni;
- szabályellenes „a profilalkotásra, illetve a bűnözői előéletre alapozott prediktív rendészet”, valamint az emberek viselkedésének befolyásolására alkalmas vagy sebezhetőségüket kihasználó rendszerek alkalmazása;
- a bűnüldöző szervek sem vehetik igénybe a távoli biometrikus azonosító (RBI) rendszereket – bírói engedély szükséges hozzá,
- kötelező lesz a mesterséges vagy manipulált képi, hang- és videótartalmakat megjelölni.
Magas kockázatúnak számítanak a kritikus infrastruktúrák, az oktatás és a szakképzés, a foglalkoztatás, az alapvető magán- és közszolgáltatások (pl. egészségügyi és banki szolgáltatások), a bűnüldözés, a migráció és a határigazgatás területén, valamint az igazságszolgáltatásban és a demokratikus folyamatokban (pl. a választások befolyásolására) használt mesterségesintelligencia-alkalmazások
– írta akkori közleményében az Európai Parlament.
Mint hozzátették, a polgároknak joguk lesz panasszal élni a mesterségesintelligencia-rendszerek alkalmazása kapcsán, illetve részletes tájékoztatást kérhetnek olyan döntésekről, amelyek magas kockázatú MI-rendszerek bevonásával születtek. A rendelet az Európai Unió Hivatalos Lapjában való kihirdetését követő huszadik napon lépett hatályba, a tagállamokban pedig a hatálybalépést követő 24 hónap elteltével a jogszabályt teljes egészében alkalmazni kell, kivéve a tiltott gyakorlatokra vonatkozó rendelkezéseket.
A celebek is megjárják
Az Európai Unióból kivált Egyesült Királyságban már ennél messzebbre is mentek, mivel idén áprilisban az igazságügyi minisztérium áldozatvédelemért felelős államtitkára, Laura Farris bejelentette, hogy kezdeményezik a mesterséges intelligenciával készített, szexuális tartalmú képek teljes kriminalizálását, börtönnel és felső határ nélküli kártérítéssel sújtását. Az efféle hamisított felvételek előállítását is bűncselekményként kezelnék, függetlenül attól, hogy megosztották-e valahol.
Az Amerikai Egyesült Államokban ugyanakkor jelenleg nincsenek szövetségi törvények erre vonatkozólag, és nem csoda, hogy sok szakértő sürgeti a jogi fellépést ez ügyben, mivel egyre többen válnak a deepfake célpontjává. Ez alól pláne nem kivételek a hírességek. Korábban Donald Trumpról és Ferenc pápáról is terjedni kezdtek a neten hamisított fotók, míg Taylor Swift esetében meztelen képeket osztottak meg. Az egyiket 47 milliószor nézték meg, mielőtt letörölték volna.
Ahogy korábban megírtuk, bár a deepfake videók sokszor annyira megtévesztőek, hogy a rajtuk szereplő személy teljesen valóságosnak tűnik, ám vannak olyan jelek, amelyek alapján ki lehet szűrni, hogy kamu felvételről van szó. Érdemes figyelni például az illető kézfejét, mivel a mesterséges intelligencia annak megformálásán sok esetben átsiklik. Egy embernek így több vagy éppen kevesebb ujja lesz, de az is megeshet, hogy a kézfeje tűnik furának. Emellett feltűnő lehet, ha valakinek a jellegzetes arcvonásai tűnnek el, meg kell figyelni a bőrszínt és annak árnyalatát, illetve árnyékait. Továbbá figyelmeztető jel lehet a természetellenes szemmozgás, rossz pislogás vagy annak teljes hiánya.
A kutatások azt mutatják, hogy az arcunk 43 különböző izomból áll, amelyek végtelen, egyedi kombinációkban képesek együttműködni. Ezért ha tökéletlenségeket vagy elmosódott képminőséget észlelünk az arc és a hajszálak körül, fennáll annak a valószínűsége, hogy amit látunk, az nem a valóság
– nyilatkozta korábban Nicholas Crouch, a scams.info szakértője.
A legmegtévesztőbb deepfake videókról a technológia megjelenése óta egyébként több gyűjtés is született már, az alábbiakban is egy ilyen válogatást tekinthet meg:
(Borítókép: Németh Emília / Index)