2024. június 20. 15:00
Szlovénia
Szerbia
Fussballaréna München II. forduló
2024. június 20. 18:00
Dánia
Anglia
Frankfurt Arena II. forduló
2024. június 20. 21:00
Spanyolország
Olaszország

A pufidzsekis pápa és a zsarukkal harcoló Trump mindig legyen gyanús

2023.04.01. 10:27
Az álhírek és a különböző hamis információt megjelenítő tartalmak a közösségi oldalak berobbanásával a mindennapi problémáink részei lettek – így mindig is lesznek olyanok, akik minden különösebb tényellenőrzés nélkül hisznek el – és esetenként osztanak is tovább – ilyen bejegyzéseket. Az elmúlt években már deepfake videókban és képekben sincs hiány az oldalakon, amelyekről egyre kevésbé mondható meg, hogy valósak-e vagy sem. Nem kell azonban kétségbeesni.

A közösségi médiában az elmúlt években egyre sűrűbben találkozhatunk valótlanságot állító vagy hamis információkat közlő bejegyzésekkel, cikkekkel, egyéb tartalmakkal – az álhírek, a ferdítő vagy hamis dolgokat állító híradások mára a mindennapjaink részévé váltak. Ehhez mérten a tudatos közösségimédia-felhasználó minimális ellenőrzés vagy kutatás nélkül már nem hiszi el azonnal, amit lát, még ha nem is minden esetben könnyű ezt megtenni.

A fact check, azaz a tényellenőrzés fontossága vitathatatlan, azonban az álhírek mellett már nemcsak a kamuhírekkel és a valótlanságot állító bejegyzésekkel kell megküzdeniük a felhasználóknak, hanem a különböző deepfake videókkal, hanganyagokkal és a mesterséges intelligencia (AI) által kreált képekkel szemben is fel kell venni a kesztyűt.  

Ahogyan arról az Index is beszámolt, a hetekben Donald Trumpról és Ferenc pápáról is mesterséges intelligencia által kreált képek kezdtek vírusszerűen terjedni a közösségi médiában. Szó szerint elárasztották a Twittert azok a deepfake fotók, amelyeken a korábbi amerikai elnök látható, amint ellenáll a letartóztatásnak, és megpróbál elmenekülni a rendőrség elől.

A képről természetesen ez esetben is sokan elhitték, hogy valóban a Trumppal történtek láthatók, akárcsak Ferenc pápánál, akiről igen szokatlan fotó terjedt el az utóbbi napokban, szintén a Twitteren – ezen a katolikus egyházfő látható egy fehér, hosszú, állítólag Balenciaga márkájú kabátban. A pufidzsekis pápa látványánál ugyan szokatlanabb nem sok létezik, a felhasználók többsége mégis úgy vélte, a fotó eredeti, így több tízezren meg is osztották a bejegyzést.

Ugyan a pápa esetében az Elon Musk által irányított – egyesek szerint inkább szabadjára engedett – platform később jelezte a felhasználók számára, hogy egy mesterséges intelligencia által generált tartalomról van szó, a kép feltöltését követően sokan abban a tudatban voltak, hogy a hagyományokat a végletekig szigorúan követő egyház fejét is elcsavarhatta a modern világ. 

Természetesen erről vélhetően szó sincs, azonban a trendek alakulását tekintve aggasztó, hogy egyre több deepfake videó, hanganyag és kép terjeng az interneten, egy olyan világban, ahol sok ember egy egyszerű, négysoros hírről sem képes eldönteni, hogy nyilvánvalóan hamis vagy ferdített információt tartalmaz. 

Ahogyan az online félretájékoztatás más formáinál is láthattuk, a deepfake következményei a viszonylag ártalmatlantól a rendkívül veszélyesig terjedhetnek, ugyanis egy-egy ilyen kilengéseket okozhat a pénzügyi piacokon, elég meggyőző lehet ahhoz, hogy egy ártatlan embert bűnösnek tüntessenek fel, vagy tönkretegyék valakinek a hírnevét, sőt, ennek köszönhetően valakit akár hatalomhoz is lehet juttatni

– mondta Adam Levin kiberbiztonsági szakértő az Indy100-nak.

Az ujjak, a bőrszín és a szemek megfigyelése lehet a kulcs

A képek és videók ugyan első ránézésre valóban teljesen valósághűek lehetnek, egyes részletekre való kisebb odafigyeléssel már leleplezhető, ha valaki meg akar bennünket vezetni.

Akármennyire is úgy tűnik, hogy a technológia már bármire képes, a legtöbb mesterséges intelligencia által kreált kép valamiért a kézfejek tökéletes megformázásán sok esetben átsiklik, így több AI-képen is látható, hogy egy embernek több vagy éppen kevesebb ujja van a kelleténél, netán furcsa alakot formál a kézfeje – amely esetében nem is lehet kérdés, hogy egy manipulált vagy kreált képről van szó. 

Annak ellenére, hogy az arcvonásaink hasonlíthatnak bizonyos esetekben, a legtöbb személy rendelkezik több jellegzetes vonással, ránccal, anyajeggyel, mosolygödröcskével, amelyek hiánya bizony szembetűnő, ha egy generált képről beszélünk. A deepfake videóknál érdemes megfigyelni a bőrszínt és annak árnyalatát, illetve árnyékait, hiszen ezek valóságossá tételéhez már egynél több kattintásra van szüksége az azt gyártónak. 

A kutatások azt mutatják, hogy az arcunk 43 különböző izomból áll, amelyek végtelen, egyedi kombinációkban képesek együttműködni. Ezért ha tökéletlenségeket vagy elmosódott képminőséget észlelünk az arc és a hajszálaink körül, fennáll annak a valószínűsége, hogy amit látunk, az nem a valóság

– mondta Nicholas Crouch, a scams.info szakértője.

Videók esetében a képekkel szemben már jóval könnyebb dolga lehet a felhasználónak, ugyanis a fények, a különböző arc-, szem- és testmozgások rendkívül árulkodók lehetnek. 

Ilyen gyakori figyelmeztető jel lehet például a természetellenes szemmozgás vagy annak teljes hiánya, illetve a rossz pislogás, netán annak hiánya. Mindez azért lehet, mert rendkívül nehéz utánozni a pislogást természetesnek tűnő módon. A szemmozgások pontos reprodukálása is nehéz, hiszen amikor egy személy beszél a másikkal, a szeme általában követi az illető legapróbb mozgásait is, még ha az egy helyben áll is. 

A szokatlan bőrtónusok, foltok, furcsa megvilágítás és furcsán elhelyezkedő árnyékok arra utalnak, hogy a látottak jó eséllyel hamisak. Ha gyanús videót néz, mindig keressen egy olyan hivatkozási alapot, amelynek a forrása hiteles, ezzel pedig könnyen összevetheti a gyanúsnak vélt videót – így a szereplő személy valódi arcmozgását, hangját, sőt, a szava járását is megismerheti. 

A technológia fejlődése nem segíti a tisztánlátást, a jog sem reagált megfelelően

A fent beágyazott videóból is jól látható, hogy mára a technológia képes szinte teljesen realisztikusan megjeleníteni bárkinek az arcát, vélhetően a legtöbben el is hinnék, hogy a képsorokon Morgan Freeman beszél, ha nem látszana alatta az eredeti személy. Ez pedig valós kihívás elé állítja azokat is, akik igyekeznek kiszúrni a közösségi médiában ránk zúduló tartalmak közül a hamis információkat, képeket és videókat...

Fontos megjegyezni, hogy ennek a technológiának a fejlődésével gyorsan közeledhetünk azokhoz az időkhöz, amikor a deepfake-et a hétköznapi emberek számára semmilyen jelből nem lehet megkülönböztetni egy valódi tartalomtól

– magyarázta Nicholas Crouch.

A szakember szerint éppen emiatt fontos több helyről tájékozódni, és nem mindent elhinni első látásra vagy hallásra, hiszen könnyedén megvezethetnek vagy átverhetnek bennünket. 

Annak ellenére, hogy a deepfake terjesztése a legtöbb esetben büntethető, a lapnak nyilatkozó kiberszakértő, Adam Levin felhívta a figyelmet arra, hogy nagyon kevés tartalom esetében követhető vissza az, hogy pontosan kitől származik. Emellett pedig a jogi szövegezés sem fogalmaz eléggé pontosan ahhoz, hogy ne lehessen kiskapukat találni. 

A jogrendszer nem igazán érte utol még a technológiát. A deepfake legalitása és etikája rendkívül homályos, különösen akkor, ha egy közszereplő képmásának használatáról van szó

– vélekedett a szakember.