Hamis, vagy eredeti? Végleg elveszíthetjük a bizalmat a fotókban
További Külföld cikkek
- Egy szakértő nem zárja ki, hogy Donald Trump nukleáris fegyvert adna Ukrajnának
- Meghalt John Prescott
- Szardínián köthetnek ki a Donald Trump által elüldözött amerikaiak
- Gigantikus pert akasztanak a Netflix nyakába a Jake Paul–Mike Tyson-meccs miatt
- Kiszivárgott egy titkos orosz dokumentum, így osztaná fel a Kreml Ukrajnát a háború után
Vlagyimir Putyin és Joe Biden barátilag ölelkeznek a Politico cikkének kísérőfotóján. Az írás a mesterséges intelligencia által generált képek médiára gyakorolt hatásait elemzi. Az elnöki találkozó generálásához használt AI, vagyis a Midjourney-hez hasonló eszközök segítségével csak pár kattintás, és a szemben álló atomhatalmak vezetői úgy borulnak egymás nyakába, mint az örök cimborák. A legtöbben tisztában vannak vele, hogy az ilyen jellegű képek hamisak, de leginkább csak azért, mert
az utóbbi évek médiakörnyezete arra kondicionálta a médiafogyasztókat, hogy megkérdőjelezzék minden egyes gyanús kép és videó valódiságát.
Azonban túlzás lenne azt állítani, hogy csak és kizárólag a mesterséges intelligenciára épülő képgeneráló szoftverek megjelenése kezdte ki a vizuális tartalmak hitelességét. A fotók manipulációja egyidős a fotózással, azonban vizuális tartalmak hamisításához eddig több időre és erőforrásra volt szükség. Habár az Adobe Photoshop és a hasonló képszerkesztő programok megjelenése nagyban felgyorsította ezt a folyamatot, sőt a kamuképek már sokkal gyorsabban bekerülhettek a média körforgásába, a tapasztalt szem sokszor képes volt még a jó minőségű hamisításokat is kiszúrni.
A korábbi technológiákhoz képest valójában az a legnagyobb különbség, hogy az álképek legyártásához eddig a pontig mindig kellett valami hozzáadott emberi munka és a fotómanipuláció csínjának-bínjának hosszú időt igénylő elsajátítása, analóg és digitális környezetben egyaránt. Sőt, mivel a korábbi hamisítványok emberi kéz nyomait viselték, a babrálás a képpel sokszor tetten érhető volt. Viszont az AI-nak köszönhetően
ma már minden írni és olvasni tudó ember létrehozhat vagy szerkeszthet néhány szavas instrukciókkal ellátott képeket, amelyek eredetisége sok esetben megállapíthatatlan.
Új társadalmi veszélyek
Az AI-képgenerálás kézzelfoghatóbb veszélyei abból fakadnak, hogy az olyan eszközök, mint a Stable Diffusion vagy az OpenAI DALL-E programjai tényleg bárki számára hozzáférhetők, aki hajlandó – egy ilyen technológiai vívmányért – jelképesnek mondható összeget fizetni.
Nemrégiben robbant a botrány, hogy pedofilok gyermekpornográfia gyártására használták az AI-eszközöket. De voltak hírek arról is, hogy az FBI egy új bűncselekményfajta után nyomoz, amely során az áldozatról AI segítségével meztelen vagy kompromittáló képeket készítenek, ezeket aztán az elszenvedő alany hírnevének tönkretételére vagy zsarolásra használják fel az elkövetők.
Régi politikai veszélyforrások
A felsorolt dolgok is rávilágítanak arra, hogy egy bűnös kisebbség miként élhet vissza a technológiával. A fake news és a propagandacélú felhasználás is egyértelműen következik az AI-technológiák etikátlan kiaknázásából. Viszont a mesterséges intelligencia új keletű társadalmi negatívumaival szemben az elmondható, hogy a politika már régóta belenyúl képekbe azért, hogy saját narratíváját erősítse.
A hatalommal rendelkező csoportoknak a mesterséges intelligencia előtti időkben is megvoltak az erőforrásaik az eljáráshoz, ha érdekeik úgy kívánták. Elég csak a leghíresebb példára, Joszif Sztálinra gondolni, aki előszeretettel tüntette el ellenfeleit a közös fotókról a múlt század harmincas-negyvenes éveiben. Az ilyen húzásokkal pedig majdhogynem orwelli szinten tartotta a nyilvánosságot, ahol saját történelmét napról napra változtatta a szovjet propaganda. Tehát a politika már a múltban is nagy hangsúlyt fektetett a vizuális tartalmak manipulálására, ebben semmi újdonság nincs, csak az arányok változtak meg elképesztően.
Mert az is igaz, hogy a fake news gyárak minden eddiginél nagyobb hatalommal rendelkeznek, mivel többé azt az időt és munkaerőt sem kell a hamis hírek legyártásába fektetni, mint korábban.
Félő, hogy az internetet egy idő után teleszemetelik megbízhatatlan, AI generálta álhírekkel, amelyek aztán lassan belecsordogálnak a professzionális médiába is,
és ezzel egyre inkább az analóg információszerzési technikák felé tolják az újságírókat.
Paranoia a képekkel szemben
Azonban a médiafogyasztók is pontosan tisztában vannak azzal, hogy mi történik a világban. Az utóbbi két évben nehéz lett volna elmenni az egyre fejlettebb AI-technológiával folytatott politikai dezinformációs kapmányok mellett. A hamis hírek és a mesterséges intelligenciával kapcsolatos hisztéria annyira a mindennapok részévé vált, hogy mára olyan légkör alakult ki a fotókkal kapcsolatban a nyilvánosságban, hogy szinte az első reflex egy furcsa kép esetén megkérdőjelezni azt. A Politico cikkének alapvető állítása szerint a legnagyobb baj az, hogy
az emberek egyszerűen már nem bíznak semmiben, még az igazi képekben és videókban sem.
Tavaly futótűzként terjedt a közösségi médiában, ahogy a pápa egy divatos, fehér pufi kabátban díszeleg. Az esetre visszatekintve ma már egyértelműnek tűnik, hogy az nem lehetett igazi. Azonban sokan akkor találkoztak először AI-tartalommal, amikor ezzel és ehhez hasonló képekkel jól leégették magukat vagy az általuk képviselt sajtóorgánumokat.
Ezért egyre inkább terjed az a nézet, amely minden, a médiában megjelent képpel szemben bizalmatlan.
Viszont a világban sok olyan furcsa dolog is történik – a pápa fura kabátján kívül –, ami azt bizonyítja, hogy egy vizuális tartalom abszurditása még önmagában nem jelenti feltétlenül azt, hogy a kép valójában hamis. Egyébként az is érdekes, hogy a publikum milyen gyorsan alkalmazkodott az új, egyre nagyobb szkepticizmust igénylő médiakörnyezethez.
Idén nyáron az orosz elnök elleni katonai puccsot végrehajtó, majd különös körülmények között likvidált Wagner-vezér, Jevgenyij Prigozsin villáját átkutatta az orosz titkosszolgálat. A zsoldosvezér házában egészen furcsa, kompromittáló képeket találtak, amelyeken különböző parókákban és álszakállakban pózolt. A meghökkentő fotósorozatot sokan hamis képeknek gondolták, viszont későbbi elemzésekből kiderült, Prigozsin parókás parádézásai valódi fotóknak bizonyultak, és nem a Kreml akarta így megalázni Putyin séfjét.
Az AI-cégek felelőssége
Természetesen, ha bűnbakra kell mutogatni az ügyben, hogy ennyire sok lett a hamis kép, akkor a politika és a technológiával visszaélő bűnözők mellett muszáj megemlíteni a fejlesztőket is, hiszen a gondatlanságuk tette lehetővé az egész problémát.
Az AI-technológiákat fejlesztő cégek úgy engedték rá a találmányaikat az internetre, hogy nem biztosítottak semmilyen vízjelet az ott generált képekhez és szövegekhez annak érdekében, hogy a tőlük származó tartalom felismerhető legyen.
Becsületükre legyen mondva, idővel néhány fejlesztő már elkezdett rejtett vagy nyilvánvaló vízjeleket hozzáadni a képeihez annak érdekében, hogy azokat az AI-tartalomszűrők, ellenőrző rendszerek könnyebben kiszúrhassák. Azonban jelenleg sokkal nehezebb a mesterséges intelligenciával felismertetni az AI generálta tartalmakat, mint képeket gyártatni vele.
A fotók hitelének visszaállítására tett első kísérlet az, hogy a DALL-E hamarosan nyilvánosságra hozza a saját AI-érzékelőjét, ez viszont még csak azt fogja tudni megállapítani, hogy az adott kép készülhetett-e az OpenAI fotógenerátorával. Ezzel talán megkezdődhet az interneten megjelenő vizuális tartalmak feletti – régen is minimális, de mégiscsak létezett – kontroll visszaszerzése.
(Borítókép: Index)