Megérkeztek a képeinket a mesterséges intelligenciától védő programok
További Tech-Tudomány cikkek
Amennyiben ön digitális eszközöket használó képzőművész vagy effélével foglalkozó ember rokona, barátja vagy üzletfele, eddig teljes joggal aggódhatott, hogy a mesterséges intelligencia fejlesztésével foglalkozó ipar az internet segítségével gátlások és egyéb akadályozó tényezők nélkül porszívózhatja fel az emberi alkotásokat, és használhatja ezeket egyre ügyesebb gépek betanítására. Nem csak arról van szó, hogy a vizuális ipar lett az első terület, ahol a gépi intelligencia munkahelyeket fenyeget, az MI gyakorlatilag a percepción keresztül a kisebb pályázatokig lenyúlva képes beavatkozni a pályakezdő festők, maszek fotósok életébe.
Mindez természetesen aktív ellenállást váltott ki. Ennek eredménye a Chicagói Egyetem munkatársai által fejlesztett Glaze nevű szoftver, amelynek célja, hogy megvédje a képet, és megakadályozza annak mesterséges intelligencia általi felhasználását. (A Glaze fejlesztői oldala itt található.)
A program egy emberi szemmel láthatatlan réteget helyez a képre, ami a mesterséges intelligencia számára teljesen másmilyennek mutatja az alkotást. Az ember tehát látja a képet, a gép azonban nem tudja, mit lát az ember. Tervezői azt mondják, hogy a Glaze
a stílusmimikri felborításával védi az emberi művészeket.
A lényeg, hogy a képgenerátorok nem annyira a kép tartalmáról, hanem a vizuális stílusáról tudnak sokat, a nem látható minta ennek a stilisztikai információnak a megszerzését hivatott megakadályozni.
Dípfékteleníthetetlenségeskedéseitekért
Hasonló próbálkozás a Massachusettsi Műszaki Egyetemen fejlesztett PhotoGuard, amit fejlesztői olyan programnak szántak, ami a hétköznapi fotókat védi a deepfake-eléstől. A PhotoGuard fejlesztője, Hadi Salman kedvenc komikusa, Trevor Noah-val közös fotójukon demonstrálta, hogy a szabad szemmel nem látható diffúziós réteg hatására a mesterséges intelligencia nem tudta kettejük képét öltönyös esküvői fotóvá alakítani, mert az eredeti képen nem ismerte fel a testüket, a generált deepfake fotón így csak két, szürkeségben lebegő arc látszott.
Mindez egyrészt jó hír az alkotóknak. Ellentétes nézőpontból ugyanakkor azt jelenti, hogy a mesterséges intelligencia már nem csupán az aktív hackelés, a szerzői jogi perek formájában kap támadásokat, miközben önmagát mérgezi meg saját alkotásaival, de most már olyan eszközöket kezdenek használni az emberek, amikkel aktívan szabotálhatják az MI fejlesztését. Nem fogadnánk nagy összegben arra, hogy ezek az eszközök időben és kiterjedésben képesek lesznek felvenni a versenyt a milliárdos befektetéseket vonzó, forrásban lévő terület fejlődésével, de néha – mint, mondjuk, a nyílt forráskódú mozgalom esetében – már az is elég, hogy léteznek.