- Tech-Tudomány
- technika
- mesterséges intelligencia
- egyesült királyság
- deepfake
- zaklatás
- pornográfia
- bántalmazás
- közszeméremsértés
- törvény
- nemzetbiztonsági veszély
- rendőrség
- terrorizmus
Bűncselekmény lesz a deepfake pornográfia az Egyesült Királyságban
További Tech-Tudomány cikkek
Az Egyesült Királyság igazságügyi minisztériumának áldozatvédelemért felelős államtitkára, Laura Farris kedden bejelentette, hogy kezdeményezik a mesterséges intelligenciával előállított szexuális tartalmú képek, az úgynevezett deepfake-ek teljes kriminalizálását, börtönnel és felső határ nélküli kártérítéssel sújtását.
A szigetországban tavaly október óta hatályos online közbiztonsági törvény egy sor káros tartalom tiltásáról és szűréséről rendelkezik. Kötelezi például a különböző megosztó platformokat és titkosított csevegőprogramokat, hogy monitorozzák és jelentsék a rendszerükben továbbított gyerekpornográfiát, de bűncselekménnyé nyilvánította a pornográf deepfake képek megosztását is.
A most bejelentett törvényjavaslat annyiban menne tovább ennél, hogy önmagában a deepfake pornográfia
előállítását is bűncselekményként kezelné,
függetlenül attól, hogy megosztották-e valaha.
Ez egy példa arra, hogy bizonyos emberek igyekeznek lealacsonyítani és dehumanizálni másokat – különösen nőket
– szögezte le Farris.
A munkáspárti ellenzék árnyékkabinetjének belügyminisztere, Yvette Cooper jelezte, hogy támogatják a törvény bevezetését.
Emberek és gépek
A probléma gyökere, hogy a generatív mesterséges intelligencia az elmúlt fél évtizedben olyan fejlődésen ment keresztül, hogy produktumai nehezen megkülönböztethetőek a valóságtól, ezzel párhuzamosan az előállítására képes eszközök könnyen elérhetők és könnyen használhatók.
Maga a deepfake kifejezés egy Reddit-felhasználótól származik, és már keletkezésekor is olyan pornográfiát jelölt, amiben egy videóba beillesztették és animálták valaki arcát. A deepfake mint módszer természetesen nem állt meg itt, pénz kicsalására és politikai marketingre is felhasználták. A kifejezés ma már minden olyan esetet jelöl, amikor a mesterséges intelligencia valódi embert utánoz, legyen az hang, kép vagy mozgókép.
A deepfake-ek leggyakoribb célpontjai általában celebek: a leghíresebb esetnek az amerikai popzenész Taylor Swift deepfake-jei voltak, amit népszerűsége csúcsán több tízmillióan töltöttek le.
Ugyanakkor volt példa iskolások körében kipattant hasonló botrányra.
Nemzeti kérdés a nők védelme
Gyakorlatilag az a helyzet, hogy a mesterséges intelligencia forradalma átalakítja a társadalmat, de még mielőtt ennek következményeiben elmélyülnének a törvényhozók, már kezelni kényszerülnek káros pszichológiai aspektusait.
A brit igazságügyi minisztérium közleménye kiemeli a Glamour magazin brit kiadásának felmérését, aminek eredménye szerint a nők 91 százaléka fenyegetésnek érezte a deepfake technika térnyerését.
Az Egyesült Királyság a már létező közszeméremmel kapcsolatos szabályozásokat igazította a kor követelményeihez. A kukkolás és szoknya alá fotózást már rég tiltó szabályok tavaly kiegészültek a kibermutogatással is. Az első ilyen ügyben elítélt személy a 39 esztendős Nicholas Hawkes volt, aki több mint egyéves börtönbüntetést kapott, amiért az interneten a nemi szervét ábrázoló fotókat küldött egy 15 éves lánynak és egy nagykorú nőnek.
Az Egyesült Királyságot jelenleg kormányzó konzervatívok
nehezen vádolhatók wokeizmussal,
sokkal inkább teljes politikai konszenzussal a hátuk mögött igyekeznek elébe menni a társadalmi mentálhigiénét fenyegető fejleményeknek.
A nőkkel szembeni erőszak besorolását nemzetbiztonsági fenyegetés szintjére emelték, gyakorlatilag a terrorcselekménnyel fenyegetéshez hasonló megítélés alá esik – a rendőrségnek ennek megfelelő prioritásként kell kezelnie az ilyen eseteket.
A deepfake-et érintő javaslat csak a felnőtteket érinti, a gyerekeket (18 év alattiakat) ábrázoló képek készítését és terjesztését már korábbi törvények megtiltották.
(Ars Technica, Gov.uk, The Guardian)
Ebben a cikkben a téma érzékenysége miatt nem tartjuk etikusnak reklámok elhelyezését.
Részletes tájékoztatást az Indamedia Csoport márkabiztonsági nyilatkozatában talál.