Választások kimenetelét befolyásolhatja a mesterséges intelligencia
További Külföld cikkek
- Meghalt a brit szexguru, aki milliókat világosított fel a nemi együttlétről
- Vörös listára helyezhetik az Interpolnál a Magyarországra menekült lengyel miniszterhelyettest
- Új külügyminisztert nevezett ki a szíriai vezetés
- Az Egyesült Államok felajánlotta segítségét a németországi terrortámadás kivizsgálásához
- A volt skót igazságügyi miniszter is megszólalt a Lockerbie-merényletről
Sorsfordító választások elé néz a világ 2024-ben, amelyek közül kiemelkedik az európai parlamenti voksolás – amely által újjáalakul az Európai Bizottság is –, valamint az amerikai elnökválasztás, de ne feledkezzünk meg az Egyesült Királyságról vagy Indiáról sem. Ugyanakkor van egy újítás, ami miatt kifejezetten aggódni kell a választások tisztaságával kapcsolatban.
A probléma nem más, mint a mesterséges intelligencia (MI). A múltban a dezinformációt mindig az emberek hozták létre, azonban az MI-fejlesztések mára odáig jutottak, hogy minden eddiginél valósághűbb álhíreket, valamint propagandát tud létrehozni a technológia.
Az MI generálhat valósághű álhíreket
Először is fontos leszögezni, hogy a ChatGPT-hez hasonló, mesterségesintelligencia-alapú rendszerek várhatóan mit változtatnak meg, és mit nem. Ezek megjelenése előtt is létezett dezinformáció, ami jelenleg is nagy problémát jelent a világ demokráciáiban.
De akkor mégis mit változtathat meg az MI 2024-ben?
Az egyik ilyen a dezinformációk mennyisége lehet, ami minden eddiginél nagyobb mértékben befolyásolhatja, hogy a választók kire adják le a voksukat.
A másik fő aggodalom a mennyiség mellett az álhírek minősége. A minden eddiginél realisztikusabb deepfake-videóktól az MI által generált fényképekig és hangfelvételekig rengeteg tartalom zavarhatja meg a választások tisztaságát.
„Ha a mesterséges intelligencia által készített tartalmakra gondol, akkor attól tartok, hogy itt a jog csak kullogni tud a digitális valóság mögött, ami persze nem jelenti azt, hogy ne kellene megpróbálnunk minden lehetséges jogi eszközzel fellépni a visszaélések elkerülése érdekében” – mondta az Index kérdésére Török Bernát alkotmányjogász, a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézetének vezetője.
Adott esetben azonban nagyon nehéz vagy akár lehetetlen megállapítani egy gépileg generált szövegről, vizuális vagy audiovizuális tartalomról, hogy nem ember készítette. Ma még esetleg lehetnek könnyebb esetek, de egészen biztosan a nehéz esetek száma fog növekedni a jövőben.
A szakértő hozzátette, a jog annyit tud tenni, amit az Európai Unió készülő MI-kódexének tervezetében meg is találunk, hogy garanciális átláthatósági szabályként előírja:
biztosítani kell, hogy az MI-rendszerekkel, köztük a ChatGPT-vel találkozó személyek tisztában legyenek azzal, hogy MI által generált tartalommal találkoznak.
Török Bernát szerint sokat segíthet ennek a szabálynak az érvényesíthetőségén, hogy nemcsak az ilyen termék alkalmazóját kötelezi tájékoztatásra, hanem már a rendszer fejlesztőjén is számon kérhető az MI működésének ez irányú átláthatósága.
Nem feltétlenül jelent versenyelőnyt az MI
Attól viszont talán nem kell tartanunk, hogy a demokratikus berendezkedés közel 2500 éves fejlődését összedönti az MI. A hamis képek és szövegek gyártására való eszközök már évtizedek óta jelen vannak az életünkben. Az új algoritmusok kétségkívül meggyőzők, de emberi ellenőrzés nélkül még mindig sokszor előfordulnak hibák.
Emellett fontos megemlíteni azt is, hogy minden érintett fél érdekelt lesz abban, hogy fejleszteni és hasznosítani tudja a technológiát. Ez azt jelenti, hogy hiába lesz hozzáférése deepfake-videók vagy hamis fényképek generálására alkalmas technológiához például az egyik politikai pártnak,
valószínűleg az ellenfele is rendelkezni fog vele, így versenyelőnyre nem tud szert tenni az MI alkalmazásából.
A közösségimédia-platformok – ahol a legtöbb hamis információ terjed –, valamint az MI-cégek azonban már fogadkoznak, hogy tisztában vannak a kockázatokkal, és azokat kezelni próbálják. A ChatGPT mögött álló OpenAI például bejelentette, hogy ellenőrizni fogja az alkalmazás használatát, és ezzel kiszűri a politikát befolyásoló tevékenységeket.
Lehet szabályozni a Big Tech platformokat?
A Big Tech platformok számára is egyre jobb lehetőségek állnak rendelkezésre az álhírek megfékezésében, főleg a brexitkampány, valamint a 2016-os és 2020-as amerikai elnökválasztások tapasztalataiból kiindulva. Ezen platformok számára azonban még mindig nincs egységes szabályozás, ami az európai és az amerikai jogi gondolkodás különbségeiből is fakad.
Török Bernát elárulta, az idén hatályba lépő EU-s jogszabály, a digitális szolgáltatásokról szóló rendelet (DSA) néhány fontos szabálya éppen azt célozza, hogy
az eddig jellemző önszabályozás után a leghangsúlyosabb pontokon jogszabályi kötelezettségek vonatkozzanak a platformokon zajló nyilvános politikai kommunikációra.
Ezeknek a szabályoknak a konkrét alkalmazása és hatása nem látható még pontosan, és izgalmas kérdés lesz, hogy érvényesítésüket hogyan hangolják össze. Egyfelől a DSA igyekszik megkötni a platformok kezét a politikai tartalmak moderálásában azzal, hogy a moderálás alapját jelentő közösségi szabályaikat a jövőben csak a felhasználók szólásszabadságának tiszteletben tartásával érvényesíthetik.
A szakértő szerint ennek konkrét mércéit a jogalkalmazás fogja kialakítani.
Másfelől a DSA aktivitást vár el a legnagyobb platformoktól, amelyek évente kötelesek lesznek elemezni, hogy a szolgáltatásuk, különösen a tartalmakat rangsoroló algoritmizált ajánlórendszerük milyen hatással van a választási folyamatokra.
Török Bernát szerint ugyanakkor az azonosított negatív hatások és kockázatok csökkentésére cselekvési tervvel kell majd rendelkezniük. Mondani se kell, itt is sok múlik annak jövőbeni értelmezésén, hogy mit értünk majd negatív hatásokon és megfelelő reakciókon.
A mesterséges intelligenciáról nemrégiben konferenciát szerveztünk, erről itt olvashatnak bővebben.