Nagyobb veszélyt jelent a mesterséges intelligencia, mint eddig hittük
További Tech-Tudomány cikkek
- Néma és megütött dob egyszerre az új mechanikus qubit
- Rongyként nyújtható és csavarható az LG új kijelzője
- Az élet keresése közben végezhetett a marslakókkal az amerikai szonda
- Itt a nagy dobás a 4iG-től: műholdakat állítanak Föld körüli pályára
- Minden eddiginél furább hibrid szörnyeteggel rukkolhat elő az Apple
Az Europol szerint a kiberbűnözés terjedését segíti, de a sok ál- és negatív hír terjedése félretájékoztatáshoz vezethet, ami már a 2024-es amerikai elnökválasztásra is veszélyt jelenthet. Sőt a demokráciára globálisan.
A jelenlegi mesterségesintelligencia-rendszerekkel kapcsolatos egyik legfontosabb probléma az, hogy gyakran megbízhatatlanok és nehezen értelmezhetők, és fennáll annak a veszélye, hogy kikerülnek az irányítás alól – írja az Economist. Például a ChatGPT, vagyis a nagy nyelvi modellek hamis állításokkal rukkolnak ki. Ezeket a rendszereket szándékos visszaélésekre is fel lehet használni akár politikai választásoknál (manipulálják a jelöltek állításait) vagy orvosi (félre)tájékoztatásban.
Szabályozási próbálkozások
Az elmúlt évben 37, mesterséges intelligenciát érintő szabályozást fogadtak el szerte a világon, de nincs még globális és egységes koordináció. Olaszország betiltotta a ChatGPT-t, és egyes országokon belül sincs egységes szabályozás, különböző törvények vannak Amerikában államok szerint, vagy Nagy-Britanniában a felügyelet megoszlik több ügynökség között. A vállalatoknak nehéz eligazodni a különböző nemzetek szabályozásai között, noha nagy az egyetértés a mesterséges intelligencia alapvető elveivel kapcsolatban, mint például a biztonság és megbízhatóság, az átláthatóság, az értelmezhetőség, a magánélet, az elszámoltathatóság és a méltányosság. De abban szinte mindenki egyetért, hogy tenni kell valamit.
Egy globális, semleges, nonprofit AI Nemzetközi Ügynökség (IAAI) fejlesztését sürgetik kormányok, nagy technológiai vállalatok, nonprofit szervezetek, hogy közösen találjanak irányítási és műszaki megoldásokat a biztonságos és békés mesterségesintelligencia-technológiákra.
Eljött az ideje egy ilyen ügynökségnek
– mondta Sundar Pichai, a Google vezérigazgatója április 16-án.
Bár több olyan kérdés és terület van, amelyben a különböző nemzetek egyetértenek az AI-t illetően (például a foglalkoztatási döntések nemi alapú meghozatalának kerülése), a ChatGPT sokféle felhasználási esete létezik még, amelyre nincs aktuális megoldás. A jövendőbeli ügynökség szakértőket hívhatna össze, és eszközöket dolgozhatna ki a téves információk terjedésének megfékezésére.
De a félretájékoztatás széles körű terjesztésének szankcionálásával is foglalkozhatna.
Technikailag kezdetben az olyan alapvető kérdéseket kell megvizsgálni, mennyi a téves információ, és milyen gyorsan nő a mennyisége. A meglévő technológiák inkább generálni tudják a hamis adatokat, mint észlelni.
Új technikai ötletekre van szükség, például ki kell dolgozni azt is, hogyan lehet növelni a biztonságot egy olyan világban, ahol több milliárd mesterségesintelligencia-ügynök fut alkalmazásokban és szervereken. Ha létrejönne a hőn áhított globális ügynökség szakértőkkel és kutatókkal, gyors és átgondolt útmutatást tudna adni az új fejlesztésekhez.
Szerencsére már volt példa globális, nagyszabású és nemzetek közötti együttműködésre, például a második világháború végén az atomfegyverek által kiváltott félelem és bizonytalanság hívta életre 81 ország Nemzetközi Atomenergia Ügynökségét, ami ellenőrzési jogokkal a „biztonságos és békés nukleáris technológiák előmozdítását célozza”.
(Borítókép: Hannes P Albert / picture alliance / Getty Images)