Riadót fújtak a kutatók, a ChatGPT veszélyesebb, mint gondoltuk
További Gazdaság cikkek
- A Mol gázüzemet és kutatás-termelési eszközöket vásárol Kelet-Magyarországon
- Átfogó fejlesztési programot indít a Pécsi Tudományegyetemet fenntartó alapítvány
- Szijjártó Péter szerint Európa egyik legvonzóbb beruházási környezete jött létre Magyarországon
- A karácsonyi vásárok sem ússzák meg, lecsapnak az adóellenőrök
- Döntött a bíróság: a hódmezővásárhelyi önkormányzatnak támogatnia kell a Volánbuszt
A mesterséges intelligencia destruktív módon is felhasználható, ami új lehetőséget nyújt a kiberbűnözők számára – figyelmeztet jelentésében a Nemzeti Kibervédelmi Intézet (NKI). A jelentés szerint a ChatGPT naponta több ezer álhírt és közösségimédia-bejegyzést képes készíteni a rossz kezekben, ami azért probléma, mert az emberek gyakran feltétel nélkül elhiszik a futótűzként terjedő híreket.
A csetbotot széles körben használják az üzleti és az akadémiai szférában, és sokan úgy vélik, hogy a jövőben számos területen helyettesítheti az embereket.
De ez csak a jéghegy csúcsa. Az NKI a jelentésben arra is rámutat, hogy a ChatGPT a legkomolyabb bűncselekményekben segédkezhet az adathalászattól a pénzügyi csalásokig.
Olyan tudósok, mint Joy Buolamwini és Timnit Gebru, már egy ideje riadót fújtak a mesterséges intelligencia sötét oldala miatt. Safiya Umoja Noble sokat írt az algoritmusainkban rejlő elfogultságról, amely észrevehető az olyan népszerű alkalmazásokban, mint a TikTok, de a ChatGPT is érintett lehet. Olaszország adatvédelmi okokból azonnali hatállyal be is tiltotta a csetbotot.
Bűncselekményekre is rávehető
A kibervédelmi szervezet összegyűjtötte, hogy az élet mely területein használhatják ellenünk a programot, és hogyan védekezhetünk ezek ellen. A jelentés a következő kockázatokra hívja fel a figyelmet:
- Álhírek terjesztése: Az online dezinformáció és álhírek terjedése egyre nagyobb problémát jelent az utóbbi időben. Az emberek könnyen elhiszik a futótűzként terjedő híreket, ami súlyos következményekkel járhat. A ChatGPT és hasonló eszközök azonban tovább súlyosbíthatják ezt a helyzetet. A bűnözők ugyanis olyan szoftverekhez férhetnek hozzá, amellyel napi szinten több ezer álhírt és közösségimédia-bejegyzést generálhatnak.
- Spam: Egy valósnak tűnő, de valójában hamis weboldal vagy közösségi médiaprofil működtetéséhez rengeteg tartalomra van szükség. A kiberbűnözők azonban miért béreljenek tartalomgyártókat, vagy írjanak saját bejegyzéseket, ha ezt a ChatGPT segítségével kevesebb pénzből és időráfordítással is megtehetik?
- Adathalászat: Bár a spamszűrők hatékonyan szűrik ki a kéretlen leveleket, néhány adathalász e-mail továbbra is átcsúszhat rajtuk. Ha a megfelelő parancsokat adja meg valaki, akkor a ChatGPT is képes ilyen levelek generálására. Azonban ne várjuk el, hogy konkrétan egy adathalász e-mailt írjon nekünk, mert erre nem lesz hajlandó.
- Hamis weboldalak: Ha angolul rákeresünk a „ChatGPT website creation” kifejezésre a Google-ben, akkor rengeteg oktatóanyagot találunk, amelyek lépésről lépésre elmagyarázzák, hogyan készíthetünk weboldalt a ChatGPT segítségével. Ez nemcsak azoknak jelent jó hírt, akik a semmiből szeretnének weboldalt létrehozni, hanem a kiberbűnözők számára is. Ezzel ugyanis sokkal egyszerűbben és gyorsabban elkészítenek például egy hamis webáruházat.
- Malware-készítés: A ChatGPT olyan szoftver, ami tud kódolni, sőt, hibákat is tud javítani a kódban. Ez azt jelenti, hogy rosszindulatú programok írására is alkalmas, azonban egyelőre még a gyengébb vírusirtók is kiszűrik, hiszen ha nem egy tapasztalt programozó ellenőrzi a kódot, akkor benne maradhatnak olyan hibák és logikai hiányosságok, amelyek csökkentik azok hatékonyságát.
Legyünk résen
A jövőben az MI-alapú csetbotok továbbra is fejlődni fognak, és valószínűleg egyre inkább az életünk részévé válnak. A biztonsági és adatvédelmi kérdések megoldása azonban kulcsfontosságú ahhoz, hogy az emberek biztonságosan és megbízhatóan használhassák ezeket az alkalmazásokat. Az NKI a következő védekezési lépéseket tanácsolja:
- Biztonsági protokollok bevezetése: használjunk titkosítást, tűzfalakat és biztonságos jelszavakat az érzékeny információkhoz való illetéktelen hozzáférés megakadályozására!
- Tartsuk naprakészen a szoftvereinket és rendszereinket: a legújabb biztonsági javítások telepítése érdekében rendszeresen frissítsük a szoftvereket és rendszereket!
- Oktassuk az alkalmazottakat: tartsunk oktatást a social engineering és az adathalász támadások veszélyeiről, valamint arról, hogyan ismerjék fel és kerüljék el ezeket a támadásokat!
- Figyeljük a hálózati forgalmat: használjunk hálózatfigyelő eszközöket a szokatlan tevékenységek észlelésére, és reagáljunk azonnal!
- Használjunk MI-alapú biztonsági megoldásokat is: alkalmazzunk mesterségesintelligencia-alapú biztonsági megoldásokat, például fenyegetésérzékelő és -reagáló rendszereket (Threat Detection and Response – TDR) a támadások valós idejű azonosítása és megelőzése érdekében!
- Végezzünk rendszeres, biztonságra vonatkozó értékeléseket: rendszeresen értékeljük biztonsági helyzetünket, és kezeljük az esetlegesen feltárt sebezhetőségeket!
Rohamléptekkel tör előre az MI
Tavaly november 30. óta nagyjából 200 millió ember használta már a ChatGPT-t, az egymillió felhasználó eléréséhez pedig mindössze öt napra volt szüksége a beszélő programot fejlesztő cégnek. Összehasonlításképpen: a Twitternek két évébe telt, mire elérte az egymillió felhasználót, A Facebooknak tíz hónap, a Dropboxnak hét hónap, a Spotifynak öt hónap, az Instagramnak pedig hat hét kellett.
A ChatGPT abban különbözik más nyelvi modellektől, hogy képes valós idejű reagálásra, hisz képes megérteni a beszélgetés kontextusát, és az alapján valós időben megfelelő válaszokat generálni. Ezt az önfigyelési mechanizmusok teszik lehetővé, mely segítségével a hálózat a bemeneti szövegben lévő különböző szavak és kifejezések fontosságát az adott feladat szempontjából mérlegelni tudja.
Azonban a ChatGPT mögött nem található tényleges tudás vagy logika.
Időnként a ChatGPT meggyőzően beszél ostobaságokról, akár nem létező tanulmányokra hivatkozva, ezért mindig kellő óvatossággal kell kezelni az általa generált tartalmakat.
Ennek ellenére még jelenlegi formájában is hasznos lehet például a kiberbiztonság területén is – írja az NKI.
Az adatvédelmi és biztonsági intézkedések betartása fontos, különösen akkor, ha a csetbotokat az életünk kritikus területein használjuk. Ellenkező esetben úgy járhatunk, mint amikor a napon felejtett fűnyíróba markolunk – csúnyán megégethetjük magunkat.
(Borítókép: David McNew / Getty Images)