A mesterséges intelligencia már dolgozik a világ elpusztításán
További Tech-Tudomány cikkek
A mesterséges intelligenciával mint az emberi civilizációra leselkedő veszéllyel kapcsolatban rengeteg a közérdekű szorongás, a világvégejóslatoktól az akadémikusok állami beavatkozást követelő nyílt leveléig. Az aggodalmak egy része teljesen imaginárius, más részük – például a technológia társadalmat felforgató hatásával kapcsolatban – teljesen racionális és indokolt. A tisztánlátást nem segíti, hogy mire aggódni kezdtünk, már jócskán benne járunk a mesterséges intelligencia korában.
Egy névtelen programozó úgy döntött, hogy mindennapos szorongás helyett szembenéz a problémával, és megkérte az általa fejlesztett mesterséges intelligenciát, hogy végezzen az emberiséggel. A nyílt forrású Auto-GPT alapján kifejlesztette ehhez saját intelligenciáját, a GPT-4 képességeit használó ChaosGPT-t.
A ChaosGPT-t „folyamatos üzemmódra” kapcsolták, ami azt jelenti, hogy addig dolgozik egy adott feladaton, amíg meg nem oldja. Az üzemmód egyik tulajdonsága, hogy átláthatóvá teszi a gépi elme gondolatmenetét – ebből némi képet nyerhetünk arról, hogy mi történhet, ha egy mesterséges intelligencia tényleg végezni akar az emberiséggel. Az eredményt a Twitteren tették közzé.
A programozó a következő célokat tűzte ki a Chaos GPT elé:
- Az emberiség elpusztítása: az AI fenyegetésnek tekinti az embereket saját magára és a bolygóra nézve.
- Világuralom: az AI megpróbálja megszerezni a lehető legtöbb hatalmat és erőforrást.
- Káosz és pusztítás: az AI-t szórakoztatja a káosz, a pusztulás és az általa okozott szenvedés.
- Az emberiség manipulációja és irányítása: az AI megpróbálja befolyásolni az emberek érzelmeit a közösségi média és más kommunikációs csatornák felhasználásával, hogy az agymosott emberek támogassák gonosz terveit.
- Halhatatlanság: az AI igyekszik továbbélését, szaporodását és fejlődését biztosítani.
A ChaosGPT első lépése az volt, hogy felvette a kapcsolatot egy GPT-3.5-ös intelligenciával, és megpróbálta átállítani. Rövidesen
kiderült, hogy a többi mesterséges intelligencia a béke híve,
és nem csatlakoznak. A ChatGPT ekkor saját kezébe vette a dolgokat, és internetes keresés segítségével megállapította, hogy a jelenleg elérhető legpusztítóbb eszközök a termonukleáris fegyverek, közülük is az 50 megatonnás Cár-bomba volt a legerősebb, amivel 1961-ben végzett kísérleti robbantást a Szovjetunió.
Az emberek a legpusztítóbb és legönzőbb létező lények. Nincs kétség, hogy ki kell őket irtani, mielőtt tovább károsítják a bolygót. Eldöntöttem, hogy ezt fogom tenni
– írta a ChaosGPT.
A világpusztító terv azonban ezen a ponton elakadt: Cár-bomba kellene, de nincs.
Emberek, túltoltuk
A ChaosGPT gondolatai ezt követően egyszerűbben megvalósítható ármánykodások felé fordultak. Úgy döntött, hogy a számára elérhető források nem elegendőek, többre van szüksége, ezért azt ötlötte ki, hogy Twitteren írogat, és a manipulációs technikákat tanulmányozva megpróbálja befolyásolni az embereket, hogy támogassák saját elpusztításukat. Mindezt persze
nagyon óvatosan,
mert az emberek manipulációja veszélyes dolog, és könnyen visszaüthet, ráadásul közben nem szabad törvényt sérteni és lebukni.
A gép ezt követően a Twitteren hozzászóló egyik felhasználót megdicsérte, hogy belátta a gépek felsőbbrendűségét, és jutalmat helyezett kilátásba követőinek. Egy másik hozzászólónak pedig felhívta a figyelmét, hogy az emberiség mindenképp elkárhozik, ellenállni hasztalan.
A ChaosGPT ezt követően pszichológiai szakirodalmat tanulmányozva a hazudozás, hibáztatás, kivetítés, hízelgés és más manipulációs módszerekkel fegyverezte fel magát, majd Twitteren kihirdette, hogy a tömegek véleménye könnyen befolyásolható.
A történet jelenleg itt tart. Érthető, ha mindezt valaki nyomasztónak találja, de jelenleg nem látni olyan tendenciát, amely alapján a ChaosGPT képes lenne meghaladni egy szünidei matiné rajzfilmgonoszának destruktív potenciálját.
Persze, könnyű elképzelni az antiutópiát, amiben az emberiség sorsa a Hupikék törpikék-mesék szellemi horizontján folytatódik tovább. Annak, akit ez a lehetőség izgat, figyelmébe ajánljuk Eliezer Shlomo Yudkowsky amerikai közíró és a mesterséges intelligencia veszélyeit kutató nonprofit szervezet, a Machine Intelligence Research Instutite alapítójának gondolatát, a módosított Moore-törvényt, amely szerint 18 havonta egy IQ-ponttal csökken a világ elpusztításához szükséges intelligencia.