Ambrus
-7 °C
3 °C

Szingularitáriánusok

2001.06.21. 15:00
A Szingularitásról (Különösségről) elmélkedő szerzők általában a hardverből indulnak ki, Moore törvényéből; hogy előbb-utóbb érvényét veszti a sokszor emlegetett növekedési tétel. Az alig húszéves Eliezer S. Yudkowsky más irányból közelít: a szoftverre, az emberi agykapacitással kezdetben egyenértékű, később elhúzó, "barátságos" mesterséges intelligencia fejlesztésére összpontosít.
Ki tekinthető szingularitáriánusnak?
Yudkowsky szerint "a szingularitáriánusok a Szingularitás támogatói. Hisznek abban, hogy szükséges a technológia által létrehozott, az emberinél magasabb szintű intelligencia, és munkájuk is ezt célozza. Barátai, szószólói, védelmezői és ügynökei a Szingularitás néven ismert jövőnek." Az eseményt többféleképpen közelíthetik meg: egyesek magasabb célokhoz vezető út elkerülhetetlen állomásának tartják, mások azért óhajtják, mert túl sivárak az alternatívák, megint mások a technológiai fejlődés által előidézett drasztikus globális változásokat siettetnék. Mindez nemcsak meggyőződés vagy hit kérdése: a szingularitáriánusok aktívan dolgoznak azon, hogy a kívánt mesterséges intelligencia megvalósuljon. Álmodozásnak, kivitelezés nélküli elméletgyártásnak nincs helye. A mém helyett magára az eseményre koncentrálnak. A Szingularitást - kellő felkészülés után, a feltételeket előteremtve - a homo sapiensnek kell levezényelnie! "Cselekvés a kulcsszó" - véli Yudkowsky.
Szingularitáriánusnak vallja magát. Transzhumanistákkal, extrópiánusokkal rokon gondolatokból táplálkozik, de el is különül tőlük. Úgy véli, az előbbiek a mentális evolúció egy, a Különösséget ugyan (indirekt módon) előkészítő, ám inkább individuális fokán állnak. Nem az uploadingról (az agy "lemezre mentéséről") mereng, mert az első upload poszthumán lénynek tekinthető ugyan, de csak apró lépéssel visz közelebb a Szingularitáshoz. Globalizmust hirdet: az esemény előnyeit ne csak a kulcstechnológiákat fejlesztő elit, hanem az emberiség egésze élvezze! (Az esetleges hátrányokat úgyszintén.) Saját libertarianizmus-definíciója: az egyéni szabadság mértékét a közszabadság mértéke határozza meg. A Szingularitás lehet személyes cél, de egyszemélyes Szingularitás elképzelhetetlen. Vagy kollektív, kölcsönös szolidaritáson alapuló apoteózis (ha egyáltalán az lesz), vagy semmi.

A technomisztikusokkal, technopogányokkal (például a tavaly elhunyt Terence McKennával) ellentétben a Szingularitást nem misztikus, hanem természetes eseménynek tartja. A vallásos-mitologikus zöngéktől (Armageddon) ugyancsak elhatárolja magát. "Tiszteletben kell tartanunk technológia és mágia valós határait, azokat a határokat, amelyek a scifit és a fantasyt elválasztják" - elmélkedik. "Ha úgy hozok létre valamit, hogy közben megnyomok egy gombot, az a technológia. Ha varázsigét éneklek, az a mágia. Ha valami nagyon coolt alkotok, gombokat nyomkodva, az ultratechnológia." Szingularitáshoz vezető - elég komoly gombnyomkodást igénylő - ultratechnológiák: genetikai tervezés, AI, neurohack, stb. Transzhumanista örökség, akárcsak a függetlenség tiszteletben tartása, a hatalmi struktúrák elvetése.

Eliezer S. Yudkowsky
Az emberiség legjobb túlélési esélye, ha magunk visszük végbe a nagy horderejű eseményt. Ha nem cselekszünk időben, mások (az evolúció a jobbik esetben, rosszabbik esetben viszont szélsőséges csoportok) úgyis megteszik helyettünk, és a jövő akkor tényleg prognosztizálhatatlan lesz. Másik (hosszú távú) érv az emberi intelligenciára pozitívan visszaható szuperintelligencia mellett az, hogy akár tágul, akár szűkül a világegyetem, jelenlegi szoftverünk és hardverünk nem alkalmas a túlélésre.

Yudkowsky nem osztja sokak nanooptimizmusát. Azért (is) sürgeti, gyorsítaná fel a mesterséges intelligencia (AI) fejlesztését, hogy elkerüljük a - különben biztosra vehető - nanoháborút. Szükségesnek tartja a nanotechnológia alkalmazását az AI-kutatásban, viszont legyen előbb okos AI, és csak aztán önreplikáló nanobot! Ugyanakkor elvet bárminemű tudományos-technológiai kutatásokat kordában tartó, esetleg tiltó állami beavatkozást.

Eliezer S. Yudkowsky
Az autodidakta amerikai csodagyerek tizenhat évesen, Vernor Vinge írásai hatására kezdett el a Különösséggel foglalkozni. Az emberiség számára rendkívül kedvezően megítélt esemény propagálója, a Szingularitás levelezőlista létrehozója. Jelenleg a Brian és Sabine Atkins-szel közösen, 2000-ben alapított, Atlanta székhelyű nonprofit Singularity Institute társigazgatója, kutatója. A hálón könyvnyi hosszúsági írása olvasható a "Szingularitás-kompatibilis" (baráti) mesterséges intelligencia kódolásáról, architektúrájáról. Több futurológiai konferencián tartott már előadást. Damien Broderick szerint lehet, hogy Yudkowsky "generációja Norbert Wienere", de az is lehet, hogy csak blöfföl.
Kellő pragmatizmussal: a potenciális (sok esetben viszont bizonyítatlan) veszélyeket hordozó technológiák tiltása még több veszély forrása lehet. Az emberiség jóléte technológiafüggő, és nem létezik, illetve luddita lábakon döcög a tiltást indokolttá tévő bármelyik erkölcsi princípium.

A felvázolt AI ugyanúgy nem azonos egy komputerprogrammal, ahogy az ember sem amőba. Tőlünk nemcsak az különbözteti meg döntő mértékben, hogy hozzáférhet a saját forráskódjához, és ha akarja, módosíthatja, hanem az öntudatosság foka is. Önátalakító, önmegértő, öntökéletesítő, új tanulási metódusokat kifejlesztő szintetikus lény. Az emberi képességeket a szuperszámítógépek gyorsaságával és memóriájával párosítja, Kaszparov és Deep Blue egy személyben. Mindent az intelligencia mozgat.

Yudkowsky Szingularitás-definíciója: "Egy napon az emberi technológia addig a pontig fejlődik, hogy képes lesz az alapját alkotó hardvert és szoftvert kijavítani". Valamikor 2005. és 2020., de valószínűleg 2008. és 2010. között.

Nászút ajándékba!

Esküvőt tervez? Tervezzen velünk, nyerjen wellness nászutat!

Értékeljen, nyerjen!

Van kedvenc légitársasága? Írja meg véleményét itt!