Valér
2 °C
8 °C

Robot ölt embert, ez már az apokalipszis?

GettyImages-134260848
2015.07.08. 14:34
Nagy figyelmet kapott július elején, hogy egy „robot” megölt egy embert. A cikkek címéből úgy tűnhetne, hogy ez már a vég kezdete, de valójában nem öntudatra ébredt gépről volt szó, csak egy elszabadult munkaeszközről. Az viszont már látszik, hogy egyre aktuálisabbá válik a kérdés: mihez kezdjen a büntetőjog az egyre önállóbb gépekkel? Egyáltalán a jogászok dolga-e, hogy elkerüljük a katasztrófát? Autók, fegyverek és elkövető nélküli bűn.

Bejárta a világsajtót nemrég, hogy egy robot megölt egy munkást a Volkswagen egyik németországi gyárában. Az eset természetesen szomorú, hiszen egy ember halálos balesetet szenvedett, ugyanakkor nem kell még a robotapokalipszis megérkezésétől tartanunk. A cég szerint nem gépi hiba történt, az alkalmazott tartózkodott rossz helyen, a robot ketrecében. Ugyanis éppen hogy nem valamilyen új generációs, szuperintelligens robotról van szó, amelyik öntudatra ébredve elpusztította a beállításaival machináló embert.

De még csak nem is az újabb fajta, már biztonságos együttműködésre kialakított ipari változatról, hanem egy régebbi típusról, amelyet még fizikailag elkülönítve dolgoztatnak, éppen az ilyen esetek elkerülése érdekében. Ráadásul az üzem szóvivője szerint már 1986-ban is történt egy hasonló halálos baleset egy automata gyártósoron, a világ első robot által okozott halála pedig még 1979-ben történt egy Ford-gyárban.

Jó kérdés, hogy ha nem a „robot” szó szerepelt volna a címekben, hanem mondjuk az, hogy „ipari baleset”, felkaptuk volna-e a fejünket a hírre. (Nem.) Ennek ellenére érdemes megnézni, mennyire vagyunk felkészülve arra az egyre kevésbé távoli jövőre, amikor a gépek egy-egy saját döntésükkel sértenek törvényt.

Nem csak robotol, fejlődik is

Ryan Calo, a Washingtoni Egyetem jogi professzora az ipari robotok többféle viselkedési módját különbözteti meg. A mechanikus, repetitív viselkedésű robotok nem tudják, mi az, amit csinálnak, csak csinálják, ahogy beállították őket (például akkor is megfognak és elmozdítanak, ha nem egy alkatrész, hanem egy ember feje van előttük). A másik, fejlettebb viselkedési formát nevezi Calo alakuló, menet közben létrejövő (emergent) viselkedésnek, vagyis olyannak, amely a programozói utasításokból indul ki, de nincs előre meghatározva, hanem a körülményekre reagál, és menet közben tanul.

Ebből adódhatnak hasznos dolgok és méretes melléfogások is, mint amikor a Google egyébként egyre okosabb képfelismerő algoritmusa gorillának nézte a fekete bőrű felhasználókat, vagy amikor az Amazon árazó algoritmusa 24 millió dollárra lőtte be egy könyv árát.

a4b90e6c8240d7f2cd2e01b6813da1c19d7f2e85.png

Calo szerint onnantól lesz érdekes a robotbiztonság kérdése, hogy ha a fizikai testtel rendelkező robotok is egyre inkább a tanulásra és fejlődésre képes algoritmusokhoz hasonló viselkedési mintákat kezdenek követni. Az ilyen esetekben ugyanis

kevésbé megjósolható a viselkedésük, ezért kevésbé múlhat egy esetleges baleset az emberen.

Az angolszász jogrendszer megkülönbözteti a bűnös tudat (mens rea) és a bűnös cselekedet (actus rea) fogalmát. Eszerint bűncselekmény akkor állapítható meg, ha mindkettő teljesül, azaz az elkövető beszámítható volt, és szándékoltan tette, amit tett. Calo szerint, mivel ezek a robotok nem rendelkeznek önálló tudattal, a programozóik pedig nem bűnelkövetésre programozták őket, megjelenhet az elkövető nélküli bűntény számos problémát felvető kategóriája.

Erre mutatott szemléletes példát az a művészeti projekt, amelyben egy robot véletlenszerű netes vásárlásaiból rendeztek kiállítást tavaly ősszel. A robot több teljesen legális termék mellett olyasmit is bedobott a kosárba, amelyért egy emberi vásárló már büntethető lenne. Vásárolt például hamis márkájú ruhát, ecstasytablettákat és egy beszkennelt magyar útlevelet is. (A rendőrség ugyan megvárta a kiállítás végét, de utána lecsapott, és mégiscsak elkobozták a kiállított tárgyakat és a vásárlójukat is.)

Viszont ebben az esetben a robotot programozó művészek, noha nem bűnelkövetésre tervezték az algoritmust, tudhatták, hogy valami ilyesmi fog kisülni a dologból, ha ellenőrizetlenül ráeresztik a darknetre, így emiatt a felelőtlen magatartás miatt mégiscsak megállapítható lehet a felelősségük. Calo szerint a valódi fejtörést az fogja okozni, amikor egy hasznos munkára tervezett robot fejlődik olyan irányba, hogy bűnt kövessen el. Közelebb áll ehhez az a vásárlóbot, amelyet azért írt a gazdája, hogy ártatlan meglepetéseket rendeljen neki az Amazonról, ahol viszont előfordulnak olyan termékek, amelyek az egyik államban legálisak, a másikban viszont nem.

Újratervezés: a sarkon forduljon fel

Persze az igazi dilemmát azok a helyzetek okozzák, amelyekben a törvénysértés élet-halál kérdése. Erre a legköznapibb és egyre elterjedtebb példa az önvezető autók kérdése. Az egyre inkább elfogadott, hogy a robotautók képesek biztonságosan vezetni, a jelenleg tesztelt változatok baleseti statisztikái alapján az összes eddigi probléma is emberi hiba miatt történt. És éppen ebben jelenthetnek előrelépést: az emberi tényező – fáradtság, figyelmetlenség, ittas vezetés – miatt bekövetkező balesetek elkerülésében.

A Wired egy korábbi cikke szerint joggal feltételezhető, hogy az évi 32 ezer amerikai közúti haláleset 16 ezerre csökkenthető önvezető autókkal. A dilemmát az okozza, hogy ez nem úgy jönne össze, hogy 16 ezer potenciális halál elmarad, és mindenki boldog. Valószínűleg az autók döntései miatt sokan nem halnának meg, mások viszont, akik eredetileg életben maradtak volna, áldozattá válnának. Így valójában a nettó eredmény masszívan javulna, de a gépek döntenék el, ki marad életben, ki nem. Összességében persze így is jobban jönnénk ki a dologból, de némileg kényelmetlen utóízt adhat a javuló statisztikáknak, hogy a gépek osztották a lapokat.

Pláne, ha az új áldozat maga a sofőr.

Egy robotautó joggal dönthetne például úgy, hogy inkább az egyetlen utasa veszítse életét, mint az a harminc gyerek, akinek a buszába amúgy beleütközne.

További dilemma, hogy áthághatja-e a szabályokat egy robot, ha ezzel életeket menthet meg. Áthajthat-e magától a záróvonalon egy üres sávba, ha egyébként akadályba ütközne, ahelyett, hogy megtorpanással okoz fennakadást? Gyorsíthat-e a limit fölé, hogy ne ütközzenek bele? És további kérdések sorát kell még megválaszolni, mire egyszer valóban elterjedhetnek az utakon az önvezető autók.

Az igazi gépfegyver

Sokkal közvetlenebb viszont a személyzet nélküli katonai rendszerek kérdése. Elsősorban nem a távirányítású drónokról van szó, hanem a célpontot autonóm módon kiválasztó, saját döntése alapján tüzet nyitó fegyverekről. Ezek a rendszerek abban különböznek a többi robottól vagy több-kevesebb autonómiát mutató szoftvertől, hogy definíció szerint gyilkolásra születtek. Az ezzel kapcsolatos döntéseket pedig nemcsak morális okokból problémás teljes egészében kiengedni az emberi kézből, hanem azért is, mert egy kis hiba is nagyon könnyen komoly konfliktusba fordulhat.

Emiatt számos kutató az ilyen autonóm fegyverek használatának nemzetközi egyezményben való tiltását szorgalmazza. Köztük például Mark Bishop, aki a Londoni Egyetem kognitív számítástechnika-professzora, egyben a robotfegyverek ellenőrzéséért felelős nemzetközi bizottság (ICRAC) tagja is. Bishop szerint nem is a mesterséges intelligencia (MI), hanem éppen hogy a mesterséges butaság, vagyis

a jelenleg tökéletlen MI fegyverként való felhasználása jelent komoly és közvetlen veszélyt.

Nincs már messze a rendőrség robotizálása sem, a lehetőség legalábbis egyre közelebb kerül. A mesterséges intelligencia által vezérelt robotzsaruk bevezetése, az emberi kontroll akár részleges feladása az utóbbi idők amerikai rendőri túlkapásainak fényében különösen nyugtalanító gondolatnak tűnik.

Ugyanakkor éppen az emberi ítélőképesség kudarcát példázó hibás rendőri döntések világítanak rá arra, hogy a kérdés nem is olyan egyszerű. Nem jelenthető ki, hogy egy megvesztegetésre és érzelmi-ideológiai elfogultságra egyáltalán nem fogékony robotzsaru rosszabbul végezné a dolgát.

A jogvédő Human Rights Watch idén áprilisi jelentése szerint a legnagyobb probléma az autonóm fegyverekkel és rendőrökkel, hogy ha hibáznak, szinte lehetetlen megtalálni a felelőst. Bonnie Docherty, a jelentés vezető szerzője szerint

Ha egy teljesen autonóm fegyver bűnt követ el, valakit felelősségre kellene vonni, ha pedig senkit nem lehet, akkor ezeket a fegyvereket be kellene tiltani.

Michael Horowitz biztonsági szakértő máshogy látja. Szerinte a felelősség kérdését nem a ravasz meghúzásának szintjén kell nézni, hanem hogy az adott küldetést melyik tiszt irányítja. Horowitz szerint egyébként is korai még a szabályozásról beszélni és tiltást követelni, amíg magát a kérdéses technológiát sem értjük teljesen. Ennek szerinte az a veszélye, hogy ha túl széles körű tiltás születik, akkor olyan fegyverek is tiltólistára kerülhetnek, amelyek valójában csökkentenék a civil áldozatok számát.

Robotbűnök, közerkölcsök

Az ember és gép, személy és eszköz közötti éles határvonal mindenesetre egyre nehezebben meghúzható. Ki a bűnös, mi a bűn, megállapítható-e szándékosság egy gépnél, és kié a felelősség, ha gyilkolni kezdene a házirobot? Minél kisebb a gép autonómiája, vagyis minél inkább emberi irányításra hagyatkozik, annál inkább a felhasználó viseli a felelősséget.

Viszont az autonómia növekedésével egyre inkább függetlenedik majd a robot a gazdájától. Kérdés, hogy ilyenkor a felelősség áthárul-e a robot tervezőjére, programozójára, gyártójára? Minél inkább autonóm lesz egy rendszer, annál kevésbé.

Ha valami rossz történik, az okozati lánc egyre hosszabbá válik. Vannak módszereink a jelenlegi jogban, hogy megállapítsuk a felelősséget, de ha a technológia autonómabbá válik, nem biztos, hogy ezeknek továbbra is lesz értelmük

mondta Kate Darling, az MIT Media Lab kutatója. Egy emberi tulajdonságokra szabott jogrendszer eszközeivel kellene választ találni a robotok rohamos terjedése nyomán felmerülő jogi kérdésekre, márpedig a szakértők szerint erre messze nem vagyunk felkészülve.

Mivel az egész MI- és robottéma még mindig elég sci-fiszerűnek tűnik, nem csoda, hogy ma is gyakran előkerül a robotika három alaptörvénye, amelyeket Isaac Asimov sci-fi író alkotott meg, az első változatot még 1942-ben. Ezek az ember-robot együttélést voltak hivatottak szabályozni, garantálva az ember biztonságát az intelligens gépek között. A törvényeket újra és újra előveszik, átírják, kidobják a terület tudósai is, de leggyakrabban egyszerűen alkalmatlannak minősítik tudományos használatra.

Két német tudós, Ulrike Barthelmess és Ulrich Furbach szerint például nincs rájuk szükség, mert a félelmeink sokkal inkább kulturális alapúak, mint technológiaiak. Szerintük az alkotóját elpusztító gép nemcsak a sci-fik népszerű témája, de Frankensteintől a Gólemig számos történet épít erre a mintára, amely valójában abból a vallásos toposzból ered, hogy ha az ember megpróbál istent játszani, megbűnhődik. A kutatók szerint a legtöbb robot tervezéséből adódóan az ember védelmét szolgálja, amelyik mégse, azt pedig emberek használják pusztító célra, így a hagyományos joggyakorlat képes kezelni ezt a kérdést is.

Azonban nem minden tudós ilyen optimista a jogrendszerrel kapcsolatban. Gabriel Hallevy, egy a robotok és a büntetőjog találkozásával foglalkozó kutató szerint például a probléma lényege, hogy manapság jogi vákuumban élünk, és éppen azért, mert a gép egyre függetlenebb az embertől,

magát a gépet kellene felelősségre vonni.

Úgy gondolja, hogy a felelősség nem erkölcs kérdése, hanem kizárólag a tudatosságé (awareness). Ahogy egy céget is el lehet számoltatni jogi személyként, Hallevy szerint egy robotnak sem kell gonosznak lennie, elég, ha tudatában van annak, mit tesz, ez pedig se a robot, se az ember esetében nem több a világról szóló tényszerű információ érzékelésénél és feldolgozásánál.

Hallevy konkrét példákat is ad arra, milyen ítéleteket lehetne hozni egy bíróság elé citált robot esetében.

Ezek a halálbüntetésnek megfelelő végleges kikapcsolástól a közmunkán át

odáig terjednek, hogy egy robotról is megállapítható, hogy beszámíthatatlan (ha vírusos vagy meghekkelték), vagy hogy önvédelemből cselekedett.

Egy másik kutató, Steve Omohundro szerint nem teljesen emberi módon, de még a büntetés elrettentő ereje is működhetne az intelligens robotok esetében. A tudós példájában ha egy robot működésének célja, hogy minél jobban sakkozzon, és beleprogramozzák, hogy ha embert öl, kikapcsolják, ez segíthetne, hogy ne tegyen ilyet, hiszen tudná, hogy kikapcsolt állapotban nem lenne lehetősége sakkozni.

Samir Chopra New York-i filozófiaprofesszor szerint az a gond az autonómiával, hogy az emberek úgy beszélnek róla, mintha csak kétféle lehetne (igen/nem), pedig célszerűbb skálaként gondolni rá.

Az autonómia a nullától, amilyen egy darab kő, a teljesen autonóm felnőtt emberig terjed. És a kettő között számos variáció képzelhető el.

Chopra szerint a ma is működő, többé-kevésbé intelligens programok éppen a a skála közepét foglalják el. Ahhoz túl függetlenül működnek, hogy egyszerű eszközként tekintsünk rájuk, ahhoz viszont nem eléggé, hogy jogi személyként kezeljük őket. Chopra szerint ezért a jognak különálló kategóriaként, olyan jogi ágensként kellene őket meghatároznia, amely úgy kötődik az őt működtető vállalathoz, mint egy buszsofőr a tömegközlekedési társasághoz: bizonyos felelősséget ő visel, de a cég is felelősséggel tartozik a cselekedeteiért. Chopra szerint ez a megközelítés egyszerre ismeri el, hogy a robotok képesek olyasmire, amit előre senki sem láthatott, és hogy ennek ellenére a tervezőiknek is nagy a felelősségük abban, hogy a gondos tervezéssel minimalizálják a káros működés lehetőségét.

Ez utóbbi pont, a tervezés már csak azért is fontos, mert több szakember szerint valójában ezen áll vagy bukik az egész kérdés.

Ember tervez, robot végez

Több MI-kutató szerint a biztonsági aggályok megválaszolása elsősorban nem törvénykezési, hanem mérnöki feladat, a gondos tervezés és programozás képes leghatékonyabban kiiktatni a potenciális veszélyt. Már csak azért is, mert a legvalószínűbb, hogy az MI valójában nem ellenséges, hanem többnyire közömbös lesz az emberiség iránt, ezért

a valódi veszélyt a véletlenek és a rosszul megépített robotok, nem elég körültekintően megírt programok jelenthetik majd.

Éppen ezért több kutatás jelenleg is folyik a témában. Július elején indult be az a projekt, amelyet nagyrészt az MI-veszély leghangosabb szószólója, Elon Musk pénzel. Ebben több mint kétmilliárd forintnyi pénzt osztanak szét 37 kutatócsoport között. A kutatások célja a biztonságos MI kereteinek kidolgozása és az etikai alapelvek meghatározása. Az egyik csoport olyan rendszert akar létrehozni, amely képes valós helyzetekben egy előre meghatározott értékrendszer alapján, kvázierkölcsi alapon dönteni. Egy másik adatbázist hozna létre az autonóm fegyverek kontrolljára. Mások a legpesszimistább forgatókönyvekre készülnének fel.

A Terminátor-forgatókönyv veszélye nem az, hogy megvalósul, hanem hogy elvonja a figyelmet az MI valós kérdéseiről

– mondta Max Tegmark, a támogatásokat szétosztó intézet elnöke.

Ami biztos, hogy a robotok nemcsak egyre fejlettebbek, de egyre többen is vannak. Ez szinte felmérhetetlen haszonnal jár az élet számos területén, de legalább ekkora kihívást is jelent. Hiába van még nagyon távol a valódi mesterséges intelligencia, a robotok által akár véletlenül, akár direkt elkövetett bűntettek jóval közelebbi problémája egyre kevésbé lesz beszorítható a jelenlegi jogi keretek közé. A kérdés ma még inkább elméleti viták tárgya, de az általános irány jól látszik: meg kell találni azt az egyensúlyi helyzetet, amely érdekeltté teszi a gyártókat a minél alaposabb biztonsági megoldások alkalmazásában, de nem veszi el a kedvüket a további fejlesztésektől.