Észre se vettük, és elkezdődött az MI-apokalipszis
További Tech cikkek
- Beperelték a Disney-t, szabadalmi jogokat sérthetett az egeres cég
- Hatalmas bejelentéssorozatra készül az Apple
- Új válság fenyeget: a B-vitamin-hiány már itt van a sarkon, az italpolcok is kiürülhetnek
- Fontos változás jön a Google keresőjében, érdemes résen lenni
- Beperelték a YouTube-ot, súlyos vádakat fogalmaztak meg
Az ember ellen forduló mesterséges intelligencia rémképével fenyegető scifik a Terminátortól a Mátrixig nagyjából úgy festik le a gépek lázadását és hatalomátvételét, hogy az MI egyszer csak öntudatra ébred, fegyvert ragad, és nekiáll az emberiség módszeres kipusztításának. Ez amellett, hogy sötét és ijesztő jövőkép, azért kényelmesen távoli is, elvégre hol van még ettől az MI-fejlesztés. (Egyébként közelebb mint gondolnánk; az ENSZ nemrég konferenciázott a drónok és egyéb, halálos csapásra alkalmas fegyverrendszerek automatizálásának veszélyeiről.) Amikor olyan figurák, mint Elon Musk vagy Stephen Hawking mondanak ijesztő dolgokat a témában, szintén aránylag távoli veszélynek tűnik az MI-világvége.
Idős férfi felnőttpelenkában, mankóval
Pár hete internetszerte nagy vihart kavart a New York Times cikke, ami azt boncolgatta, hogyan kerülnek a YouTube gyerektartalmai közé groteszk és horrorisztikus, egészen biztosan nem gyerekeknek szánt videók. A cikk főleg a YouTube szűrő- és ajánlórendszerét ekézte (teljes joggal), hogy aztán válaszképpen James Bridle techújságíró blogja, illetve a Reddit témába vágó fóruma még zavarbaejtőbb részletekre világítson rá. Hogyan és miért készülnek ezek a videók? Eltekintve azoktól, amiket a 4chan különösen beteg trolljai csinálnak szórakozásból, jórészt automatizált szoftverek gyártják és töltik fel őket a videómegosztóra.
A trükk tulajdonképpen nem bonyolult:
- Az algoritmus figyeli, hogy milyen témák, címek és hashtagek hoznak nagy nézettséget.
- A már a neten fenn levő tartalmakból (vagy a direkt ezt az iparágat kiszolgáló orosz és indiai animációs műhelyek anyagaiból) remixel valamit, és visszatölti az elemzés szerint tuti sikert ígérő csomagolással.
- A YouTube algoritmusa bekapja a csalit, és kiteszi a népszerű videók mellé az oldalsávba ajánlott, hasonló videóként.
- Mivel a célközönség a kisgyerekeké, akik rengeteg videót néznek valósággal hipnotizálva, és az egész folyamat automatizált és végtelenített, az eredmény magas nézettség a futószalagon gyártott videókon, abból meg jön a:
- profit.
Észrevettük, mi történik? Az egyik MI igyekszik túljárni a másik MI eszén, és mind a kettőnek az a célja, hogy minél több pénzt keressen a gazdájának. Az egyetlen nem digitális szereplőnek, az embernek pedig csak az áldozat szerepe jut.
De nem csak a YouTube-on történnek ilyen fura dolgok. Nyáron az Amazont árasztotta el egy német cég vicces telefontokokkal, ami mögött szintén egy szoftver állt, ami egyszerűen stockfotókat dobált rá egy sablonra, és készített köré az online boltba illő termékleírásokat. 30 ezer minta feltöltése után lett feltűnő a dolog, és az eredmény itt is elég bizarr lett. Nem biztos hogy széles tömegek ízlését és humorát találta telibe az algoritmus például az “idős férfi felnőttpelenkában, mankóval”, a “kozmetikus női hónaljat szőrtelenít gyantával”, vagy a prózaian egyszerű “körömgombás láb” tematikájú Samsung-tokokkal. (Utóbbi linkre inkább nem kattintanék az ön helyében. Későn szóltam? Bocs.)
Egy másik cég szintén az Amazonon a közismert Keep Calm and Carry On mémre épített variációkkal játszotta el ugyanezt: egy algoritmus igyekezett kitalálni, hogy milyen szöveget szeretnének az emberek pólón hordani. Tízmillió (!) szoftveresen generált és feltöltött minta után tört ki a botrány, a Keep Calm and Rape a Lot, vagyis "csak nyugi, és (nemi)erőszakolj sokat" szlogen nyomán.
Az üzleti modell megint ugyanaz, gyakorlatilag nulla befektetéssel lehet milliószámra véletlenszerű mintákat gyártani, és bedobálni a boltba, ahonnan aztán már csak a nagy számok törvénye miatt is beesnek megrendelések (és magát a fizikailag létező terméket elég ekkor legyártani). A gyakorlat pedig azt mutatta az összes esetben, hogy az MI ugyan bénácska, de mivel fáradhatatlan, a biznisz mégis működik. A problémát a nemierőszakolós pólók és a lábgombás telefontokok mutatják: a szoftverekbe nem programoznak bele semmilyen etikai megfontolást, a felháborító vagy gyomorforgató eredményeket kiszűrő algoritmust. Miért? Mert minek. Csak rontja a hatékonyságot.
És most lássuk, ugyanez a probléma hogyan nő a sokszorosára a százmilliárdos online gigavállalatoknál.
Okosabb nálunk, és nem tudjuk, hogy csinálja
Az MI-fejlesztésben az óriáscégek nemcsak azért játszanak külön ligában, mert sokkal több a pénzük hozzá, és több embert érnek el, hanem mert csak náluk van akkora halom felhasználói adat, amivel a gépi tanulás algoritmusai már tudnak mit kezdeni. A Facebooknak van 2 milliárd felhasználója, a Google-nek hét (!) szolgáltatása van, amit külön-külön több mint egymilliárdan használnak. A milliárdos nagyságrend közelében játszik még az Apple, a Microsoft, az Amazon, Kínából a Tencent és az Alibaba, és nagyjából ennyi. Féltucat cégnek van egyáltalán esélye arra, hogy a mesterséges intelligenciáit olyan tömegű adattal etesse, amitől azok igazán okossá tudnak válni.
Ezeknek a mesterséges intelligenciáknak pedig általában az a céljuk, hogy a felhasználókat kiismerjék, és aztán úgy manipulálják őket, hogy minél több ideig maradjanak az adott oldalon, több reklámot nézzenek meg, és többet vásároljanak. Etikai megfontolásoknak itt nincs helyük. És mivel mindenki saját maga fejlesztgeti a milliárdokat érő algoritmusait a legnagyobb titoktartás mellett, azt sem igazán tudjuk, hogy pontosan mit művelnek ezek. Nemcsak mi, de azok se, akik esetleg pont az ő szabályozásukkal foglalkoznának. A Facebook időnként kiad egy-egy tanulmányt arról, milyen kísérletekben hogyan manipulálták a saját felhasználóikat, hogy tanulmányozzák az érzelmeiket vagy a részvételi hajlandóságukat egy szavazáson (itt van egy jó kis gyűjtés ezekből, kicsit régi, 2014-es), de úgy nagy általánosságban fogalmunk sincs arról, mit tudnak rólunk az online megacégek, és ezt a tudást hogyan használják. Csak azt sejthetjük, hogy többet, mint mi magunkról.
A mesterséges intelligencia fejlesztésének úttörői, a világ legokosabb emberei azon dolgoznak, hogy több milliárd embert, a lehető legnagyobb titokban, észrevétlenül, ellenőrizetlenül a saját kényük-kedvük és pénztárcájuk szerint manipuláljanak. Ez pedig valahol félelmetesebb, mint a Terminátor gyilkos robotjainak a rémképe, és nem scifi, hanem a valóság, méghozzá a fejlett világban élők nagy többsége számára. Gondoljunk csak bele, milyen erővel befolyásolja a kedvünket, az érzelmeinket, a gondolkodásmódunkat az, hogy mit olvasunk az interneten. És mit olvasunk? Főleg azt, amit ezek az MI-k elénk tesznek. Ehhez adjuk hozzá, hogy:
- A neten túlnyomórészt olyan dolgokat olvasunk, amik direktben az érzelmeink manipulációjára építenek, mert ezek a tartalmak terjednek legjobban, és hozzák a legtöbb kattintást.
- Az információs buborékok jelensége gondoskodik arról, hogy csak egyfajta, a véleményünket és előítéleteinket megerősítő tartalommal találkozzunk.
- Ráadásul egy a gyakorlatban úgy működik, hogy az ember rákerül egy lejtőre, és egyre durvább tartalmakkal és manipulációval húzza lefelé az internetmocsár.
A Facebook és a Google algoritmusai, amik összeállítják a hírfolyamunk tartalmát, vagy az ajánlott YouTube-videók listáját, úgy szolgálnak ki minket tartalommal, úgy manipulálják az érzelmeinket, a gondolatainkat, hogy rohadtul nem érdekli őket, mi lesz ennek a hatása. Már azon kívül, hogy szaporodik a reklámbevétel. Velük szemben pedig azok az algoritmusok állnak, amelyek igyekeznek kiszűrni a káros (hamis, gyűlöletkeltő, félrevezető, stb.) tartalmakat. És amikor az ember ránéz az interneten tenyésző gyűlöletbizniszre, vagy az áltudományos kuruzslók alternatív médiavilágára, nehéz nem arra gondolni, hogy
Felépült Orwell 1984-ének antiutópiája, csak itt a Nagy Testvér szerepét az internet óriásainak mesterséges intelligenciái játsszák, és olyan ügyesen manipulálnak minket, hogy észre sem vesszük – mondja Zeynep Tufekci technoszociológus (érdemes megnézni a témába vágó TED-előadását, van hozzá magyar felirat is).
A probléma az, hogy a gépi tanulás és a big data korszakában többé már nem tudjuk pontosan, hogyan is működnek ezek a mesterséges intelligenciák. Éppen ez a lényegük, hogy saját maguktól találnak ki dolgokat, és optimalizálják a trükkjeiket a végtelenségig. A Google-nél fejlesztett AlphaGo 30 nap alatt a nulláról indulva találta fel saját maga az összes trükköt és stratégiát a go nevű játékban, amivel az emberi játékosok 3000 év alatt előálltak, és még annál jóval többet is. A Facebooknál két csetbot addig beszélgetett egymással, míg új szavakkal és kifejezésekkel fejlesztették tovább az angol nyelvet (igaz, ezt aztán a média úgy fújta fel, hogy az MI saját nyelvet talált fel, és a tudósok pánikba esve kapcsolták ki). Képzeljük el, mivé válik, mivé válhat egy olyan MI, aminek a célja az embereket bármi áron arra rávenni, hogy minél többet kattintsanak, több tartalmat fogyasszanak, tök mindegy, hogy az adott tartalom mit művel az agyukkal. Nincs is más lehetőségünk, mint elképzelni, mert tudni nem tudhatjuk, se mi, laikusok, se maguk a programozók, akik megalkották.
Oké, mielőtt eljutnánk addig, hogy tulajdonképpen már el is múlt a Terminátor-féle Ítélet napja, csak nem vettük észre, mert bambán nyomkodtuk a lájk gombot közben, térjünk rá arra, hogy mit is lehetne tenni, hogy ezt elkerüljük.
Don't be evil. De tényleg.
Annak nincs realitása, hogy az MI-ket kidobjuk a kukába, mert a tapasztalat azt mutatja, hogy még így is sokkal jobb munkát végeznek a közösségi médiában, mint az emberek. A megoldás pofonegyszerű: programozzunk etikát és erkölcsöt az MI-be. Tanítsuk meg felismerni mondjuk a rasszizmust, aztán adjuk meg neki alapelvként, hogy a rasszizmus rossz, és hagyjuk, hogy tegye a dolgát. Aztán fussuk le ugyanezt a kört mindenféle gyűlöletbeszéddel, álhírrel, áltudománnyal, propagandával, és meg is kaptuk a szép új világot.
Hiába az a Google jelmondata, hogy “Do the right thing”, vagyis tedd a helyes dolgot (igen, pár éve lecserélték a klasszikus "Don't be evil"-t), és hiába beszél arról Mark Zuckerberg, hogy a Facebook célja végső soron az, hogy jobbá tegye a világot, a bevétel meg a részvényárfolyam azért a gyakorlatban mindig fontosabbnak bizonyul ennél. A kattintásnak nincsen szaga, és amíg a rasszista gyűlölködők klikkjei, lájkjai és reklámnézése is pénzt hoz a konyhára, addig ki fogják szolgálni őket is. (És akkor abba ne is menjünk bele, hogy mi van, ha valaki direkt felül erre a hullámra, és politikai érdekből próbálja erősíteni.)
Központilag kellene szabályozni az óriáscégek MI-fejlesztéseit? De hát kinek lenne ilyesmire jogosítványa? Még ha a Google-Facebook vonalon sikerülne is valamit elérni, ez csak azzal járna, hogy a Tencent meg az Alibaba semmi perc alatt lekörözné őket (Kínában egyébként is éppen állami, MI-n és big datán alapuló Nagy testvér-adatbázis épül, ami mindenkiről nyilvántartja, mennyire jó állampolgár). Bízzunk abban, hogy majd maguktól jobb belátásra térnek, és hosszú távra gondolkodva, tényleg egy jobb világot építve fejlesztik tovább az algoritmusaikat? Igazából nincs jobb megoldás, mint ebben bízni, és mindenkinek, politikának, felhasználóknak, hirdetőknek megpróbálni meggyőzni az internet urait, hogy így lesz a legjobb mindannyiunknak.