Ne faggassuk úgy a mesterséges intelligenciát, mintha ember lenne!
További Tech-Tudomány cikkek
- Nem jól tudtuk, mennyi szén-dioxidot nyelnek el a tengerek
- Még a babáknál is gyorsabban tanulnak szavakat a macskák
- A műanyagoknál is pusztítóbbak lehetnek az őket váltó bioanyagok
- Az ízlelőbimbó nem minden: kiderült, hogy valójában mitől érzünk finomnak egy ételt
- Először szült utódokat klónozott állat
Fennáll a veszély, hogy egyszer a mesterséges intelligencia intelligensebbé válik nálunk. Talán egy nap a mesterséges intelligenciának sikerül majd manipulálnia az embereket, hogy azt tegyék, amit a mesterséges intelligenciák akarnak. A közeljövőben ez természetesen nem reális, de a kétségek minden embert foglalkoztatnak.
Gyakran úgy kezeljük a mesterséges intelligenciákat, vagy úgy beszélünk róluk, mintha emberek lennének. Ha ezt abbahagynánk, és felismernénk, hogy mik is ők valójában, az segíthetne abban, hogy jobb kapcsolatot ápoljunk a technológiával.
Semmiképpen sem ajánlott, hogy a mesterséges intelligenciákat emberként kezeljük. A mesterséges intelligenciák alatt olyan nagy nyelvi modelleket, LLM-eket értünk, mint a ChatGPT és a Google Bard, amelyeket ma már emberek milliói használnak nap mint nap.
Az emberek túlságosan is emberhez hasonló kognitív képességeket tulajdonítanak a mesterséges intelligenciáknak. Fel kell hagynunk azzal, hogy a mesterséges intelligenciákat emberként kezeljük, tudatos erkölcsi tényezőként, érdekekkel, reményekkel és vágyakkal. Ezt azonban sokan nehéznek vagy szinte lehetetlennek fogják találni. Azért, mert az LLM-eket úgy tervezték az emberek, hogy úgy lépjenek velünk kapcsolatba, mintha emberek lennének, minket pedig úgy tervezett a biológiai evolúció, hogy ugyanígy lépjünk velük kapcsolatba.
Az ok, amiért az LLM-ek ilyen meggyőzően tudják utánozni az emberi beszélgetést, Alan Turing, a számítástechnika úttörőjének egyik mélyreható felismeréséből ered, aki rájött, hogy a számítógépnek nem szükséges megértenie egy algoritmust ahhoz, hogy futtatni tudja azt. Ez azt jelenti, hogy bár a ChatGPT képes érzelmes nyelvezettel teli bekezdéseket létrehozni, nem ért meg egyetlen szót sem az általa generált mondatokban.
Az LLM tervezői a szemantika – a szavak értelmet adó elrendezése – problémáját sikeresen alakították át statisztikává, a szavaknak a korábbi használatuk gyakorisága alapján történő megfeleltetése révén.
Mi pedig hajlamosak vagyunk antropomorfizálni a nem emberi fajokat és más nem élő entitásokat.
De ez hasznos is lehet persze. Ha például le akarunk győzni egy számítógépet sakkban, a legjobb stratégia, ha valódi ellenfélként kezeljük, aki le akar győzni minket. Beszélhetünk egy fáról az erdőben úgy, mint ami a fény felé akar nőni. De sem a fa, sem a sakkszámítógép nem képviseli az általunk feltételezett akaratot vagy okokat. Viszont számunkra a viselkedésüket úgy lehet a legjobban megmagyarázni, ha úgy kezeljük őket, mintha emberek lennének.
Evolúciós történelmünk olyan mechanizmusokkal látott el bennünket, amelyek arra késztetnek minket, hogy mindenütt szándékot és cselekvőképességet feltételezzünk. Az őskorban ezek a mechanizmusok segítették őseinket abban, hogy elkerüljék a ragadozókat, és kialakítsák az altruizmust – a másik egyed saját kárunkra történő segítését – legközelebbi rokonaik iránt. Ugyanezek a mechanizmusok okozzák, hogy arcokat látunk a felhőkben, és antropomorfizáljuk az élettelen tárgyakat. Nem esik bajunk, ha egy fát összetévesztünk egy medvével, de fordítva rengeteg baj történhet.
Az evolúciós pszichológia megmutatja, hogy mindig megpróbálunk minden olyan tárgyat, amely ember lehet, emberként értelmezni.
Az LLM-ek által okozott potenciális zavarok miatt fel kell ismernünk, hogy ezek egyszerűen valószínűségeket figyelembe vevő automata gépezetek, amelyeknek nincsenek szándékaik, és nem törődnek az emberekkel. Különösen ébernek kell lennünk a nyelvhasználatunkkal kapcsolatban, amikor az LLM-ek és általában a mesterséges intelligencia emberhez hasonló teljesítményeit írjuk le.
Íme két példa.
- Az első egy nemrégiben készült tanulmány, amely szerint a ChatGPT empatikusabb és jobb minőségű válaszokat adott a betegek kérdéseire, mint az orvosokéira. Az olyan érzelmi szavak használata, mint az „empátia”, egy mesterséges intelligencia esetében arra enged következtetni, hogy a gondolkodás és a másokkal való valódi törődés képességei is megilletik – amivel azonban nem rendelkezik.
- A második példánk, amikor a GPT-4-et (a ChatGPT technológia legújabb verzióját) nemrég bemutatták, a kreativitás és az érvelés terén nagyobb képességeket tulajdonítottak neki. Azonban egyszerűen csak a „kompetencia” skálázódását látjuk.
Többen javasolták, hogy a mesterséges intelligencia segítségével írt szövegeket és véleményeket vízjellel lássák el, hogy ne legyen kétséges, emberrel vagy chatrobottal állunk-e kapcsolatban.
A mesterséges intelligencia szabályozása az innováció nyomában jár, ahogyan az az élet más területein is gyakran előfordul. Több a probléma, mint a megoldás, és a szakadék valószínűleg előbb fog nőni, mint szűkülni. De addig is botor tendencia az, ha a legjobb ellenszerünk erre a velünk született kényszerünkre az, ha a mesterséges intelligenciát emberként kezeljük.