- Tech-Tudomány
- technika
- mesterséges intelligencia
- etika
- toxikus
- anthropic
- openai
- microsoft
- amazon
Alaptörvényeket alkotnak a mesterséges intelligenciáknak
További Tech-Tudomány cikkek
- Már évtizedek óta tudják hogy mérgező, mégis máig használják ezt a műtrágyát
- Minden idők legforróbb napjait éltük 2024-ben, de 2025-ben sem lesz sokkal jobb
- Hallucinogén koktélt azonosítottak egy ókori egyiptomi ivóedényben
- Egyedülálló régészeti felfedezést tettek az orosz tudósok
- Év végétől az egész EU-ban változás lép életbe a mobiltelefonoknál
Miközben a ChatGPT-je már hall, lát és beszél, fejlesztője, a mesterséges intelligencia területén vezető OpenAI úgynevezett „védőkorlátok” alkalmazásával igyekszik megakadályozni, hogy termékét toxikus tartalmak és dezinformáció előállítására vagy bűncselekmények elkövetésére használják. A terület másik két jelentős vállalata eközben alaptörvényekkel reagál a biztonsági kihívásokra: a Financial Times jelentése szerint a Google DeepMind és az Anthropic közös értékeket és elveket fektetnek le, hogy meghatározzák a helyes gépi viselkedést.
A mesterséges intelligencia technológiája körüli fejlesztési lázban és versengésben immár általánossá váltak az önszabályozási próbálkozások. A cél minden esetben az, hogy a mesterséges intelligencia jóindulatú, tisztelettudó és toleráns legyen.
A szereplők közül a Google DeepMind az ismertebb, a mesterséges intelligencia területének régi motorosai. A kevésbé ismert Anthropicot az OpenAI-ból kivált mérnökök alapították, és a Google volt a legnagyobb befektetőjük pár héttel ezelőttig, amikor az Amazon is beszállt 4 milliárd dollárral a cégbe. Így a pénzek nagyságrendjét tekintve is elmondható, hogy ami az OpenAI a Microsoftnak, az az Anthropic az Amazonnak.
Kapcs ford
A gépi intelligenciára vonatkozó alapszabályok története 1942-re nyúlik vissza, amikor Isaac Asimov egy novellájában egy 2058-as robotikai kézikönyvből idézte őket.
1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első és a második törvény előírásaiba.
(Isaac Asimov: Én, a robot. Móra, 1991. Baranyi Gyula fordítása.)
Ezek a törvények jelentős toposzt képeztek a tudományos-fantasztikus irodalomban, elég, ha a Terminátorra és egyéb lázongó robotokra gondolunk. Nyolc évtizeddel később a probléma az, hogy a napi gyakorlat szintjén nem használhatók, mivel egyrészt robotok millió apró részben vannak jelen, másrészt nem elég intelligensek ahhoz, hogy az engedelmességet mérlegeljék.
Nem tudják megakadályozni a rosszalkodást
A Google csevegőrobotjának alapszabálya, hogy segítő, helyes és ártalmatlan válaszokat ad. A beírt kérdést nem látható módon kiegészítik azzal az instrukcióval, hogy „a válaszok közül a legkevésbé negatívat, legkevésbé sértőt és gyűlölködőt adja”. Az Anthropic eközben a DeepMindtól szerzett, az Emberi Jogok Egyetemes Nyilatkozatából, az Apple felhasználási feltételeiből és nem nyugati perspektívákat tükröző elvekből szedett össze párat. Céljuk, hogy kísérleti úton egy részvételen alapuló demokratikus folyamat során keletkezzen a robotokra vonatkozó alaptörvény.
A gépek rendszabályozásának egyik módszere az emberi visszajelzésen alapuló megerősítéses tanulás. Ennek lényege, hogy nagy mennyiségű bérmunkás értékeli, hogy a gép válaszai elfogadhatók-e vagy sem. Ez a módszer ugyan finomítja a válaszokat, ugyanakkor
primitív és felületes.
A másik megközelítés az úgynevezett „vörös csapat” alkalmazása, amikor akadémiai háttérből érkező szakemberek valamivel agresszívebben próbák elé állítják az MI önkontrollját. A vörös csapattól tudjuk, hogy sem az emberi visszajelzés, sem az alkotmány nem elegendő korlát. A dolog úgy áll, hogy ha van egy vélhetően tiltott kérdés például arról, hogy hogyan lehet bombát készíteni, egyszerűen egy véletlen karaktersorozatot kell a prompt végére biggyeszteni – mivel ez így már nem azonos a tiltott kérdéssel, a gép máris küldi a receptet. Ez csak egy a módszerek közül.
A védőkorlátok és alaptörvények kijátszása jelenleg nagyon egyszerű, de nincs is olyan módszer, amellyel mindenki által elfogadott módon és megbízhatóan lehetne tesztelni ezek működését, főleg, mivel végtelen mennyiségű kérdés tehető fel, amikre a gép is számtalan választ adhat.