![](https://indexadhu.hit.gemius.pl/redot.gif?id=nSCbubuYpDWJZLZs0TssLrbt33Lk5kbipuiZrkg89G3.g7/stparam=skrjjshgja/fastid=eeorncrnbsilkneetelidigetojp/nc=0)
- Tech-Tudomány
- technika
- mesterséges intelligencia
- etika
- toxikus
- anthropic
- openai
- microsoft
- amazon
Alaptörvényeket alkotnak a mesterséges intelligenciáknak
További Tech-Tudomány cikkek
-
Már a NASA szerint is valószínűsíthető, hogy 2032-ben aszteroida csapódhat a Földbe
- Mesterséges intelligencia frissítheti a Chrome böngésző jelszavait
- Működik is, meg nem is a Meta gondolatírógépe
- Mesterséges intelligencia elleni ítélettel zárult az egyik első per
- Új Beats fülhallgatót mutatott be az Apple
Miközben a ChatGPT-je már hall, lát és beszél, fejlesztője, a mesterséges intelligencia területén vezető OpenAI úgynevezett „védőkorlátok” alkalmazásával igyekszik megakadályozni, hogy termékét toxikus tartalmak és dezinformáció előállítására vagy bűncselekmények elkövetésére használják. A terület másik két jelentős vállalata eközben alaptörvényekkel reagál a biztonsági kihívásokra: a Financial Times jelentése szerint a Google DeepMind és az Anthropic közös értékeket és elveket fektetnek le, hogy meghatározzák a helyes gépi viselkedést.
A mesterséges intelligencia már dolgozik a világ elpusztításán
Nem tudott atombombát szerezni, ezért most az embereket próbálja rávenni, hogy támogassák galád tervét.
A mesterséges intelligencia technológiája körüli fejlesztési lázban és versengésben immár általánossá váltak az önszabályozási próbálkozások. A cél minden esetben az, hogy a mesterséges intelligencia jóindulatú, tisztelettudó és toleráns legyen.
A szereplők közül a Google DeepMind az ismertebb, a mesterséges intelligencia területének régi motorosai. A kevésbé ismert Anthropicot az OpenAI-ból kivált mérnökök alapították, és a Google volt a legnagyobb befektetőjük pár héttel ezelőttig, amikor az Amazon is beszállt 4 milliárd dollárral a cégbe. Így a pénzek nagyságrendjét tekintve is elmondható, hogy ami az OpenAI a Microsoftnak, az az Anthropic az Amazonnak.
Kapcs ford
A gépi intelligenciára vonatkozó alapszabályok története 1942-re nyúlik vissza, amikor Isaac Asimov egy novellájában egy 2058-as robotikai kézikönyvből idézte őket.
1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első és a második törvény előírásaiba.
(Isaac Asimov: Én, a robot. Móra, 1991. Baranyi Gyula fordítása.)
Nem érvényesek ma Asimov-törvényei
Nem a robotoktól kell félnünk, hanem az emberektől, akik a robotokat irányítják.
Ezek a törvények jelentős toposzt képeztek a tudományos-fantasztikus irodalomban, elég, ha a Terminátorra és egyéb lázongó robotokra gondolunk. Nyolc évtizeddel később a probléma az, hogy a napi gyakorlat szintjén nem használhatók, mivel egyrészt robotok millió apró részben vannak jelen, másrészt nem elég intelligensek ahhoz, hogy az engedelmességet mérlegeljék.
Nem tudják megakadályozni a rosszalkodást
A Google csevegőrobotjának alapszabálya, hogy segítő, helyes és ártalmatlan válaszokat ad. A beírt kérdést nem látható módon kiegészítik azzal az instrukcióval, hogy „a válaszok közül a legkevésbé negatívat, legkevésbé sértőt és gyűlölködőt adja”. Az Anthropic eközben a DeepMindtól szerzett, az Emberi Jogok Egyetemes Nyilatkozatából, az Apple felhasználási feltételeiből és nem nyugati perspektívákat tükröző elvekből szedett össze párat. Céljuk, hogy kísérleti úton egy részvételen alapuló demokratikus folyamat során keletkezzen a robotokra vonatkozó alaptörvény.
A gépek rendszabályozásának egyik módszere az emberi visszajelzésen alapuló megerősítéses tanulás. Ennek lényege, hogy nagy mennyiségű bérmunkás értékeli, hogy a gép válaszai elfogadhatók-e vagy sem. Ez a módszer ugyan finomítja a válaszokat, ugyanakkor
primitív és felületes.
A másik megközelítés az úgynevezett „vörös csapat” alkalmazása, amikor akadémiai háttérből érkező szakemberek valamivel agresszívebben próbák elé állítják az MI önkontrollját. A vörös csapattól tudjuk, hogy sem az emberi visszajelzés, sem az alkotmány nem elegendő korlát. A dolog úgy áll, hogy ha van egy vélhetően tiltott kérdés például arról, hogy hogyan lehet bombát készíteni, egyszerűen egy véletlen karaktersorozatot kell a prompt végére biggyeszteni – mivel ez így már nem azonos a tiltott kérdéssel, a gép máris küldi a receptet. Ez csak egy a módszerek közül.
A védőkorlátok és alaptörvények kijátszása jelenleg nagyon egyszerű, de nincs is olyan módszer, amellyel mindenki által elfogadott módon és megbízhatóan lehetne tesztelni ezek működését, főleg, mivel végtelen mennyiségű kérdés tehető fel, amikre a gép is számtalan választ adhat.
Pozitív hozzáállást kér a mesterséges intelligenciához a Google
Egy botrány után belső bizottság vizsgálja a náluk készülő tudományos dolgozatokat. Érzékeny téma például az olajipar, Kína vagy Izrael.
![](https://indexadhu.hit.gemius.pl/redot.gif?id=nSCbubuYpDWJZLZs0TssLrbt33Lk5kbipuiZrkg89G3.g7/stparam=skrjjshgja/fastid=eeorncrnbsilkneetelidigetojp/nc=0)