- Tech-Tudomány
- technika
- jog
- mesterséges intelligencia
- biztonság
- közérdek
- közvélemény
- openai
- nyílt levél
- védelem
Drámai nyílt levelet írtak az OpenAI alkalmazottai
További Tech-Tudomány cikkek
- Nem jól tudtuk, mennyi szén-dioxidot nyelnek el a tengerek
- Még a babáknál is gyorsabban tanulnak szavakat a macskák
- A műanyagoknál is pusztítóbbak lehetnek az őket váltó bioanyagok
- Az ízlelőbimbó nem minden: kiderült, hogy valójában mitől érzünk finomnak egy ételt
- Először szült utódokat klónozott állat
A fejlett mesterséges intelligenciával kapcsolatos figyelmeztetéshez való jogról címmel nyílt levelet tettek közzé az interneten az OpenAI egykori és jelenlegi munkatársai.
A levél szerzői szerint mindenki tisztában van azzal, hogy a mesterséges intelligencia fejlődésének komoly kockázatai vannak. Ilyen a társadalmi egyenlőtlenségek fokozódása, a félretájékoztatás és manipuláció terjedése, illetve az, hogy az emberiség elveszíti az ellenőrzést a nála okosabbá váló gépek felett – ez az úgynevezett szingularitás, ami az emberiség kihalásával fenyeget.
Mint írják, ezeket a veszélyeket el lehet kerülni a tudományos közösség bevonásával, a törvényhozók és a nyilvánosság fellépésével, a mesterséges intelligencia így végeredményben
hatalmas hasznára lehet az emberiségnek.
A területen ténykedő cégek azonban minden szempontból azon vannak, hogy kibújjanak az ellenőrzés alól, és ennek érdekében igyekeznek minden ellenvéleményt elhallgattatni.
Az OpenAI évekkel ezelőtt felhagyott a termékeikkel kapcsolatos részletes technikai leírások közlésével. Nem tudható, hogy modelljeik egész pontosan milyen képességekkel rendelkeznek (ezért is bukkannak fel újra és újra a gép öntudatra ébredéséről szóló, konteókká erjedő szóbeszédek), milyen potenciális veszélyt jelenthetnek az egyén és társadalom számára, és milyen módon védekezik a cég ezek ellen.
A levél szerzői arra figyelmeztetnek, hogy bár munkatársként
egyedül nekik van tényleges rálátásuk
a mesterséges intelligencia fejlesztésének helyzetére, de titoktartási szerződésük miatt nem emelhetnek szót. A visszaélésekkel a nyilvánosság elé lépőket (angolul whistleblowereket) megillető védelem pedig nem vonatkozik rájuk, mert ott az történik, hogy valaki konkrét jogsértéseket tár fel a közvélemény előtt, az OpenAI és a hozzá hasonló cégek azonban teljesen új és szabályozatlan területen mozognak. A törvényhozók nem látnak bele abba, hogy mi folyik ezeknél a cégeknél, a munkatársak azonban igen – amivel körbeértünk a bekezdés kiindulásához. A lényeg: nem védi semmi azokat, akik a mesterséges intelligencián dolgoznak, pedig úgy gondolják, hogy vannak vitatható dolgok, amikről lehetne beszélni.
A levelet öt egykori OpenAI-alkalmazott, egy korábbi Google DeepMind-munkatárs, egy volt Anthropic- és egy jelenlegi Google DeepMind-dolgozó írta alá névvel, továbbá hat név nélkül aláíró, aktív OpenAI-alkalmazott. Csatlakozott a levélhez három akadémikus is, Stuart J. Russell, Yoshua Bengio és a mesterséges intelligencia egyik alapítójának tekintett Geoffrey Hinton.
Az OpenAI utoljára a tavaly télen kitört palotaforradalom idején élt ilyen mozgalmas időket. A belsősöket is felvonultató kiáltvány/nyílt levél megjelenésével egy időben globálisan megrogyott a ChatGPT. Hogy technikai malőr, kibertámadás, vagy mi más okozta a hibát, nem tudható, csak annyi, hogy kijavították.
Nem ez az első komolyabb nyílt levél a mesterséges intelligencia történetében. Először a ChatGPT bemutatkozása után öt hónappal, 2023 márciusában követelték több ezren – köztük Max Tegmark, Yuval Noah Harari, Steve Wozniak és Elon Musk – hogy fél évre függesszék fel újabb mesterséges intelligenciák betanítását. A Meta, a Google, az Anthropic és a többiek 2023-as bejelentéseit nézve ma már világos, hogy ennek a nyílt levélnek a világon semmilyen hatása sem volt. Hogy az utóbbi levélnek lesz-e, az a visszhang erősségén múlik.
(CNN, Right to Warn..., The Verge)
(Borítókép: Jaap Arriens / NurPhoto / Getty Images)