A ChatGPT olyan, mint egy járvány vagy egy atomháború, kihalhat az emberiség miatta
További Tech-Tudomány cikkek
Több mint háromszázötven ember – köztük a ChatGPT, az OpenAI és a Google vezetői – írta alá azt a Center for AI Safety nevű szervezet által kiadott nyilatkozatot, melynek célja a mesterséges intelligencia (MI) kockázatainak csökkentése.
A mesterséges intelligencia jelentette kihalási kockázat mérséklését globális prioritásként kell kezelni más társadalmi szintű kockázatokkal, mint a világjárványok és az atomháború
– fogalmazott a szervezet.
Sam Altman, a ChatGPT-t kifejlesztő OpenAI cég vezérigazgatója és Mira Murati, a cég technológiai igazgatója is aláírta a nyilatkozatot – írja a The Wall Street Journal.
A nyilatkozat aláírói között volt
- Sam Altman, a ChatGPT-t kifejlesztő OpenAI cég vezérigazgatója
- Mira Murati, a ChatGPT technológiai igazgatója
- Kevin Scott, a Microsoft technológiai igazgatója
- Lila Ibrahim és Marian Rogers, a Google AI vezetői
- Angela Kane, az ENSZ korábbi leszerelési ügyekért felelős főképviselője, továbbá
- a Skype és a Quora vezetői.
A technológiai ipar vezető szakértői továbbra is izgatottak a mesterséges intelligenciában rejlő lehetőségek miatt, de egyre nagyobb a félelmük is, hogy a technológia kicsúszhat a kezünkből. Az MI kritikusai a ChatGPT chatbot megjelenése miatt fokozták a technológia szabályozására irányuló követeléseiket, mondván, az MI mérhetetlen veszélyeket jelent az emberiségre nézve.
Mesterséges intelligencia, valódi kockázat
A nyilatkozat szerint a nyilvánosság ugyan elismeri a mesterséges intelligencia kockázatait, ugyanakkor még több vitára lenne szükség a témával kapcsolatban. Az aláírók azt is el szeretnék érni, hogy „közismertté váljanak azok a szakértők és közéleti személyiségek, akik szintén komolyan veszik a fejlett mesterséges intelligencia néhány legsúlyosabb kockázatát”.
Az MI-szakértők és technológiai vezetők – köztük Elon Musk – márciusban már aláírtak egy levelet, amelyben felszólították a mesterséges intelligencia fejlesztőit, hogy szüneteltessék a technológián végzett munkájukat. Mint mondták, egy legalább hat hónapos moratórium időt adna az iparágnak arra, hogy biztonsági szabványokat állítson fel és megfékezze a legkockázatosabb MI-technológiákban rejlő ártalmakat.
Az Index korábban Lőrincz Andrással, az ELTE Informatikai Kar Mesterséges Intelligencia Tanszékének főmunkatársával és Török Bernáttal, az NKE Információs Társadalom Kutatóintézet igazgatójával beszélgetett az MI-hoz fűződő lehetőségekről és aggodalmakról.