- Tech-Tudomány
- openai
- mesterséges intelligencia
- chatgpt
- sam altman
- szuperintelligencia
- botrány
- veszély
- elon musk
Veszélyes áttörést érhettek el a mesterséges intelligencia fejlesztésében
További Tech-Tudomány cikkek
- Az Instagram ezentúl jelentősen megkönnyítheti az életünket
- Hatalmasat bakizott az Apple Intelligence, azt állította, Luigi Mangione lelőtte magát
- Egy eddig még nem látott Androidot fejlesztett a Google, azt is tudni már, min futhat majd
- Felfedezték a gekkók hatodik érzékét
- Olyan új funkciót kapott az Amazon Prime Video, amit az összes streamingplatform irigyel
Alig másfél héttel ezelőtt bombaként robbant a hír, hogy kirúgták Sam Altmant, az OpenAI vezérigazgatóját és társalapítóját a cégtől. A vállalat igazgatótanácsa akkor arra hivatkozott, hogy Altman nem mindenben bizonyult őszintének, és már nem bíznak a vezetői képességeiben.
Ezt követően viszont alaposan felbolydultak az események, ugyanis a vállalat 750 munkavállalójának nagy része a felmondást fontolgatta a vezérigazgató menesztése miatt, mire az igazgatótanács tárgyalni kezdett Altman visszahívásáról, akit időközben a Microsoft is megkörnyékezett. Végül az OpenAI és Altman között megegyezés született, így a vezérigazgató visszatérhetett a céghez.
A The Information nevű portál úgy tudja, hogy a cégnél kialakult fejetlenséget az okozhatta, hogy
hónapokkal ezelőtt egy olyan áttörést érhettek el a mesterséges intelligencia fejlesztésében, amely egy úgynevezett „szuperintelligencia” kialakulásához vezethet.
Állításuk szerint ez az újfajta intelligencia korábban még sosem látott problémák megoldására lenne képes. A portál azt is megjegyezte, hogy Altman egy nappal a kirúgása előtt is arról beszélt egy eseményen, hogy egy olyan fontos felfedezést tettek, amely „félretolja a tudatlanság fátylát, és kiterjeszti a felfedezések határait”. A cég egyes dolgozói szerint ez a kijelentés a szuperintelligenciára vonatkozhatott.
Elon Musk és az OpenAI igazgatósági tagja is figyelmeztetett
Erre utalhatott Elon Musk is, amikor a napokban – a The Independent beszámolója szerint – a The New York Times Dealbook nevű konferenciáján azt mondta, hogy az OpenAI
valami olyan veszélyes dolgot fedezhetett fel, amely káoszt okozott a vállalatnál.
A Tesla-vezér szerint ez az áttörés aggasztó lehetett Ilya Sutskever, az OpenAI társalapítója és vezető tudósa számára, és emiatt a vállalat arra kényszerülhetett, hogy megpróbálja elkerülni a veszélyt. Elon Musk azt mondta: megpróbálta kideríteni, mi történt az OpenAI kulisszái mögött, de nem sikerült. Számos, a vállalatnál dolgozó embert elért, köztük Ilya Sutskevert, az OpenAI vezető tudósát és igazgatósági tagját, de nem tudott meg tőlük semmit a részletekről.
Azt is felvetette, hogy a mesterséges intelligenciával foglalkozó vállalatok hazudnak, amikor azt állítják, hogy mesterségesintelligencia-rendszereiket nem emberek adatain képezték ki. De azt mondta, hogy az ezzel kapcsolatos esetleges perek nem fognak lezárulni addig, amíg nem lesz egy „digitális istenünk”.
Rajta kívül Lawrence Summers, az OpenAI új igazgatósági tagja is arra figyelmeztetett szombaton, hogy a cég munkája „rendkívül fontos”, és a vállalatnak „lelkiismeretes vállalatként” kell működnie.
Készen kell állnia arra, hogy együttműködjön a kulcsfontosságú kormányzati tisztviselőkkel szabályozási kérdésekben, nemzetbiztonsági kérdésekben, technológiai fejlesztési kérdésekben
– fogalmazott Summers a Bloomberg beszámolója szerint.
Külön csapat dolgozik azon, hogy ne okozzon katasztrófát
Árulkodó lehet az a lépés is, hogy az OpenAI hetekkel ezelőtt egy külön csapatot hozott létre a mesterséges intelligenciával kapcsolatos „katasztrofális kockázatok” mérséklésére.
Az OpenAI ezzel kapcsolatban korábban azt közölte, hogy a csapat „nyomon követi, értékeli, előre jelzi és védekezik” az AI által okozott, potenciálisan súlyos problémákkal szemben, beleértve a nukleáris fenyegetéseket is.
A csapat a „kémiai, biológiai és radiológiai fenyegetések”, valamint az „autonóm replikáció”, vagyis az önmagát replikáló mesterséges intelligencia enyhítésén is dolgozik majd. A felkészültségi csoport által kezelt további kockázatok közé tartozik az AI azon képessége, hogy becsapja az embert, valamint a kiberbiztonsági fenyegetések is – írta meg a The Verge.
(Borítókép: Sam Altman 2023. június 9-án. Fotó: SeongJoon Cho / Bloomberg / Getty Images Hungary)