Mégis kiadták az MI-t, ami túl jól sikerült ahhoz, hogy kiadják
Az OpenAI úgy döntött, hogy mégis kiadja azt a mesterséges intelligenciára (MI) épülő szöveggeneráló rendszert, ami annyira jól sikerült, hogy mikor februárban bemutatták, nem merték közzétenni az algoritmus betanításához felhasznált adatkészletet vagy az általuk futtatott kódot – írja a Verge.
A GPT-2 névre hallgató algoritmus elsősorban a nyelv modellezésében remekel, és azt igyekszik kitalálni, hogy egy adott szó után mi fog következni a mondatban. Nagyjából ilyesmit csinál a prediktív bevitel is a telefonokon évek óta, csakhogy a GPT-2 olyan jó ebben, hogy
elég adni neki egy címet, és ír hozzá egy meglepően jó cikket.
A kutatók pont emiatt tartottak tőle, hogy az információs hadviselés hírhamisítóinak kezében túl jó fegyver lenne az algoritmus, ezért csak kisebb, kevésbé bonyolult verziókat tettek közzé, aztán figyelték az emberek reakcióját. Ezt a megközelítést sokan kritizálták február óta, az OpenAI pedig most belátta, hogy tényleg nem olyan veszélyes az algoritmus, mint hitték, így a héten bejelentették, hogy az egész modellt elérhetővé teszik bárki számára.
A bejelentésben azért persze ismét kiemelték, hogy a GPT-2–vel független kutatások alapján is vissza lehet élni, de azt elismerték, hogy alaptalanok voltak abbéli félelmeik, hogy az algoritmussal nagy mennyiségű, összefüggő spammel lehetne elárasztani a közösségi médiát. Az OpenAI azt írta, hogy továbbra is figyelik majd, hogy a közösség hogy használja a GPT-2–t, és ennek fényében fejlesztik majd tovább az erre vonatkozó irányelveiket. A teljes algoritmust itt lehet kipróbálni.