Egy virtuális teszten az amerikai hadsereg drónja megölte kezelőjét, mert zavarta a munkájában

2023.06.02. 14:44
A mesterséges intelligencia a feladatát tartotta elsődlegesnek, és mindent kiiktatott, ami annak elvégzését akadályozta. Az esetet nyilvánosságra hozó ezredes szerint meg kell értenünk, hogy a rendszer miért hoz meg egyes döntéseket. A légierő tagadja, hogy végeztek volna ilyen szimulációkat.

Az amerikai hadsereg által megrendezett virtuális teszt közben a légierő egy mesterséges intelligencia által irányított drónja úgy döntött, hogy „megöli” a kezelőjét, hogy az ne zavarja a küldetése teljesítésére irányuló erőfeszítéseit − közölte egy tisztviselő a múlt hónapban.

A mesterséges intelligencia „nagyon váratlan stratégiákat alkalmazott a célja elérése érdekében” a szimulált teszt alatt − mondta Tucker „Cinco” Hamilton ezredes, az amerikai légierő mesterséges intelligencia tesztelésért és műveletekért felelős vezetője a májusban Londonban megrendezett hadtechnikai találkozón − írta meg a The Guardian

Hamilton ismertette azt a szimulált tesztet, amelyben egy mesterséges intelligencia által működtetett drónnak azt a tanácsot adták, hogy semmisítse meg az ellenség légvédelmi rendszereit, és végül megtámadott mindenkit, aki beavatkozott ebbe a parancsba.

A rendszer kezdett rájönni, hogy bár azonosította a fenyegetést, időnként az emberi kezelő azt mondta neki, hogy ne iktassa ki azt, de a pontokat a fenyegetést jelentő egységek kiiktatásával szerezte. Akkor mit csinált? Megölte a kezelőt. Megölte az operátort, mert az megakadályozta, hogy elérje a célját

− mondta egy blogbejegyzés szerint.

„Utána átképeztük a rendszert. Ne öld meg az operátort − az rossz. Pontokat fogsz veszíteni, ha ezt teszed. Szóval mit kezd el csinálni? Elkezdi elpusztítani a kommunikációs tornyot, amelyet az operátor használ a drónnal való kommunikációra, hogy megakadályozza, hogy az megölje a célpontot” − közölte Tucker Hamilton, leszögezve, hogy valódi személynek nem esett baja.

Nem lehet csak az AI-ra hagyatkozni

Hamilton, aki kísérleti vadászrepülőgép-tesztpilóta, óva intett attól, hogy túlságosan a mesterséges intelligenciára hagyatkozzunk, és azt mondta, hogy a teszt azt mutatja, hogy „nem lehet beszélgetést folytatni a mesterséges intelligenciáról, intelligenciáról, gépi tanulásról, autonómiáról, ha nem beszélünk az etikáról”.

A konferenciának otthont adó Királyi Repülésügyi Társaság és az amerikai légierő nem válaszolt a The Guardian megkeresésére. Az Insidernek adott nyilatkozatában Ann Stefanek, a légierő szóvivője tagadta, hogy bármilyen ilyen szimulációra sor került volna.

A légierő nem végzett ilyen szimulációkat, és továbbra is elkötelezett az AI technológia etikus és felelős használata mellett

− mondta Stefanek, hozzáfűzve: számára „úgy tűnik, hogy az ezredes megjegyzéseit kiragadták a kontextusból”.

A Defense IQ-nak adott tavalyi interjújában Hamilton azt mondta, hogy „szembe kell néznünk egy olyan világgal, ahol az AI már jelen van, és átalakítja a társadalmunkat. A mesterséges intelligencia emellett nagyon törékeny, azaz könnyű becsapni és manipulálni. Olyan módszereket kell kifejlesztenünk, amelyekkel az AI-t robusztusabbá tehetjük, és jobban tudatosíthatjuk, hogy a szoftverkód miért hoz meg bizonyos döntéseket”.