Egy virtuális teszten az amerikai hadsereg drónja megölte kezelőjét, mert zavarta a munkájában
További Külföld cikkek
- Amikor az ünnep is a politikáról szólt: ezek voltak a történelem legfontosabb karácsonyai
- Ma már a karácsonyi filmek is a hatalomról szólnak
- A Toszkánát idéző lengyel várkastély, a Stobnica titka
- Börtönbüntetésre ítélték az összeomlott szálloda tulajdonosát és építészét Törökországban
- Csaknem 250 év után nyilvánították védett állatnak Amerika szimbólumát
Az amerikai hadsereg által megrendezett virtuális teszt közben a légierő egy mesterséges intelligencia által irányított drónja úgy döntött, hogy „megöli” a kezelőjét, hogy az ne zavarja a küldetése teljesítésére irányuló erőfeszítéseit − közölte egy tisztviselő a múlt hónapban.
A mesterséges intelligencia „nagyon váratlan stratégiákat alkalmazott a célja elérése érdekében” a szimulált teszt alatt − mondta Tucker „Cinco” Hamilton ezredes, az amerikai légierő mesterséges intelligencia tesztelésért és műveletekért felelős vezetője a májusban Londonban megrendezett hadtechnikai találkozón − írta meg a The Guardian.
Hamilton ismertette azt a szimulált tesztet, amelyben egy mesterséges intelligencia által működtetett drónnak azt a tanácsot adták, hogy semmisítse meg az ellenség légvédelmi rendszereit, és végül megtámadott mindenkit, aki beavatkozott ebbe a parancsba.
A rendszer kezdett rájönni, hogy bár azonosította a fenyegetést, időnként az emberi kezelő azt mondta neki, hogy ne iktassa ki azt, de a pontokat a fenyegetést jelentő egységek kiiktatásával szerezte. Akkor mit csinált? Megölte a kezelőt. Megölte az operátort, mert az megakadályozta, hogy elérje a célját
− mondta egy blogbejegyzés szerint.
„Utána átképeztük a rendszert. Ne öld meg az operátort − az rossz. Pontokat fogsz veszíteni, ha ezt teszed. Szóval mit kezd el csinálni? Elkezdi elpusztítani a kommunikációs tornyot, amelyet az operátor használ a drónnal való kommunikációra, hogy megakadályozza, hogy az megölje a célpontot” − közölte Tucker Hamilton, leszögezve, hogy valódi személynek nem esett baja.
Nem lehet csak az AI-ra hagyatkozni
Hamilton, aki kísérleti vadászrepülőgép-tesztpilóta, óva intett attól, hogy túlságosan a mesterséges intelligenciára hagyatkozzunk, és azt mondta, hogy a teszt azt mutatja, hogy „nem lehet beszélgetést folytatni a mesterséges intelligenciáról, intelligenciáról, gépi tanulásról, autonómiáról, ha nem beszélünk az etikáról”.
A konferenciának otthont adó Királyi Repülésügyi Társaság és az amerikai légierő nem válaszolt a The Guardian megkeresésére. Az Insidernek adott nyilatkozatában Ann Stefanek, a légierő szóvivője tagadta, hogy bármilyen ilyen szimulációra sor került volna.
A légierő nem végzett ilyen szimulációkat, és továbbra is elkötelezett az AI technológia etikus és felelős használata mellett
− mondta Stefanek, hozzáfűzve: számára „úgy tűnik, hogy az ezredes megjegyzéseit kiragadták a kontextusból”.
A Defense IQ-nak adott tavalyi interjújában Hamilton azt mondta, hogy „szembe kell néznünk egy olyan világgal, ahol az AI már jelen van, és átalakítja a társadalmunkat. A mesterséges intelligencia emellett nagyon törékeny, azaz könnyű becsapni és manipulálni. Olyan módszereket kell kifejlesztenünk, amelyekkel az AI-t robusztusabbá tehetjük, és jobban tudatosíthatjuk, hogy a szoftverkód miért hoz meg bizonyos döntéseket”.