Atomháborút robbanthat ki a mesterséges intelligencia
További Külföld cikkek
- Vörös listára helyezhetik az Interpolnál a Magyarországra menekült lengyel miniszterhelyettest
- Új külügyminisztert nevezett ki a szíriai vezetés
- Az Egyesült Államok felajánlotta segítségét a németországi terrortámadás kivizsgálásához
- A volt skót igazságügyi miniszter is megszólalt a Lockerbie-merényletről
- Vlagyimir Putyin ismét beintett a Nyugatnak, nem kíván boldog karácsonyt és újévet
2022-ben az OpenAI bemutatta a ChatGPT-t, egy olyan chatbotot, amely nagy nyelvi modellek (LLM) segítségével utánozza az emberi beszélgetéseket, és válaszol a felhasználók kérdéseire. A chatbot rendkívüli képességei vitát váltottak ki arról, hogyan lehetne az LLM-eket más feladatok elvégzésére használni – beleértve a hadászati feladatokat is.
Mások azon gondolkodnak, hogy a generatív mesterséges intelligenciával működő technológiákat hogyan lehetne használni a civilek, katonákat beazonosítására, és egy csapás közbeni megkülönböztetésre – tehát az etikus háborúk megvívásához. Mások – például a Vöröskereszt Nemzetközi Bizottságának tanácsadói – arra figyelmeztettek, hogy ezek a technológiák kikerülhetik az emberi döntéshozatalt, amikor élet és halál között kell dönteni.
Az Egyesült Államok Védelmi Minisztériuma most komolyan vizsgálja, hogy az LLM-ek mit nyújthatnak a hadsereg számára. A Védelmi Minisztérium 2022 tavaszán létrehozta a Digitális és Mesterséges Intelligencia Hivatalát, hogy megvizsgálja, hogyan segíthet a mesterséges intelligencia a fegyveres erőknek.
2023 novemberében a védelmi minisztérium közzétette a mesterséges intelligenciával kapcsolatos technológiák használatára vonatkozó stratégiáját. Optimista módon arról számolt be, hogy „az adatok, az analitika és az AI-technológiák legújabb fejlesztései lehetővé teszik a vezetők számára, hogy gyorsabban hozzanak jobb döntéseket, a stratégiai tervezésben és a harctéren is”. Az AI-alapú technológiákat már ma is alkalmazzák. Az amerikai csapatok például AI-rendszerekkel választották ki a húti célpontokat a Közel-Keleten.
A Pentagonban a mesterséges intelligencia és az LLM-ek iránti lelkesedés ellenére a vezetés aggódik a technológia által jelentett kockázatok miatt, és nemrégiben az amerikai haditengerészet az LLM-ek használatát korlátozó iránymutatást tett közzé. Az LLM-ek hasznosak lehetnek, de cselekedeteiket nehéz megjósolni, és veszélyes, eszkalációt maga után vonó döntéseket hozhatnak. A hadseregnek ezért korlátokat kell szabnia ezeknek a technológiáknak, amikor nagy tétekkel járó döntések meghozatalára használják őket, különösen harci helyzetekben – írja a Foreign Affairs hasábjain megjelent cikkében Max Lampart a Stanford Nemzetközi Biztonsági és Együttműködési Központ (CISAC) és a Stanford Center for AI Safety munkatársa, valamint Jacquelin Schneider, a Hoover Institution és a Stanford Egyetem Nemzetközi Biztonsági és Együttműködési Központjának munkatársa.
Veszélyes játékos
Az LLM-ek olyan katonai feladatokat tudnak ellátni, amelyek hatalmas mennyiségű adat feldolgozását igénylik nagyon rövid idő alatt, ami azt jelenti, hogy a hadseregek esetleg a döntéshozatal bővítésére vagy a bürokratikus funkciók racionalizálására kívánják használni őket.
Az LLM-ek ígéretesek a katonai tervezés, a parancsnokság és a hírszerzés számára. Automatizálhatják a forgatókönyv-tervezést, a hadijátékokat, a költségvetés-tervezést és a kiképzés nagy részét. Használhatók a hírszerzési információk szintetizálására, a fenyegetések előrejelzésének javítására és a támadási pontok gyors meghatározására. Háború vagy válsághelyzet idején az LLM-ek útmutatásokat adhatnak a parancsok kiadásához még akkor is, ha az egységek és parancsnokaik között korlátozott vagy minimális a kommunikáció.
A hadseregek mindennapi működése szempontjából talán a legfontosabb, hogy az LLM-ek képesek lehetnek automatizálni az egyébként nehézkes katonai feladatokat, beleértve a logisztikát és a teljesítményértékelést is.
Azonban még ezeknél a döntéseknél sem garantálható az LLM-ek sikere. Viselkedésük – különösen ritka és kiszámíthatatlan események beköveztével – kiszámíthatatlan lehet. És mivel nincs két teljesen egyforma LLM, a felhasználói inputok különbözőképpen befolyásolják őket.