- Tech-Tudomány
- mesterséges intelligencia
- biztonsági rés
- etika
- törvény
- társadalom
- algoritmus
- biztonsági hiba
- előítélet
Váltságdíjért vadásznának a mesterséges intelligenciák hibáira?
További Tech-Tudomány cikkek
- Elégett egy aszteroida a Föld légkörében
- Dán kutatók bizonyították: nem moderálják az önkárosító tartalmakat az Instagramon
- Azokkal a gázokkal mentenék meg a földet, amelyek miatt pusztulás fenyegeti
- Rengeteg új Nazca-vonalat talált a mesterséges intelligencia
- Senki sem fog örülni az Apple karácsonyi ajándékának, emelkedik egy népszerű szolgáltatás ára
Raji a hackereket mozgósító bugkereső kampányok mintájára szervezné az algoritmusok hibáinak felkutatását. Mint ismert, nagyobb cégek, mint a Google, a Facebook vagy a Microsoft, mind szoktak szervezni olyan akciót, amelyben „váltságdíjat” fizetnek a megtalálónak olyan, korábban nem ismert hibákért, amelyek így a cég tudását és a kártékony programok fejlesztőit gazdagítják.
Az első hibavadászatot a Netscape szervezte 1995-ben. A Google tavaly összesen 6,7 millió dollárt fizetett ki biztonsági hibákat felkutató 662 biztonsági szakembernek.
Amikor kiadsz egy szoftvert, és lehet benne olyan gyengeség, amitől feltörhetővé válik, az információbiztonsági közösség különböző eszközökkel le tudja vadászni ezeket a hibákat. A problémák, amik az algoritmusok elfogultságának területén jeletkeznek, párhuzamot mutatnak ezzel
– mondta Raji a Zdnetnek.
A nigériai–kanadai kutató CRASH (Community Reporting of Algorithmic Harms) néven szervez olyan kampányokat, amik a mesterséges intelligencián alapuló alkalmazásokban keresnek hibákat.
A cégek nem fogják szeretni
Az MI-rendszerek egyre több alkalmazásban jelennek meg, de máig nincs hatékony módszer a helyes működésük tesztelésére. A kifejezetten feltűnő vagy bántó hibákat eddig egymástól is független szakértők találták meg. Ilyen volt, amikor az MIT és a Stanford Egyetem munkatársai bőrszín alapján előítéletesnek találták a kereskedelmi arcfelismerő programokat.
A probléma azonban, amint azt Raji csapata is felismerte, hogy az algoritmusok elfogultságainak felkutatása nehezebb, mint támadási felületet találni egyes programokon.
Egy dolog, hogy definiálni kell, mit tekintünk káros viselkedésnek egy algoritmusnál, és egy teljes metodológiát kell létrehozni ennek kimutatására. A másik, a területet jóval közvetlenebben érintő probléma, hogy a cégek ellenérdekeltek, tehát nem örülnek úgy, mint egy ellenük nem felhasznált bugnak.
Az Amazon arcfelismerője, a Rekognition esetében felmerült problémákkal kapcsolatban például kifejezetten ellenséges magatartással találkoztak. Raji ezért nem bízná a cégek önszabályozására az etikus mesterséges intelligenciát, és úgy véli, hogy a társadalmi szabályok betartása vagy a közvélemény erőteljes fellépésével, vagy törvények útján lehetséges.