Így lehet rasszista egy algoritmus
Elnézést kért a FaceApp nevű népszerű képszerkesztő mobilapp fejlesztője, amiért az egyik szűrőjükről kiderült, hogy véletlenül rasszista – írja a Techcrunch.
A FaceApp mesterséges intelligenciát használ a képszerkesztéshez: neurális hálózatra épülő szűrőkkel tuningolja fel a szelfiket. Az app tartalmaz egy hotness nevű filtert is, vagyis egy olyan szűrőt, amellyel bárkinek a képe szexibbé varázsolható. A felhasználók viszont azt vették észre, hogy ezt többek között azzal gondolja elérni az algoritmus, hogy kivilágosítja a feketékről készült képeken az arcbőr színét.
Mélyen sajnáljuk ezt a megkérdőjelezhetetlenül komoly problémát. Az app mögött futó neurális hálózat szerencsétlen mellékhatásáról van szó, amelyet az algoritmus tréningezéséhez használt adatbázis okozott, nem szándékolt cselekedet
– írta bocsánatkérésében a FaceAppot alapító Jaroszlav Goncsarov, arra utalva, hogy feltehetően az algoritmust sokkal több fehér ember képén edzették, mint színesbőrűn. Hozzátette, hogy a szűrőt átnevezték, hogy a hatásához ne társuljanak pozitív asszociációk (vagyis hogy a világosabb bőrszín ne számítson automatikusan szexibbnek), és dolgoznak a végleges megoldáson.
A FaceApp esete egyébként csak láthatóvá és könnyebben megfoghatóvá tesz egy kiterjedtebb problémát. Ahogy már több téma, például az algoritmusokra épített bűnmegelőzés kapcsán mi is írtunk róla, egy-egy érzékeny feladat algoritmusokra bízása azzal az előnnyel kecsegtet, hogy az elfogulatlan gép objektívabb döntéseket fog hozni, mint az előítéletektől terhelt emberek. Ez viszont jórészt illúzió, mert az algoritmusok adatokból dolgoznak, a gépi tanulásra épülő megoldásokat például nagy adathalmazokon edzik a fejlesztők, és nem ritka, hogy a kiszűrni szándékozott előítéletek már ezekben az adatokban kódolva vannak, így a gépi működésbe is észrevétlenül átöröklődhetnek – hogy az most a FaceApp esetében is történt.