Niggerezett a WeChat fordítóprogramja
Rasszista hajlamai lehetnek a kínai üzenetküldő alkalmazásnak, a WeChatnek. A szoftver fejlesztői bocsánatot kértek, amiért a szövegfordító modul az ártalmatlan hei laowai (fekete idegen) kifejezést úgy interpretálta angolul, hogy nigger.
Persze, ez nem az alkalmazás természetes fajgyűlölete; valószínűleg a gépi tanuláshoz használt mesterséges intelligencia merített olyan forrásokból, amiben szerepelt az N betűs kifejezés.
A problémát egy sanghaji színházi rendező, Ann James jelentette. Eredetileg a hei laowai szót akarta begépelni – ami szó szerinti fordításban fekete idegent jelent –, de a szövegfelismerő a jóval rövidebb és jóval sértőbb niggerre fordította.
A WeChat a bocsánatkérésen túl azt is elmagyarázta, hogy történhetett az eset. A fordítómotor által használt mesterséges intelligencia a hálózatról gyűjti az információkat. Az ilyen rendszerekre jellemző, hogy azokat az előítéleteket és hibákat is megtanulják, amik a forrásanyagban maradtak. (Ezért tartják fontosnak a big data szakértők a data quality, vagyis az adatminőség kérdését: hogy a gép csak tiszta forrásból dolgozzon.)
Lehetséges, hogy a WeChat olyan adatbázisokat is használt a gépi tanulásnál, amik rasszista szöveget, szlenget vagy sztereotípiát tartalmaztak. A fejlesztők azóta módosították az algoritmust.
(Guardian)