Most a Facebooknál csapott le a rasszista algoritmus
További Tech-Tudomány cikkek
- Rongyként nyújtható és csavarható az LG új kijelzője
- Az élet keresése közben végezhetett a marslakókkal az amerikai szonda
- Itt a nagy dobás a 4iG-től: műholdakat állítanak Föld körüli pályára
- Minden eddiginél furább hibrid szörnyeteggel rukkolhat elő az Apple
- Hamarosan képtelenek leszünk kiszolgálni az adatközpontok energiaigényét
A mesterséges intelligencia újabb rasszista botlása miatt tört ki botrány, ezúttal a Facebooknál. A közösségi oldal tartalomajánló algoritmusa fekete férfiakat tartalmazó videó alatt érdeklődött a felhasználóknál, hogy szeretnének-e még több, főemlősökről szóló filmet nézni.
A probléma oka, hogy a felhasználó érdeklődési köreiről információt gyűjtő rendszer automatikusan a „főemlősök” címkét adta a videóhoz. A történetet tovább árnyalja, hogy a felvételen egyébként fehérek által kezdeményezett rendőri fellépés volt látható, amely során feketéket tartóztattak le.
Ez a hiba egyértelműen elfogadhatatlan
– fogalmazott a cég szóvivője.
Ahogy korábban is jeleztük, javítottuk a mesterséges intelligenciánkat. Tudjuk, hogy nem tökéletes, és még fejlődnie kell. Bocsánatot kérünk mindenkitől, aki láthatta a sértő ajánlót
– tette hozzá.
A Facebook tavaly júliusban közölte, hogy vizsgálja az algoritmusai rasszista elhajlásait az Instagramnál.
A cég a jelenlegi malőr nyomán lekapcsolta az ajánlófunkciót. Megígérték továbbá, hogy kivizsgálják az esetet, hogy többször ne fordulhasson elő.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
A Facebook ígérete ma már kevésnek tűnhet a közvéleménynek, mivel folyamatosak a botrányok a rendőrségi arcfelismerő rendszerek afrikai származásúakat sújtó tévedései miatt. Emellett az amerikai szövetségi kereskedelmi bizottság (FTC) áprilisban azzal fenyegette a cégeket, hogy ha nem küszöbölik ki az algoritmusaik előítéleteit, ők fogják megvédeni a fogyasztók érdekeit.
Az sem segít a dolgon, hogy a Facebook nem átlátható, és picit sem akar az lenni. Legutóbb pár napja álhírek terjedését kutató szakembereket zártak ki a rendszerből, a Cambridge Analytica-botrány nyomán FTC-vel kötött egyezségükre hivatkozva.
Nem ez az első eset, hogy egy képfelismerő algoritmus botrányt okoz. Mint ismert, 2015-ben a Google kényszerült bocsánatkérésre, amikor fotós alkalmazása gorillának nézte a feketéket.