A Facebook kipróbálta a felhasználókon a cenzúrázatlan hírfolyamot
További Tech-Tudomány cikkek
Újabb dokumentum szivárgott ki abból a vizsgálatból, amelyet az amerikai kongresszus folytat a világ legnépszerűbb közösségi oldalának működésével kapcsolatban. Mint ismert, az ügy egyik „koronatanúja” a cég egykori alkalmazottja, Frances Haugen, aki olyan belső dokumentumokkal állt elő, amelyek igazolják, hogy a Facebook a haszon érdekében szemet huny termékük fiatalokra gyakorolt káros hatása, vagy a felületén folyó gyűlöletkeltés felett.
Haugen jogi képviselője a kongresszusnak eljuttatott egy szerkesztett belső kutatási anyagot, amely a Protocol online magazin birtokába jutott. A dokumentum szerint 2019 márciusában olyan kísérletet végeztek, amelyben a felhasználók 2 százalékánál lekapcsolták a tiltott tartalmak ellen védő szűrőt.
A napvilágra került jelentésből kiderül, hogy az „integritás védelmének” a több millió felhasználót érintő felfüggesztése nem érintette a megjelenített szexuális vagy erőszakos tartalmak megjelenését, hanem azt vizsgálta, miként reagálnak a felhasználók, ha telibe kapják a kattintásvadász vagy a reklámfarmok által generált tartalmakat.
Az eredmény csak félig-meddig volt meglepetés: a felhasználók valamivel serényebben tüntették el és jelentették be a kamutartalmakat, ugyanakkor aktívabbak is voltak, többet kattintottak és kommentáltak.
Tekintve, hogy az integritás védelme egy olyan algoritmusba szól bele, ami felhasználói aktivitásra optimalizált rangsort állít elő, nem meglepő, hogy az integritásnak negatív hatása van az aktivitásra
– jegyezte meg a belső kutatás.
A Facebook szóvivője, Drew Pusateri szerint a kísérletnek alávetett felhasználók egyfajta kontrollcsoportként működnek, akik segítenek a káros tartalmak ellen védő algoritmusok fejlesztésében.
Egy cég egykori adatkutatója, Sophie Zhang a Protocolnak nyilatkozva korábban elmondta, hogy a reklámok kikapcsolásával is kísérleteztek, hogy lássák, milyen hatással van a növekedésre a marketing kontenthiánya.
A Haugentől származó belső kutatásból kiderült, hogy azok, akik nem vettek részt a kísérletben, 18 százalékkal kevesebb „alacsony minőségű hírt” kaptak, és sokkal magasabb volt a komoly sajtótermékekből származó hírek aránya.
A felhasználók 11 százaléka lát mindennap nyugalmat megzavaró tartalmakat, 16 százalékuk találkozik valószínűsíthetően erőszakos zaklatással, 39 százalékuk találkozik gyűlöletbeszédhez közelítő tartalommal, 32 százalékuk lát határesetnek számító meztelenséget. Ezek az arányok jelentősek, és nincsen olyan rangsorolási módszer, ami ezt kezeli
– írta a szerző, aki hozzátette, hogy a felületen bekövetkező rossz élmények kutatása még folyamatban van.
Az integritás védelmére irányuló változtatások a legnagyobb csapást az „értelmes társas interakciók” kategóriába tartozó tartalmakra mérték, ami magyarul az ismerősök által megosztott tartalmakat jelenti.
Leginkább az derül ki a dokumentumból, hogy a Facebook kísérletezései során, viszonylag későn ráébredt, hogy a káros tartalmakkal kapcsolatos definícióit ki kell terjesztenie. Ezek a kiterjesztett definíciók azonban kikerültek a rendszerből, mielőtt a Facebook nyilvánossá tette, hogy milyen tartalmakat sorolnak vissza.
Ez az integritástörténet az, hogy próbálsz valami jót tenni, mész a cégvezetőkhöz, akik lesöprik, aztán valami konzervatívabbal próbálkozol, és rájössz, hogy semmit sem értél el vele. Ami itt látható, ennek a történetnek a közepe
– mondta egy nevét nem vállaló Facebook-alkalmazott.
A megszólaltatott szakértők szerint önmagában nem botrányos, hogy a Facebook a felhasználóin azok tudta nélkül, hamvába holt és tét nélküli kísérleteket folytat. Ugyanakkor a Facebook belső vívódása az integritás és a felhasználói aktivitás konfliktusáról igazából csak látszólag mond ellent Haugen állításainak, mivel a javasolt bővített tartalmi visszasorolás végül nem valósult meg.
(Protocol)