Így tervezi az Apple kiszűrni a gyermekpornográfiát az iCloudból
További Tech-Tudomány cikkek
- Ez a Genesis Phil Collins nélkül gyorsítja fel a robotokat
- Már évtizedek óta tudják hogy mérgező, mégis máig használják ezt a műtrágyát
- Minden idők legforróbb napjait éltük 2024-ben, de 2025-ben sem lesz sokkal jobb
- Szemet gyönyörködtető Aston Martin kerül kalapács alá
- Hallucinogén koktélt azonosítottak egy ókori egyiptomi ivóedényben
Augusztus első hetében jelentette be az Apple, hogy bevezet egy új biztonsági rendszert készülékein, melyekkel az iCloud felhőszolgáltatásba feltöltött fényképek között fog gyermekek elleni szexuális erőszakra utaló jeleket keresni, ha pedig talál, azt jelenti a felelős hatóságoknak.
A bejelentés kapcsán felmerültek aggályok, hogy ezzel az Apple egy új eszközt ad a totális államok kezébe a rendszerszintű megfigyeléshez. Az Apple a bejelentéssel egy időben csak annyit mondott, ezen nem kell aggódni, rendszerük ugyanis kizárólag az iCloudba feltöltött fotókon egy meghatározott adatbázis (Child Sexual Abuse Material, röviden CSAM) alapján keres majd, így nem a teljes iOS-t figyeli meg. Az Apple most egy 14 oldalas leírásban, illetve a cég szoftverfejlesztést vezető alelnöke, Craig Federighi a Wall Street Journal-nek adott interjúban részletezte, miként is működik majd a pedofilvadász rendszerük.
Mint kiderült, az Apple által használt CSAM adatbázis nem egy forrásból származik majd, ahogy azt korábban félreérthetően kommunikálta a cég, hanem több, egymástól független, más országokból, akár más földrészről származó gyermekvédelmi szervezet anyagait veti majd össze a szoftver egyezések után kutatva. Federighi szerint ezzel elkerülhető, hogy például politikai nyomásra bekerüljön valami az adatbázisba – gondoljunk mondjuk Kína esetében a Tienanmen téri mészárlásra, mint tiltott és eltüntetni próbált témára.
Az Apple a teljes CSAM adatbázist az iOS, iPadOS és macOS rendszerekben tárolja majd a készüléken, a rendszereikbe bekerülő adatokról pedig kivonatot biztosít független vizsgálatok számára, akik ellenőrizhetik, tényleg csak a gyermekvédelmi feladatokat szolgáló képeket tartalmaz-e az adatbázis. Federighi azt állítja, megoldásuk több szinten is auditálható lesz, amivel biztonságtechnikai szakértők megbizonyosodhatnak róla, az Apple felelősségteljesen használja a rendszert.
Bár az őszi frissítésekkel a CSAM adatbázis megérkezik minden Apple terméket használóhoz, a szkennelés csak az Amerikai Egyesült Államokban fog működni egyelőre, a cég ettől függetlenül fontolóra veszi, hogy más országokban is bevezesse.
Federighi interjújából fény derült arra is, mekkora lesz a küszöb, melyet át kell lépnie a mesterséges intelligencia által talált gyermekbántalmazásra utaló jeleknek egy fotón ahhoz, hogy az AI az emberi moderátoroknak küldje tovább a fotót. Az Apple szerint összesen harminc egyezés után jelez majd az AI, ezt követően a cég saját moderátorai és gyermekvédelmi szervezetek független auditorjai is ellenőrizni fogják a fotókat. Az Apple saját moderátorainak nem engedélyezi, hogy maguktól jelentsenek bármit, ha azt az AI nem ítélte meg korábban gyermekbántalmazásra utaló jelként, ezzel próbálva elejét venni annak, hogy bármilyen más megfigyelésre használják a rendszert.
A harmincas szám, mint védelmi küszöb viszonylag magas. Az Apple szerint erre azért van szükség, hogy elkerülhessék az AI általi véletlen jelentéseket. Az alelnök interjújából azonban kiderült, hogy a limit nincs kőbe vésve, a harmincas számon változtathatnak a bevezetést követően a rendszer teljesítményének fényében.
A WSJ interjújában Federighi kitért az előző cikkünkben általunk is részletezett, a CSAM adatbázissal egy időben bevezetésre kerülő új iMessage funkcióval is. Ezzel kapcsolatban az alelnök tisztázta, az üzenetekbe integrált új rendszer csak 13 éven aluliak esetén működik majd, ha a szülő aktiválja azt. Ezen felül kiderült az is, az iMessage esetén nem a CSAM adatbázisban keres majd az iOS, hanem az Apple egy saját fejlesztésű mesterséges intelligenciát használ egy saját adatbázissal, ami bármilyen meztelenséget ábrázoló fényképet megjelöl majd a gyermek számára veszélyes tartalomként. Ettől függetlenül a fiatalkorú felhasználónak lehetősége lesz többszöri figyelmeztetés után az alapértelmezetten eltakart kép megtekintésére, erről azonban a védelmi funkciót aktiváló szülő értesítést fog kapni. Egyelőre ez az opció is csak az Amerikai Egyesült Államok felhasználói számára érkezik.
Ebben a cikkben a téma érzékenysége miatt nem tartjuk etikusnak reklámok elhelyezését.
Részletes tájékoztatást az Indamedia Csoport márkabiztonsági nyilatkozatában talál.