Apple CSAM noteikšanas kļūmju sistēmas skaidrojums

Šodien Apple izlaida dokumentu, kurā izklāstīta drošības apdraudējuma modeļa pārskatīšanas sistēma, kas iekļauta viņu jaunajās bērnu drošības funkcijās. Apple precizēja dažādus drošības līmeņus un ceļus, ar kuriem darbojas viņu jaunā bērnu drošības sistēma. Šodienas skaidrojums bija daļa no Apple diskusiju sērijas pēc paziņojuma par jaunajām bērnu drošības funkcijām un pēc tam neizbēgamajām pretrunām.

Šai sistēmai ir divas daļas paplašināta aizsardzība bērniem: viens ietver ģimenes koplietošanas kontus un ziņojumus, otrs attiecas uz iCloud fotoattēliem. Ziņojumu sistēma pieprasa, lai vecāka vai aizbildņa konts aktivizētu funkciju, lai tā darbotos. Šī ir izvēles sistēma.

Izmantojot ģimenes koplietošanu, vecāku vai aizbildņu konts var izvēlēties funkciju, kas var noteikt seksuāla rakstura attēlus. Šī sistēma izmanto tikai ierīcē esošo mašīnmācīšanās klasifikatoru lietotnē Ziņojumi, lai pārbaudītu fotoattēlus, kas nosūtīti no konkrētā bērna ierīces un uz to.

Šī funkcija nekopīgo datus ar Apple. Konkrēti, "Apple neiegūst nekādas zināšanas par to lietotāju saziņu, kuriem ir iespējota šī funkcija, un neiegūst zināšanas par bērnu darbībām vai vecāku paziņojumiem."

Bērna ierīce analizē fotoattēlus, kas nosūtīti uz viņa ierīci vai no tās, izmantojot Apple lietotni Ziņojumi. Analīze tiek veikta ierīcē (bezsaistē). Ja tiks atklāts seksuāla rakstura fotoattēls, tas nebūs redzams bērnam, bet bērns to varēs redzēt ir iespēja mēģināt turpināt, lai skatītu attēlu — šajā brīdī tiks izveidots vecāku konts paziņots.

Ja bērns apstiprinās vēlmi redzēt minēto attēlu, minētais attēls tiks saglabāts bērna ierīcē līdz brīdim, kad vecāks varēs apstiprināt fotogrāfijas saturu. Fotoattēlu saglabā drošības funkcija, un bērns to nevar izdzēst bez vecāku piekrišanas (izmantojot vecāku piekļuvi fiziskajai ierīcei).

Otrā funkcija darbojas īpaši ar attēliem, kas saglabāti Apple serveros iCloud Photos bibliotēkās. CSAM noteikšana var potenciāli noteikt CSAM attēlus, un, ja tiek atklāts pietiekami daudz CSAM attēlu, dati tiks nosūtīti Apple pārbaudei. Ja Apple cilvēku pārbaudes sistēma apstiprinās, ka tajā ir CSAM materiāls, pārkāpuma konts tiks slēgts un sazināsies ar atbilstošajām juridiskajām iestādēm.

Apple noteiks CSAM attēlus šī procesa pirmajā daļā, izmantojot zināmās CSAM jaucējbāzes. CSAM jaukšanas datubāzēs ir ietverta noteikšanas parametru kopa, ko izveidojušas organizācijas, kuru uzdevums ir izmantot zināmus CSAM attēlus, lai izveidotu minētās parametru kopas.

Apple šopēcpusdien ieteica, ka katra pārbaude tiek veikta ar jaucējkodiem, kas krustojas starp divām vai vairākām bērnu drošības organizācijām. Tas nozīmē, ka neviena bērnu drošības organizācija nevar pievienot parametru (šeit ir jaukts), kas varētu uzsākt procesu, lai pārbaudītu, vai nav CSAM materiālu.

Apple arī nodrošina, ka visas uztveres jaukšanas, kas pastāv vairāku organizāciju jaukšanas sarakstos vienā suverēnā jurisdikcijā (bet ne citās), tiek atmestas. Tādā veidā viena valsts nevar piespiest vairākas organizācijas iekļaut jaucējus materiāliem, kas nav CSAM materiāli (piemēram, pretvalstisku simbolu vai darbību fotoattēli).

Apple norāda, ka iespēja, ka fotoattēls šajā procesa brīdī tika maldīgi identificēts kā CSAM, ir viens pret vienu triljonu.

Šobrīd Apple joprojām nevar piekļūt datiem, ko analizē viņu sistēma. Tikai tad, kad vienas personas konts sasniedz 30 atzīmēto attēlu slieksni, sistēma koplieto datus ar Apple turpmākai pārskatīšanai.

BET – pirms tam ir otrs, neatkarīgs uztveres jaucējs, lai vēlreiz pārbaudītu vairāk nekā 30 atzīmētos attēlus. Ja sekundārā pārbaude apstiprina šo otro pārbaudi, dati tiek kopīgoti ar Apple pārbaudītājiem, lai tie tiktu galīgi apstiprināti.

Saskaņā ar Apple šodien publicēto dokumentāciju: "Apple noraidīs visus pieprasījumus pievienot uztverošajai CSAM jaukšanas datubāzei attēlus, kas nav CSAM", UN "Apple arī noraidīt visus pieprasījumus uzdot pārbaudītājiem iesniegt ziņojumus par jebko, izņemot CSAM materiālus kontiem, kuri pārsniedz atbilstību slieksnis."

Ja Apple pārbaudītājs apstiprinās, ka kontā ir CSAM materiāls, viņš ziņos attiecīgajām iestādēm. Amerikas Savienotajās Valstīs šī iestāde ir Nacionālais pazudušo un izmantoto bērnu centrs (NCMEC).

Apple dokumentācijā par šīs bērnu drošības sistēmas iCloud Photos daļu ir teikts, ka uztveres pārbaudes tiek veiktas tikai viņu mākoņkrātuves cauruļvadā tiem attēliem, kas augšupielādēti pakalpojumā iCloud Photos. Apple apstiprināja, ka šī sistēma "nevar iedarboties uz citu attēla saturu ierīcē". Arī dokumentācija apstiprina, ka "ierīcēs un kontos, kuros iCloud Photos ir atspējoti, absolūti neviens attēls nav uztverams jaukts.

SKATIET ARĪ: Apple bērnu drošības bieži uzdotie jautājumi novērš bažas par privātumu

Ziņojumu uztveres pārbaudes sistēma arī paliek ierīcē lokāli. Pārbaudes sistēma Messages Family Sharing tiek veikta, izmantojot paša bērna aparatūru, nevis Apple servera veidu. Nekāda informācija par šo pārbaužu sistēmu netiek izplatīta nevienam citam, izņemot bērnu un vecāku – un pat tad vecākiem ir fiziski jāpiekļūst bērna ierīcei, lai redzētu iespējamo aizskarošo materiāls.

Neatkarīgi no Apple noteiktā drošības līmeņa un Apple solījumiem par to, kas tiks skenēts un ziņots un kam tev ir taisnība, ka gribi zināt viss, kas jāzina par šo situāciju. Ikreiz, kad jebkura iemesla dēļ redzat, ka uzņēmums izmanto sistēmu, ar kuru tiek skenēts lietotāju radītais saturs, jums ir tiesības zināt, kā un kāpēc.

Ņemot vērā to, ko mēs līdz šim esam sapratuši par šo sistēmu, atkarībā no jūsu skatījuma ir labas ziņas. Ja vēlaties izvairīties no tā, ka Apple izmanto jebkāda veida jūsu fotoattēlu pārbaudi, šķiet, ka jūs to varēsit izdarīt, ja vien vēlaties lai izvairītos no iCloud fotoattēliem un jūs neizmantojat ziņojumus, lai nosūtītu fotoattēlus bērniem, kuru vecāki ir reģistrējuši ģimenes koplietošanu konts.

Ja jūs cerat, ka tas viss novedīs pie tā, ka Apple palīdzēs apturēt CSAM materiālu koplietošanas plēsējus, šķiet, ka tas VAR notikt. Tie būs tikai tie likumpārkāpēji, kuri kāda iemesla dēļ nezina, kā deaktivizēt savu iCloud Photos kontu... bet tāpat. Tas varētu būt nozīmīgs solis pareizajā virzienā.