Kaip veikia nauja „Apple“ vaikų pornografijos sistema (ir kaip ji neveikia)

Uždarykite nepilnamečio „Facebook“ paskyrą

„Apple“ paskelbė apie naujas priemones tobulinti savo vaikų apsaugos sistemą ir kovoti su vaikų pornografija. Mes paaiškiname, kaip šios naujos priemonės veikia ir ko jos nedaro.

„Apple“ pridėjo Naujos priemonės bendradarbiaujant su vaikų saugos ekspertais, siekiant kovoti su vaikų seksualinės prievartos medžiagos plitimu. Šie matavimai yra suskirstyti į tris skirtingus skyrius: „Messages“, „Siri“ ir „Photos“. Pranešimai nuskaitys nepilnamečių įrenginiuose siunčiamas ir gautas nuotraukas, „Siri“ įspės apie neteisėtos medžiagos paiešką, o „Photos“ praneš valdžios institucijoms, jei bus aptikta vaikų pornografijos medžiaga mūsų įrenginyje. Šių priemonių veikimas yra gana sudėtingas, ypač jei norite išsaugoti vartotojų privatumą - iššūkį, kurį „Apple“ mano sugebėjusi įveikti ir kurį paaiškinsime toliau.

Žinutės

Ispanijoje ji nėra labai paplitusi, tačiau „Apple Message“ sistema plačiai naudojama JAV ir kitose šalyse. Štai kodėl vaikų seksualinės medžiagos „Messages“ sklaidos kontrolė yra labai svarbi ir buvo vienas iš šių naujų priemonių ramsčių. Naujoji sistema informuos vaikus ir tėvus, kai bus išsiųstos ar gautos nuotraukos su seksualiai atvira medžiaga. Tai atsitiks tik įrenginiuose, skirtuose 12 metų ar jaunesniems vaikams., kai jūsų nepilnamečio paskyra yra gerai sukonfigūruota.

Jei nepilnametis (12 metų ar jaunesnis) gauna nuotrauką, kurią „Apple“ priskyrė „seksualinio pobūdžio“, ji bus neryški ir jis bus informuotas nepilnamečiui suprantama kalba, kad vaizdas gali būti netinkamas. Jei nuspręsite jį pamatyti (galite pamatyti, jei pasirinksite) jums bus pranešta, kad jūsų tėvai bus informuoti. Tas pats atsitiks, jei nepilnametis nuspręs išsiųsti pranešimą su seksualine nuotrauka.

Šis procesas vyksta „iPhone“ viduje, „Apple“ nesikiša bet kuriuo metu. Nuotrauka nuskenuojama prieš išsiunčiant arba gavus „iPhone“, o naudojant dirbtinio intelekto sistemą bus nuspręsta, ar jos turinys kelia pavojų, ar ne. Pranešimą, jei jis įvyks, gaus tik nepilnamečio tėvai (kartojame, 12 metų ar mažiau), nei „Apple“, nei valdžios institucijos apie tai nieko nežino.

"Siri"

„Apple“ virtualus asistentas taip pat bus atnaujintas kovojant su vaikų pornografija. Jei kas nors atliks tokio tipo turinio paiešką, „Siri“ praneš, kad medžiaga yra neteisėta, taip pat suteiks išteklių, kurie gali būti naudingi, pvz., Pranešimo apie tokio tipo turinį būdus. Vėl visa procedūra vyks mūsų pačių įrenginyje, nei „Apple“, nei bet kuri kita atitinkama institucija neturės žinių apie mūsų paieškas ir apie „Siri“ mums pateikiamus įspėjimus.

nuotraukos

Tai neabejotinai yra svarbiausias ir daugiausiai ginčų sukėlęs pokytis, kuriame pateikiama dezinformacija apie tai, kaip jis veiks. „Apple“ paskelbė, kad „iCloud“ aptiks vaikų pornografijos vaizdus, ​​kuriuos vartotojai išsaugojo debesyje. Jei pasiliksime prie šio teiginio, kyla daug abejonių, kaip tai galima padaryti, gerbiant vartotojų privatumą. Tačiau „Apple“ apie tai pagalvojo ir sukūrė sistemą, leidžiančią tai padaryti nepažeidžiant mūsų privatumo.

Svarbiausia, kad nepaisant daugybės straipsnių, kurie buvo paskelbti su šia informacija, „Apple“ neskaitys jūsų nuotraukų, ar nėra vaikų pornografijos turinio. Jie nesupras jūsų nusikaltėliu, nes vonioje turite nuogo sūnaus ar dukters nuotraukų. „Apple“ ketina išsiaiškinti, ar turite milijoną nuotraukų, išvardytų CSAM kaip vaikų pornografiją.

Kas yra CSAM? „Vaikų seksualinės prievartos medžiaga“ arba medžiaga apie seksualinę prievartą prieš vaikus. Tai nuotraukų, kuriose yra vaikų pornografijos turinio, katalogas, kurį žino ir kuria skirtingos įstaigos ir kurio turinį kontroliuoja Nacionalinis dingusių ir išnaudojamų vaikų centras (NCMEC). Kiekviena iš šių nuotraukų turi skaitmeninį parašą, nesikeičiantį, ir būtent tai naudojama žinant, ar naudotojas turi tas nuotraukas, ar ne. Ji palygins mūsų nuotraukų parašus su CSAM, tik jei atsitiktinumai įvyks, pavojaus signalas įsijungs.

Todėl „Apple“ nesirinks mūsų nuotraukų, norėdama išsiaiškinti, ar turinys yra seksualinis, ar ne, jis nenaudos dirbtinio intelekto ir net nematys mūsų nuotraukų. Ji naudos tik kiekvienos nuotraukos skaitmeninius parašus ir lygins juos su parašais, įtrauktais į CSAM, ir tik atsitiktinumo atveju peržiūrės mūsų turinį. Ką daryti, jei viena iš mano nuotraukų klaidingai įvardijama kaip netinkamas turinys? „Apple“ tikina, kad tai praktiškai neįmanoma, tačiau jei tai įvyktų, nebūtų jokių problemų. Pirma, rungtynių neužtenka, turi būti kelios rungtynės (nežinome, kiek), o jei šis ribinis skaičius viršijamas (tik jei jis viršijamas), „Apple“ peržiūrės tas konkrečias nuotraukas, kad įvertintų, ar jos tikrai yra vaikų pornografija turinį ar ne prieš pranešant valdžios institucijoms.

Dėl šios priežasties būtina, kad nuotraukos būtų saugomos „iCloud“, nes ši procedūra iš dalies atliekama įrenginyje (skaitmeninių parašų palyginimas), tačiau jei yra teigiamų rezultatų, rankinį turinio peržiūrą atlieka „Apple“ darbuotojai, peržiūrėdami „iCloud“ nuotraukas, nes jie jokiu būdu neprieina mūsų įrenginio.

Turite klausimų apie privatumą?

Bet kuri aptikimo sistema kelia abejonių dėl jos veiksmingumo ir (arba) pagarbos privatumui. Gali atrodyti, kad norint, kad aptikimo sistema būtų tikrai efektyvi, reikia pažeisti vartotojo privatumą, tačiau realybė tokia, kad „Apple“ sukūrė sistemą, kurioje garantuojamas mūsų privatumas. „Messages“ ir „Siri“ aptikimo sistema nekelia abejonių, nes tai vyksta mūsų įrenginyje, „Apple“ nieko nežinodamas. Tik nuotraukų aptikimo sistema „iCloud“ gali kelti abejonių, tačiau realybė tokia, kad „Apple“ labai stengėsi ir toliau užtikrinti, kad mūsų duomenys būtų tik mūsų.

Būtų tik vienas atvejis, kai „Apple“ galėtų pasiekti mūsų duomenis „iCloud“: jei pavojaus signalas išsijungia dėl kai kurių mūsų nuotraukų ir jos turi jas peržiūrėti, kad pamatytų, ar tai tikrai nelegalus turinys. Tikimybė, kad tai atsitiks per klaidą, yra nepaprastai maža, be galo maža. Aš asmeniškai manau, kad verta imtis šios labai mažai tikėtinos rizikos, jei ji padeda kovoti su vaikų pornografija.

Galinės durys norint pasiekti mūsų „iPhone“?

Visiškai. „Apple“ niekada neleidžia pasiekti mūsų „iPhone“ duomenų. Tai, kas vyksta „iPhone“, lieka „iPhone“. Vienintelis taškas, kuriame galite pasiekti mūsų duomenis, yra tada, kai kalbame apie nuotraukas, saugomas „iCloud“, o ne „iPhone“. Galinių durų nėra.

Ar vis dar galiu turėti savo vaikų nuotraukų?

Be menkiausios problemos. Aš tai pakartojau kelis kartus, bet pasakysiu dar kartą: „Apple“ neskaitys jūsų nuotraukų, kad pamatytų, ar jose nėra vaikų seksualinio turinio. Jei vonioje turite savo kūdikio nuotraukų, nėra jokių problemų, nes jis nebus aptiktas kaip netinkamas turinys. „Apple“ ieškos jau žinomų ir CSAM kataloge esančių nuotraukų identifikatorių ir palygins juos su jūsų „iPhone“ identifikatoriais.


Sekite mus „Google“ naujienose

Palikite komentarą

Jūsų elektroninio pašto adresas nebus skelbiamas. Privalomi laukai yra pažymėti *

*

*

  1. Už duomenis atsakingas: AB Internet Networks 2008 SL
  2. Duomenų paskirtis: kontroliuoti šlamštą, komentarų valdymą.
  3. Įteisinimas: jūsų sutikimas
  4. Duomenų perdavimas: Duomenys nebus perduoti trečiosioms šalims, išskyrus teisinius įsipareigojimus.
  5. Duomenų saugojimas: „Occentus Networks“ (ES) talpinama duomenų bazė
  6. Teisės: bet kuriuo metu galite apriboti, atkurti ir ištrinti savo informaciją.