Kā darbojas Apple jaunā bērnu pornogrāfijas sistēma (un kā tā nedarbojas)

Aizveriet nepilngadīgā Facebook kontu

Apple ir paziņojusi par jauniem pasākumiem uzlabot savu bērnu aizsardzības sistēmu un cīnīties pret bērnu pornogrāfiju. Mēs izskaidrojam, kā šie jaunie pasākumi darbojas un ko tie nedara.

Apple ir pievienojis Jauni pasākumi sadarbībā ar bērnu drošības ekspertiem, lai apkarotu bērnu seksuālās izmantošanas materiālu izplatīšanu. Šie mērījumi ir sadalīti trīs dažādās sadaļās: ziņojumi, Siri un fotoattēli. Ziņojumi skenēs fotoattēlus, kas tiek nosūtīti un saņemti nepilngadīgo ierīcēs, Siri brīdinās par nelikumīga materiāla meklēšanu, un fotoattēli paziņos iestādēm, ja tiks atklāts bērnu pornogrāfijas materiāls mūsu ierīcē. Šo pasākumu darbība ir diezgan sarežģīta, it īpaši, ja vēlaties saglabāt lietotāju privātumu - izaicinājumu, ko Apple uzskata, ka ir izdevies pārvarēt un ko mēs paskaidrosim tālāk.

Ziņas

Spānijā tā nav ļoti izplatīta, taču Apple Message sistēma tiek plaši izmantota ASV un citās valstīs. Tāpēc bērnu seksuāla materiāla izplatīšanas kontrole ziņojumos ir ļoti svarīga, un tā ir bijusi viens no šo jauno pasākumu pīlāriem. Jaunā sistēma informēs bērnus un vecākus, kad tiks nosūtītas vai saņemtas fotogrāfijas ar seksuāla rakstura materiāliem. Tas notiks tikai ierīcēs, kas paredzētas bērniem līdz 12 gadu vecumam., ja jūsu nepilngadīgais konts ir labi konfigurēts.

Ja nepilngadīgais (12 gadus vecs vai jaunāks) saņem fotogrāfiju, ko Apple ir klasificējis kā “seksuāli nepārprotamu”, tā būs neskaidra, un viņš nepilngadīgajam saprotamā valodā tiks informēts, ka attēls viņiem var nebūt piemērots. Ja jūs nolemjat to redzēt (varat to redzēt, ja izvēlaties) jums tiks paziņots, ka jūsu vecāki tiks informēti. Tas pats notiks, ja nepilngadīgais nolems nosūtīt ziņu, kurā ir seksuāla fotogrāfija.

Šis process notiek iPhone iekšienē, Apple nevienā brīdī neiejaucas. Fotoattēls tiek skenēts pirms tā nosūtīšanas vai saņemšanas iPhone, un, izmantojot mākslīgā intelekta sistēmu, tiks izlemts, vai tā saturs rada risku vai nē. Paziņojumu, ja tas notiks, saņems tikai nepilngadīgā vecāki (mēs atkārtojam, 12 gadus vai mazāk), ne Apple, ne varas iestādēm nebūs nekādu zināšanu par šo faktu.

Siri

Tiks atjaunināts arī Apple virtuālais palīgs, lai cīnītos pret bērnu pornogrāfiju. Ja kāds veic šāda veida satura meklēšanu, Siri viņiem paziņos, ka materiāls ir nelikumīgs, kā arī nodrošinās resursus, kas var būt noderīgi, piemēram, veidus, kā ziņot par šāda veida saturu. Atkal visa procedūra notiks mūsu ierīcē, ne Apple, ne kāda cita attiecīgā iestāde nezinās par mūsu meklējumiem un Siri brīdinājumiem.

fotogalerija

Tās, bez šaubām, ir vissvarīgākās izmaiņas, un tās ir izraisījušas vislielāko strīdu, ar dezinformāciju par to, kā tās darbosies. Apple paziņoja, ka iCloud atklās bērnu pornogrāfijas attēlus, kurus lietotāji ir saglabājuši mākonī. Ja mēs paliekam pie šī apgalvojuma, rodas daudz šaubu par to, kā to var izdarīt, vienlaikus ievērojot lietotāju privātumu. Bet Apple par to ir padomājis un ir izstrādājis sistēmu, kas ļauj mums to darīt, nepārkāpjot mūsu privātumu.

Vissvarīgākais ir tas, ka, neskatoties uz daudzajiem rakstiem, kas publicēti ar šo informāciju, Apple neskenēs jūsu fotoattēlus, lai meklētu bērnu pornogrāfijas saturu. Viņi nekļūdīsies par noziedznieku, jo vannā atrodas kaila dēla vai meitas attēli. Apple gatavojas pārbaudīt, vai jums ir kāds no miljoniem fotoattēlu, kas CSAM uzskaitīti kā bērnu pornogrāfija.

Kas ir CSAM? “Materiāls par seksuālu vardarbību pret bērniem” vai materiāls par seksuālu vardarbību pret bērniem. Tas ir fotogrāfiju katalogs ar bērnu pornogrāfijas saturu, ko pazīst un ražo dažādas iestādes un kura saturu kontrolē Nacionālais pazudušo un izmantoto bērnu centrs (NCMEC). Katrai no šīm fotogrāfijām ir nemainīgs digitālais paraksts, un tieši to izmanto, lai uzzinātu, vai lietotājam ir šīs fotogrāfijas vai nav. Tas salīdzinās mūsu fotogrāfiju parakstus ar CSAM parakstiem, tikai tad, ja būs sakritība, trauksme atskanēs.

Tāpēc Apple negrasās skenēt mūsu fotogrāfijas, lai noskaidrotu, vai saturs ir seksuāls vai nē, tas neizmantos mākslīgo intelektu, pat neredzēs mūsu fotoattēlus. Tā izmantos tikai katras fotogrāfijas ciparparakstus un salīdzinās tos ar CSAM iekļautajiem parakstiem, un tikai nejaušības gadījumā tā pārskatīs mūsu saturu. Ko darīt, ja kāds no maniem fotoattēliem kļūdaini tiek atzīts par nepiemērotu saturu? Apple apliecina, ka tas ir praktiski neiespējami, taču, ja tas notiktu, problēmu nebūtu. Pirmkārt, ar atbilstību nepietiek, ir jābūt vairākām atbilstībām (mēs nezinām, cik), un, ja šis ierobežojums tiek pārsniegts (tikai tad, ja tas ir pārsniegts), Apple pārskatīs šīs konkrētās fotogrāfijas, lai novērtētu, vai tās patiešām ir bērnu pornogrāfija saturu vai nē, pirms paziņojat iestādēm.

Šī iemesla dēļ fotogrāfijas ir jāglabā iCloud, jo šī procedūra daļēji notiek ierīcē (digitālo parakstu salīdzinājums), bet, ja ir pozitīvs, manuālu satura pārskatīšanu veic Apple darbinieki, pārskatot fotoattēlus pakalpojumā iCloud, jo viņi nekādā veidā nepiekļūst mūsu ierīcei.

Jautājumi par jūsu privātumu?

Jebkura atklāšanas sistēma rada šaubas par tās efektivitāti un / vai par privātuma ievērošanu. Var šķist, ka, lai atklāšanas sistēma būtu patiesi efektīva, ir jāpārkāpj lietotāju privātums, taču patiesībā Apple ir izstrādājis sistēmu, kurā tiek garantēta mūsu privātums. Ziņojumu un Siri noteikšanas sistēma nerada šaubas, jo tā notiek mūsu ierīcē, Apple neko nezinot. Tikai iCloud fotoattēlu noteikšanas sistēma var radīt šaubas, taču patiesībā Apple ir ļoti rūpējusies, lai turpinātu nodrošināt, ka mūsu dati ir tikai mūsu.

Būtu tikai viens gadījums, kad Apple piekļūtu mūsu datiem pakalpojumā iCloud: ja modinātājs atskanētu no dažiem mūsu fotoattēliem un tie būtu jāpārskata, lai noskaidrotu, vai tas tiešām ir nelikumīgs saturs. Iespēja, ka tas notiks kļūdas dēļ, ir ārkārtīgi maza, bezgalīgi maza. Es personīgi uzskatu, ka šo maz ticamo risku ir vērts uzņemties, ja tas palīdz cīnīties pret bērnu pornogrāfiju.

Aizmugurējās durvis, lai piekļūtu mūsu iPhone?

Pilnīgi noteikti. Apple nekad neļauj piekļūt mūsu iPhone datiem. Tas, kas notiek mūsu iPhone, paliek mūsu iPhone. Vienīgais punkts, kur varat piekļūt mūsu datiem, ir tad, kad mēs runājam par fotoattēliem, kas saglabāti iCloud, nekad mūsu iPhone. Aizmugurējo durvju nav.

Vai es vēl varu saglabāt savu bērnu fotogrāfijas?

Bez mazākās problēmas. Esmu to atkārtojis vairākas reizes, bet teikšu vēl vienu reizi: Apple neskenēs jūsu fotoattēlus, lai noskaidrotu, vai tajos nav bērnu seksuāla satura. Ja vannā ir jūsu mazuļa fotoattēli, nav problēmu, jo tas netiks atklāts kā nepiemērots saturs. Tas, ko Apple darīs, meklēs jau zināmu un CSAM kataloģizētu fotoattēlu identifikatorus un salīdzinās tos ar jūsu iPhone identifikatoriem.


Sekojiet mums pakalpojumā Google ziņas

Atstājiet savu komentāru

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti ar *

*

*

  1. Atbildīgais par datiem: AB Internet Networks 2008 SL
  2. Datu mērķis: SPAM kontrole, komentāru pārvaldība.
  3. Legitimācija: jūsu piekrišana
  4. Datu paziņošana: Dati netiks paziņoti trešām personām, izņemot juridiskus pienākumus.
  5. Datu glabāšana: datu bāze, ko mitina Occentus Networks (ES)
  6. Tiesības: jebkurā laikā varat ierobežot, atjaunot un dzēst savu informāciju.