Kako funkcionira novi Appleov sistem protiv dječje pornografije (i kako ne funkcionira)

Zatvorite Facebook račun maloljetnice

Apple je najavio nove mjere za poboljšati sistem zaštite djece i boriti se protiv dječije pornografije. Objašnjavamo kako ove nove mjere djeluju, a šta ne.

Apple je dodao Nove mjere u saradnji sa stručnjacima za sigurnost djece u borbi protiv širenja materijala za seksualno zlostavljanje djece. Ova mjerenja su podijeljena u tri različita odjeljka: Poruke, Siri i Fotografije. Poruke će skenirati fotografije koje se šalju i primaju na uređajima maloljetnika, Siri će upozoriti na potragu za ilegalnim materijalom, a Fotografije će obavijestiti nadležne u slučaju da se otkrije dječji pornografski materijal na našem uređaju. Rad ovih mjera je prilično složen, posebno ako želite zadržati privatnost korisnika, izazov za koji Apple vjeruje da je uspio prevladati i koji ćemo objasniti u nastavku.

Poruke

U Španiji nije jako rasprostranjen, ali Apple Message sistem se široko koristi u Sjedinjenim Državama i u drugim zemljama. Zato je kontrola širenja dječijeg seksualnog materijala u Porukama vrlo važna i bila je jedan od stubova ovih novih mjera. Novi sistem će obavijestiti djecu i roditelje kada se pošalju ili prime fotografije sa seksualno eksplicitnim materijalom. To će se dogoditi samo na uređajima za djecu od 12 godina ili mlađu., s dobro konfiguriranim vašim manjim računom.

Ako maloljetnik (12 godina ili mlađi) primi fotografiju koju je Apple klasificirao kao "seksualno eksplicitnu", bit će zamagljena i bit će obaviješteni na jeziku razumljivom maloljetniku da im slika možda ne odgovara. Ako odlučite vidjeti (možete vidjeti ako odaberete) bit ćete obaviješteni da će vaši roditelji biti obaviješteni. Isto će se dogoditi ako maloljetnik odluči poslati poruku koja sadrži seksualnu fotografiju.

Ovaj proces se događa unutar iPhonea, Apple ne intervenira ni u jednom trenutku. Fotografija se skenira prije slanja ili primanja na iPhone, a pomoću sistema umjetne inteligencije odlučit će se predstavlja li njen sadržaj rizik ili ne. Obavijest će, ako se dogodi, primiti samo roditelji maloljetne osobe (ponavljamo, 12 godina ili manje), niti Apple niti vlasti neće imati saznanja o ovoj činjenici.

Siri

Appleov virtuelni asistent će takođe biti ažuriran za borbu protiv dječije pornografije. Ako netko izvrši pretragu za ovom vrstom sadržaja, Siri će ga obavijestiti da je materijal nezakonit, a također će pružiti i resurse koji mogu biti od pomoći, kao što su načini prijavljivanja ove vrste sadržaja. Opet će se cijeli postupak odvijati na vlastitom uređaju, niti Apple, niti bilo koje nadležno tijelo neće znati za naša pretraživanja niti za upozorenja koja nam Siri upućuje.

Fotografije

To je nesumnjivo najvažnija promjena i ona koja je izazvala najviše kontroverzi, s dezinformacijama o tome kako će funkcionirati. Apple je najavio da će iCloud otkriti slike dječije pornografije koje su korisnici pohranili u oblaku. Ako ostanemo pri ovoj izjavi, pojavljuju se mnoge sumnje o tome kako se to može učiniti uz poštivanje privatnosti korisnika. Ali Apple je razmišljao o tome i osmislio je sistem koji nam to omogućava bez narušavanja naše privatnosti.

Ono što je najvažnije, unatoč mnogim člancima koji su objavljeni s ovim podacima, Apple neće skenirati vaše fotografije u potrazi za sadržajem dječje pornografije. Neće vas zamijeniti za kriminalca jer imate slike svog golog sina ili kćerke u kadi. Ono što će Apple učiniti je da provjeri imate li neku od miliona fotografija navedenih u CSAM -u kao dječja pornografija.

Šta je CSAM? "Materijal za seksualno zlostavljanje djece" ili Materijal za seksualno zlostavljanje djece. To je katalog fotografija sa sadržajem dječije pornografije, poznatih i proizvedenih od strane različitih tijela, a čiji sadržaj kontroliše Nacionalni centar za nestalu i iskorištavanu djecu (NCMEC). Svaka od ovih fotografija ima digitalni potpis, nepromjenjiv, a to je upravo ono što se koristi da bi se saznalo ima li korisnik te fotografije ili ne. On će uporediti potpise naših fotografija sa onima CSAM -a, samo ako se pojave slučajnosti, alarm će se oglasiti.

Stoga Apple neće skenirati naše fotografije kako bi provjerio je li sadržaj seksualni ili ne, neće koristiti umjetnu inteligenciju, niti će vidjeti naše fotografije. Koristit će samo digitalne potpise svake fotografije i uporedit će ih s potpisima uključenim u CSAM, a samo u slučaju slučajnosti pregledat će naš sadržaj. Šta ako je jedna od mojih fotografija pogrešno identificirana kao neprikladan sadržaj? Apple uvjerava da je to praktički nemoguće, ali da se to dogodilo ne bi bilo problema. Prvo, podudaranje nije dovoljno, mora postojati nekoliko podudaranja (ne znamo koliko), a ako se taj granični broj premaši (samo ako je premašen) Apple bi pregledao te određene fotografije kako bi procijenio jesu li to zaista dječja pornografija sadržaj ili ne prije nego što obavijestite nadležne.

Iz tog razloga, potrebno je da se fotografije pohrane u iCloud, jer se ovaj postupak djelomično odvija na uređaju (usporedba digitalnih potpisa), ali u slučaju da postoji pozitivan rezultat, ručni pregled sadržaja rade zaposlenici Applea pregledavanjem fotografija u iCloudu, budući da ni na koji način ne pristupaju našem uređaju.

Pitanja o vašoj privatnosti?

Svaki sistem otkrivanja izaziva sumnju u njegovu efikasnost i / ili u pogledu poštivanja privatnosti. Možda se čini da se kako bi sustav otkrivanja bio doista efikasan mora biti povrijeđena privatnost korisnika, ali stvarnost je da je Apple dizajnirao sistem u kojem je naša privatnost zagarantirana. Sistem otkrivanja poruka i Siri ne izaziva sumnje jer se javlja unutar našeg uređaja, a da Apple ni o čemu ne zna. Samo sustav za otkrivanje fotografija u iCloudu može izazvati sumnje, ali stvarnost je da se Apple jako pobrinuo da nastavi osiguravati da su naši podaci samo naši.

Postojao bi samo jedan slučaj u kojem bi Apple pristupio našim podacima u iCloudu: ako se alarm oglasi na nekim od naših fotografija i moraju ih pregledati kako bi provjerili jesu li doista nezakoniti sadržaji. Šansa da se to dogodi greškom je izuzetno niska, beskrajno mala. Osobno vjerujem da je ovaj nevjerojatan rizik vrijedan preuzimanja ako pomaže u borbi protiv dječije pornografije.

Stražnja vrata za pristup našem iPhoneu?

Apsolutno. Apple ni u jednom trenutku ne dopušta pristup podacima na našem iPhoneu. Ono što se događa na našem iPhoneu ostaje na našem iPhoneu. Jedini trenutak gdje možete pristupiti našim podacima je kada govorimo o fotografijama pohranjenim u iCloudu, nikada na našem iPhoneu. Nema stražnjih vrata.

Mogu li i dalje imati fotografije svoje djece?

Bez i najmanjeg problema. Ponovio sam to nekoliko puta, ali reći ću to još jednom: Apple neće skenirati vaše fotografije kako bi provjerio sadrže li dječiji seksualni sadržaj. Ako imate fotografije svoje bebe u kadi, nema problema jer se neće otkriti kao neprikladan sadržaj. Ono što će Apple učiniti je tražiti identifikatore već poznatih fotografija i CSAM katalogizirane i usporediti ih s identifikatorima vašeg iPhone -a, ništa više.


Pratite nas na Google Vijestima

Ostavite komentar

Vaša e-mail adresa neće biti objavljena. Obavezna polja su označena sa *

*

*

  1. Odgovoran za podatke: AB Internet Networks 2008 SL
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obavezi.
  5. Pohrana podataka: Baza podataka koju hostuje Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.