Kako funkcionira novi Appleov sustav dječje pornografije (i kako ne radi)

Zatvorite Facebook račun maloljetnice

Apple je najavio nove mjere za poboljšati svoj sustav zaštite djece i boriti se protiv dječje pornografije. Objašnjavamo kako ove nove mjere djeluju, a što ne.

Apple je dodao Nove mjere u suradnji sa stručnjacima za sigurnost djece u borbi protiv širenja materijala o seksualnom zlostavljanju djece. Ova su mjerenja podijeljena u tri različita odjeljka: Poruke, Siri i Fotografije. Poruke će skenirati fotografije koje se šalju i primaju na uređajima maloljetnika, Siri će upozoriti na potragu za nezakonitim materijalom, a Fotografije će obavijestiti nadležne u slučaju da se otkrije materijal dječje pornografije na našem uređaju. Rad ovih mjera prilično je složen, osobito ako želite zadržati privatnost korisnika, izazov za koji Apple vjeruje da ga je uspio prevladati i koji ćemo objasniti u nastavku.

Postovi

U Španjolskoj nije jako raširen, ali Appleov sustav poruka široko se koristi u Sjedinjenim Državama i u drugim zemljama. Zato je kontrola širenja dječjeg seksualnog materijala u Porukama vrlo važna i bila je jedan od stupova ovih novih mjera. Novi sustav obavijestit će djecu i roditelje kada se pošalju ili prime fotografije sa seksualno eksplicitnim materijalom. To će se dogoditi samo na uređajima za djecu od 12 godina ili mlađu., s dobro konfiguriranim malim računom.

Ako maloljetnik (12 godina ili mlađi) primi fotografiju koju je Apple klasificirao kao "seksualno eksplicitnu", bit će zamagljena, a na jeziku razumljivom maloljetniku bit će obaviješteni da im slika možda ne odgovara. Ako odlučite vidjeti (možete vidjeti ako odaberete) bit ćete obaviješteni da će vaši roditelji biti obaviješteni. Isto će se dogoditi ako maloljetnik odluči poslati poruku koja sadrži seksualnu fotografiju.

Ovaj proces se događa unutar iPhonea, Apple ne intervenira ni u jednom trenutku. Fotografija se skenira prije slanja ili primanja na iPhone, a pomoću sustava umjetne inteligencije odlučit će se predstavlja li njezin sadržaj opasnost ili ne. Obavijest, ako se dogodi, primit će samo roditelji maloljetnika (ponavljamo, 12 godina ili manje), niti Apple niti nadležna tijela neće znati za tu činjenicu.

Siri

Appleov virtualni pomoćnik također će biti ažuriran za borbu protiv dječje pornografije. Ako netko izvrši pretragu za ovom vrstom sadržaja, Siri će ga obavijestiti da je materijal nezakonit, a također će pružiti i resurse koji mogu biti od pomoći, poput načina prijavljivanja ove vrste sadržaja. Ponovno će se cijeli postupak odvijati na vlastitom uređaju, niti Apple niti bilo koje odgovarajuće tijelo neće znati za naša pretraživanja niti za upozorenja koja nam Siri upućuje.

Fotografije

To je bez sumnje najvažnija promjena i ona koja je izazvala najviše kontroverzi, s dezinformacijama o tome kako će funkcionirati. Apple je najavio da će iCloud otkriti slike dječje pornografije koje su korisnici pohranili u oblaku. Ako ostanemo pri ovoj izjavi, pojavljuju se mnoge sumnje u to kako se to može učiniti uz poštivanje privatnosti korisnika. No, Apple je o tome razmišljao i osmislio je sustav koji nam to omogućuje bez narušavanja naše privatnosti.

Ono što je najvažnije, unatoč brojnim člancima koji su objavljeni s ovim podacima, Apple neće skenirati vaše fotografije u potrazi za sadržajem dječje pornografije. Neće vas zamijeniti za kriminalca jer imate fotografije svog golog sina ili kćeri u kadi. Ono što će Apple učiniti jest provjeriti imate li koju od milijuna fotografija navedenih u CSAM -u kao dječja pornografija.

Što je CSAM? "Materijal za seksualno zlostavljanje djece" ili Materijal za seksualno zlostavljanje djece. To je katalog fotografija sa sadržajem dječje pornografije, poznatih i proizvedenih od strane različitih tijela, a čiji sadržaj kontrolira Nacionalni centar za nestalu i iskorištavanu djecu (NCMEC). Svaka od ovih fotografija ima digitalni potpis, nepromjenjiv, i upravo se na taj način zna ima li korisnik te fotografije ili ne. Usporedit će potpise naših fotografija s onima CSAM -a, samo ako se pojave slučajnosti, alarm će se oglasiti.

Dakle, Apple neće skenirati naše fotografije kako bi provjerio je li sadržaj seksualni ili ne, neće koristiti umjetnu inteligenciju, niti će vidjeti naše fotografije. Koristit će samo digitalne potpise svake fotografije te će ih usporediti s potpisima koji su uključeni u CSAM, a samo u slučaju slučajnosti pregledat će naš sadržaj. Što ako je jedna od mojih fotografija pogrešno identificirana kao neprikladan sadržaj? Apple uvjerava da je to praktički nemoguće, ali da se to dogodilo ne bi bilo problema. Prvo, podudaranje nije dovoljno, mora postojati nekoliko podudaranja (ne znamo koliko), a ako je taj granični broj premašen (samo ako je premašen) Apple bi pregledao te određene fotografije kako bi procijenio jesu li doista dječja pornografija sadržaj ili ne prije nego što obavijeste nadležna tijela.

Iz tog razloga, potrebno je da se fotografije pohrane u iCloud, jer se ovaj postupak djelomično odvija na uređaju (usporedba digitalnih potpisa), ali u slučaju da postoji pozitivan rezultat, ručni pregled sadržaja rade zaposlenici Applea pregledavanjem fotografija u iCloudu, budući da ni na koji način ne pristupaju našem uređaju.

Sumnjate u svoju privatnost?

Svaki sustav otkrivanja izaziva sumnju u njegovu učinkovitost i / ili u pogledu poštivanja privatnosti. Možda se čini da se da bi sustav otkrivanja bio doista učinkovit mora biti povrijeđena privatnost korisnika, no stvarnost je da je Apple osmislio sustav u kojem je zajamčena naša privatnost. Sustav otkrivanja poruka i Siri ne izaziva sumnje jer se javlja unutar našeg uređaja, a da Apple nema znanja ni o čemu. Samo sustav za otkrivanje fotografija u iCloudu može izazvati sumnje, no stvarnost je da se Apple jako pobrinuo da nastavi osiguravati da su naši podaci samo naši.

Postojao bi samo jedan slučaj u kojem bi Apple pristupio našim podacima u iCloudu: ako se alarm oglasi na nekim od naših fotografija i moraju ih pregledati kako bi vidjeli je li doista nezakonit sadržaj. Šansa da se to dogodi greškom iznimno je mala, beskrajno mala. Osobno vjerujem da je vrijedno preuzeti ovaj nevjerojatan rizik ako pomaže u borbi protiv dječje pornografije.

Stražnja vrata za pristup našem iPhoneu?

Apsolutno. Apple ni u jednom trenutku ne dopušta pristup podacima na našem iPhoneu. Ono što se događa na našem iPhoneu ostaje na našem iPhoneu. Jedini trenutak gdje možete pristupiti našim podacima je kada govorimo o fotografijama pohranjenim u iCloudu, nikada na našem iPhoneu. Nema stražnjih vrata.

Mogu li i dalje imati fotografije svoje djece?

Bez i najmanjeg problema. Ponovio sam to nekoliko puta, ali reći ću to još jednom: Apple neće skenirati vaše fotografije kako bi provjerio sadrže li dječji seksualni sadržaj. Ako imate fotografije svoje bebe u kadi, nema problema jer se neće otkriti kao neprikladan sadržaj. Ono što će Apple učiniti jest tražiti identifikatore već poznatih fotografija i CSAM katalogizirane te ih usporediti s identifikatorima vašeg iPhonea, ništa više.


Pratite nas na Google vijestima

Ostavite svoj komentar

Vaša email adresa neće biti objavljen. Obavezna polja su označena s *

*

*

  1. Odgovoran za podatke: AB Internet Networks 2008 SL
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obvezi.
  5. Pohrana podataka: Baza podataka koju hostira Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.