Come funziona il nuovo sistema anti-pornografia di Apple (e come non funziona)

Chiudi l'account Facebook di un minore

Apple ha annunciato nuove misure per migliora il tuo sistema di protezione dei bambini e combatti la pornografia infantile. Spieghiamo come funzionano queste nuove misure e cosa non fanno.

Apple ha aggiunto Nuove misure in collaborazione con esperti di sicurezza dei bambini per combattere la diffusione di materiale pedopornografico. Queste misurazioni sono divise in tre diverse sezioni: Messaggi, Siri e Foto. Messaggi scansionerà le foto inviate e ricevute sui dispositivi dei minori, Siri avviserà della ricerca di materiale illegale e Photos avviserà le autorità nel caso in cui venga rilevato materiale pedopornografico sul nostro dispositivo. Il funzionamento di queste misure è piuttosto complesso, soprattutto se si vuole mantenere la privacy degli utenti, una sfida che Apple crede di essere riuscita a superare e che spiegheremo di seguito.

Messaggi

In Spagna non è molto diffuso, ma il sistema Apple Message è molto utilizzato negli Stati Uniti e in altri paesi. Ecco perché il controllo della diffusione di materiale sessuale infantile nei Messaggi è molto importante ed è stato uno dei pilastri di queste nuove misure. Il nuovo sistema avviserà bambini e genitori quando vengono inviate o ricevute fotografie con materiale sessualmente esplicito. Ciò si verificherà solo sui dispositivi per bambini di età pari o inferiore a 12 anni., con il tuo account minore ben configurato.

Se un minore (12 anni o meno) riceve una fotografia che Apple ha classificato come "sessualmente esplicita", sarà sfocata e verrà avvisato in un linguaggio comprensibile al minore che l'immagine potrebbe non essere adatta a lui. Se decidi di vederlo (puoi vederlo se lo desideri) sarai avvisato che i tuoi genitori saranno avvisati. Lo stesso accadrà se il minore decide di inviare un messaggio che contiene una fotografia sessuale.

Questo processo si verifica all'interno dell'iPhone, Apple non interviene in nessun momento. La foto viene scansionata prima di essere inviata o quando viene ricevuta su iPhone, e utilizzando un sistema di intelligenza artificiale si deciderà se il suo contenuto rappresenta un rischio o meno. La notifica, se avviene, verrà ricevuta solo dai genitori del minore (ripetiamo, 12 anni o meno), né Apple né le autorità avranno alcuna conoscenza di questo fatto.

Siri

Anche l'assistente virtuale di Apple verrà aggiornato per combattere la pedopornografia. Se qualcuno effettua una ricerca per questo tipo di contenuto, Siri lo avviserà che il materiale è illegale e fornirà anche risorse che potrebbero essere utili, come i modi per segnalare questo tipo di contenuto. Anche in questo caso l'intera procedura verrà eseguita sul nostro dispositivo, né Apple né alcuna autorità competente saranno a conoscenza delle nostre ricerche né degli avvertimenti che Siri ci fa.

Fotografia

È senza dubbio il cambiamento più importante e quello che ha generato più polemiche, con disinformazione su come funzionerà. Apple ha annunciato che iCloud rileverà le immagini di pornografia infantile che gli utenti hanno archiviato nel cloud. Se rimaniamo su questa affermazione, vengono sollevati molti dubbi su come ciò possa essere fatto nel rispetto della privacy degli utenti. Ma Apple ci ha pensato e ha ideato un sistema che ci permette di farlo senza violare la nostra privacy.

Ancora più importante, e nonostante i numerosi articoli che sono stati pubblicati con queste informazioni, Apple non eseguirà la scansione delle tue foto alla ricerca di contenuti di pornografia infantile. Non ti scambieranno per un criminale perché hai foto di tuo figlio o tua figlia nudi nella vasca da bagno. Quello che Apple sta per fare è vedere se hai una qualsiasi delle milioni di foto elencate in CSAM come pornografia infantile.

Cos'è CSAM? "Materiale sugli abusi sessuali su minori" o materiale sugli abusi sessuali su minori. Si tratta di un catalogo di fotografie con contenuti di pornografia infantile, conosciute e prodotte da diversi enti e il cui contenuto è controllato dal Centro nazionale per i bambini scomparsi e sfruttati (NCMEC). Ognuna di queste fotografie ha una firma digitale, invariabile, ed è proprio quello che serve per sapere se l'utente ha quelle fotografie o no. Confronterà le firme delle nostre fotografie con quelle del CSAM, solo se ci saranno coincidenze scatterà l'allarme.

Pertanto Apple non esaminerà le nostre fotografie per vedere se il contenuto è sessuale o meno, non utilizzerà l'intelligenza artificiale, non vedrà nemmeno le nostre foto. Utilizzerà esclusivamente le firme digitali di ogni fotografia e le confronterà con le firme inserite nel CSAM, e solo in caso di coincidenza esaminerà il nostro contenuto. Cosa succede se una delle mie foto viene erroneamente identificata come contenuto inappropriato? Apple assicura che ciò è praticamente impossibile, ma se accadesse non ci sarebbero problemi. Innanzitutto, una corrispondenza non è sufficiente, devono esserci diverse corrispondenze (non sappiamo quante) e se tale numero limite viene superato (solo se viene superato) Apple esaminerebbe quelle fotografie specifiche per valutare se si tratta effettivamente di pornografia infantile contenuto o meno prima di aver informato le autorità.

Per questo motivo è necessario che le fotografie vengano archiviate in iCloud, perché questa procedura avviene in parte sul dispositivo (il confronto delle firme digitali) ma nel caso ci sia un positivo, la revisione manuale del contenuto viene eseguita dai dipendenti Apple rivedendo le foto in iCloud, poiché non accedono in alcun modo al nostro dispositivo.

Domande sulla tua privacy?

Qualsiasi sistema di rilevamento solleva dubbi sulla sua efficacia e/o sul rispetto della privacy. Può sembrare che affinché un sistema di rilevamento sia veramente efficace, la privacy degli utenti debba essere violata, ma la realtà è che Apple ha progettato un sistema in cui la nostra privacy è garantita. Il sistema di rilevamento di Messaggi e Siri non solleva dubbi, poiché avviene all'interno del nostro dispositivo, senza che Apple sia a conoscenza di nulla. Solo il sistema di rilevamento delle foto in iCloud può sollevare dubbi, ma la realtà è che Apple ha avuto grande cura per continuare a garantire che i nostri dati siano solo nostri.

Ci sarebbe solo un caso in cui Apple accederebbe ai nostri dati in iCloud: se l'allarme scattasse vicino ad alcune delle nostre foto e dovessero esaminarle per vedere se sono effettivamente contenuti illegali. La possibilità che ciò accada per errore è straordinariamente bassa, infinitesimale. Personalmente credo che valga la pena correre questo rischio altamente improbabile se aiuta a combattere la pornografia infantile.

Una backdoor per accedere al nostro iPhone?

Assolutamente. Apple in nessun momento consente l'accesso ai dati sul nostro iPhone. Quello che succede sul nostro iPhone rimane sul nostro iPhone. L'unico punto in cui puoi accedere ai nostri dati è quando parliamo delle foto archiviate in iCloud, mai sul nostro iPhone. Non c'è una porta sul retro.

Posso avere ancora le foto dei miei figli?

Senza il minimo problema. L'ho ripetuto più volte, ma lo dirò ancora una volta: Apple non eseguirà la scansione delle tue foto per vedere se contengono contenuti di natura sessuale infantile. Se hai foto del tuo bambino nella vasca da bagno, non c'è problema perché non verrà rilevato come contenuto inappropriato. Quello che Apple farà è cercare identificatori di fotografie già conosciute e catalogate CSAM e confrontarle con gli identificatori del tuo iPhone, niente di più.


Seguici su Google News

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile del trattamento: AB Internet Networks 2008 SL
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.