Cum funcționează noul sistem Apple de pornografie infantilă (și cum nu funcționează)

Închideți contul de Facebook al unui minor

Apple a anunțat noi măsuri pentru îmbunătățiți-vă sistemul de protecție a copilului și luptați împotriva pornografiei infantile. Vă explicăm cum funcționează aceste noi măsuri și ce nu fac.

Apple a adăugat Măsuri noi în colaborare cu experți în siguranța copiilor pentru a combate răspândirea materialelor de abuz sexual asupra copiilor. Aceste măsurători sunt împărțite în trei secțiuni diferite: Mesaje, Siri și Fotografii. Mesajele vor scana fotografiile care sunt trimise și primite pe dispozitivele minorilor, Siri va avertiza cu privire la căutarea materialului ilegal și Fotografiile vor anunța autoritățile în cazul în care se detectează material de pornografie infantilă pe dispozitivul nostru. Funcționarea acestor măsuri este destul de complexă, mai ales dacă doriți să păstrați confidențialitatea utilizatorilor, o provocare pe care Apple crede că a reușit să o depășească și pe care o vom explica mai jos.

Posturi

În Spania nu este foarte răspândit, dar sistemul Apple Message este utilizat pe scară largă în Statele Unite și în alte țări. De aceea, controlul diseminării materialului sexual al copiilor în mesaje este foarte important și a fost unul dintre pilonii acestor noi măsuri. Noul sistem va anunța copiii și părinții atunci când sunt trimise sau primite fotografii cu materiale explicite sexual. Acest lucru se va întâmpla numai pe dispozitive pentru copii cu vârsta de 12 ani sau mai mici., cu contul dvs. minor bine configurat.

Dacă un minor (cu vârsta de 12 ani sau mai puțin) primește o fotografie pe care Apple a clasificat-o ca fiind „sexuală explicit”, aceasta va fi neclară și li se va informa într-un limbaj ușor de înțeles minorului că imaginea ar putea să nu fie potrivită pentru ei. Dacă decideți să îl vedeți (îl puteți vedea dacă alegeți) vei fi informat că părinții tăi vor fi anunțați. La fel se va întâmpla dacă minorul decide să trimită un mesaj care conține o fotografie sexuală.

Acest proces are loc în interiorul iPhone-ului, Apple nu intervine în niciun moment. Fotografia este scanată înainte de a fi trimisă sau când este primită pe iPhone și, folosind un sistem de inteligență artificială, se va decide dacă conținutul său prezintă un risc sau nu. Notificarea, dacă apare, va fi primită doar de părinții minorului (repetăm, 12 ani sau mai puțin), nici Apple, nici autoritățile nu vor avea cunoștință despre acest fapt.

Siri

Asistentul virtual Apple va fi, de asemenea, actualizat pentru a combate pornografia infantilă. Dacă cineva efectuează o căutare pentru acest tip de conținut, Siri îi va notifica că materialul este ilegal și va oferi, de asemenea, resurse care ar putea fi utile, cum ar fi modalități de raportare a acestui tip de conținut. Din nou, întreaga procedură va avea loc pe propriul nostru dispozitiv, nici Apple și nici o autoritate competentă nu vor cunoaște căutările noastre și nici avertismentele pe care ni le face Siri.

pozele

Este, fără îndoială, cea mai importantă schimbare și cea care a generat cele mai multe controverse, cu dezinformare despre cum va funcționa. Apple a anunțat că iCloud va detecta imagini de pornografie infantilă pe care utilizatorii le-au stocat în cloud. Dacă rămânem cu această afirmație, se ridică multe îndoieli cu privire la modul în care se poate face acest lucru, respectând confidențialitatea utilizatorilor. Dar Apple s-a gândit la asta și a conceput un sistem care ne permite să facem acest lucru fără a ne încălca confidențialitatea.

Cel mai important, în ciuda numeroaselor articole care au fost publicate cu aceste informații, Apple nu vă va scana fotografiile pentru conținut de pornografie infantilă. Nu vă vor înșela cu un criminal deoarece aveți fotografii ale fiului sau fiicei goale în cadă. Ceea ce va face Apple este să vedem dacă aveți oricare dintre milioanele de fotografii listate în CSAM ca pornografie infantilă.

Ce este CSAM? „Material pentru abuzuri sexuale asupra copiilor” sau Material pentru abuzuri sexuale asupra copiilor. Este un catalog de fotografii cu conținut de pornografie infantilă, cunoscut și produs de diferite organisme și al cărui conținut este controlat de Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC). Fiecare dintre aceste fotografii are o semnătură digitală, invariabilă, și tocmai asta este folosit pentru a ști dacă utilizatorul are sau nu acele fotografii. Acesta va compara semnăturile fotografiilor noastre cu cele ale CSAM, doar dacă există coincidențe, alarma se va declanșa.

Prin urmare, Apple nu va scana fotografiile noastre pentru a vedea dacă conținutul este sexual sau nu, nu va folosi inteligența artificială, nici măcar nu va vedea fotografiile noastre. Va folosi doar semnăturile digitale ale fiecărei fotografii și le va compara cu semnăturile incluse în CSAM și numai în caz de coincidență va revizui conținutul nostru. Ce se întâmplă dacă una dintre fotografiile mele este identificată din greșeală ca fiind un conținut neadecvat? Apple asigură că acest lucru este practic imposibil, dar dacă s-ar întâmpla, nu ar exista nicio problemă. În primul rând, un meci nu este suficient, trebuie să existe mai multe meciuri (nu știm câte) și, dacă acest număr limită este depășit (numai dacă este depășit), Apple ar revizui acele fotografii specifice pentru a evalua dacă acestea sunt într-adevăr pornografie infantilă conținut sau nu înainte de a anunța autoritățile.

Din acest motiv, este necesar ca fotografiile să fie stocate în iCloud, deoarece această procedură are loc parțial pe dispozitiv (compararea semnăturilor digitale), dar în cazul în care există un aspect pozitiv, revizuirea manuală a conținutului se face de către angajații Apple prin examinarea fotografiilor din iCloud, deoarece nu accesează dispozitivul nostru în niciun fel.

Aveți întrebări despre confidențialitatea dvs.?

Orice sistem de detectare ridică îndoieli cu privire la eficacitatea acestuia și / sau la respectarea confidențialității. Se poate părea că pentru ca un sistem de detectare să fie cu adevărat eficient, trebuie încălcată confidențialitatea utilizatorului, dar realitatea este că Apple a proiectat un sistem în care confidențialitatea noastră este garantată. Sistemul de detectare a mesajelor și Siri nu ridică îndoieli, deoarece apare în dispozitivul nostru, fără ca Apple să cunoască nimic. Numai sistemul de detectare a fotografiilor în iCloud poate ridica îndoieli, dar realitatea este că Apple a avut mare grijă să continue să se asigure că datele noastre sunt doar ale noastre.

Ar exista un singur caz în care Apple ar accesa datele noastre în iCloud: dacă alarma se declanșează prin unele dintre fotografiile noastre și trebuie să le revizuiască pentru a vedea dacă sunt într-adevăr conținut ilegal. Șansa ca acest lucru să se întâmple din greșeală este extraordinar de mică, infinitesimală. Personal, cred că acest risc extrem de puțin probabil merită să fie luat dacă ajută la combaterea pornografiei infantile.

O ușă din spate pentru a ne accesa iPhone-ul?

Absolut. Apple nu permite în niciun moment accesul la datele de pe iPhone-ul nostru. Ce se întâmplă pe iPhone-ul nostru rămâne pe iPhone-ul nostru. Singurul punct în care puteți accesa datele noastre este atunci când vorbim despre fotografiile stocate în iCloud, niciodată pe iPhone-ul nostru. Nu există ușă din spate.

Mai pot avea poze cu copiii mei?

Fără cea mai mică problemă. Am repetat-o ​​de mai multe ori, dar o voi mai spune o dată: Apple nu va scana fotografiile pentru a vedea dacă conțin conținut sexual pentru copii. Dacă aveți fotografii ale bebelușului dvs. în cadă, nu există nicio problemă, deoarece acesta nu va fi detectat ca conținut neadecvat. Ceea ce va face Apple este să caute identificatorii fotografiilor deja cunoscute și catalogate CSAM și să le compare cu identificatorii iPhone-ului tău, nimic mai mult.


Conținutul articolului respectă principiile noastre de etică editorială. Pentru a raporta o eroare, faceți clic pe aici.

Fii primul care comenteaza

Lasă comentariul tău

Adresa ta de email nu va fi publicată.

*

*

  1. Responsabil pentru date: AB Internet Networks 2008 SL
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.