Com funciona el nou sistema contra la pornografia infantil d'Apple (i com no funciona)

Tancar compte de Facebook d'un menor

Apple ha a anunciat noves mesures per a millorar el seu sistema de protecció infantil i lluitar contra la pornografia infantil. Us expliquem com funcionen aquestes noves mesures, i què és el que no fan.

Apple ha afegit noves mesures en col·laboració amb experts en seguretat infantil per lluitar contra la difusió de materials d'abús sexual infantil. Aquestes mesures es reparteixen en tres apartats diferents: Missatges, Siri i Fotos. Missatges escanejarà les fotos que s'envien i reben en dispositius de menors, Siri avisarà de la recerca de material il·legal i Fotos avisarà a les autoritats en el cas en què es detecti material de pornografia infantil en el nostre dispositiu. El funcionament d'aquestes mesures és força complex sobretot si es vol mantenir la privacitat de l'usuari, un repte que Apple creu haver aconseguit superar i que us expliquem a continuació.

Missatges

A Espanya no està molt expandit, però el sistema de Missatges d'Apple és àmpliament utilitzat als Estats Units ia altres països. Per això el control de la difusió de material sexual infantil a Missatges és molt important i ha estat un dels pilars d'aquestes noves mesures. El nou sistema avisarà a nens i pares quan s'enviïn o rebin fotografies amb material sexual explícit. Això únicament passarà en aquells dispositius de nens de 12 anys o menys, Amb el seu compte de menor ben configurada.

Si un menor (12 anys o menys) rep una fotografia que Apple ha catalogat com "sexual explícita", li arribarà borrosa, i se li avisarà en llenguatge comprensible per al menor que aquesta imatge pot no ser adequada per a ell. Si decideix veure-(podrà veure si així ho decideix) se li avisarà que es va a notificar als seus pares. Passarà el mateix si el menor decideix enviar un missatge que conté una fotografia sexual.

Aquest procés ocorre dins de l'iPhone, no intervé Apple en cap moment. La foto s'escaneja abans d'enviar-o a l'rebre en l'iPhone, i utilitzant un sistema d'intel·ligència artificial es decidirà si el seu contingut suposa un risc o no. La notificació, en cas de produir-se, només serà rebuda pels pares de el menor (repetim, 12 anys o menys), ni Apple ni les autoritats tindran cap coneixement sobre aquest fet.

Siri

L'assistent virtual d'Apple també s'actualitzarà per lluitar contra la pornografia infantil. Si algú realitza una recerca d'aquest tipus de contingut, Siri li notificarà que el material és il·legal, ia més li oferirà recursos que li poden resultar d'ajuda, com a mitjans per denunciar aquest tipus de continguts. De nou tot el procediment passarà en el nostre propi dispositiu, Ni Apple ni cap autoritat pertinent tindrà coneixement de les nostres recerques ni dels avisos que Siri ens realitzi.

fotos

És sense cap dubte el canvi més important i el que més polèmica ha generat, amb informacions errònies sobre com funcionarà. Apple ha anunciat que iCloud detectarà imatges de pornografia infantil que els usuaris tinguin emmagatzemades en el núvol. Si ens quedem amb aquesta afirmació, es generen molts dubtes sobre com es pot fer això respectant la privacitat dels usuaris. Però Apple ha pensat en això, i ha ideat un sistema que permet realitzar això sense vulnerar la nostra privacitat.

El més important, i malgrat els nombrosos articles que s'han publicat amb aquesta informació, Apple no va a escanejar les teves fotos en recerca de contingut de pornografia infantil. No va a confondre't amb un delinqüent perquè tinguis fotografies del teu fill o filla nus a la banyera. El que va a fer Apple és buscar si tens algun dels milions de fotografies incloses en CSAM com pornografia infantil.

Què és CSAM? "Child Sexual Abuse Material" o Material d'abús sexual infantil. És un catàleg de fotografies amb contingut de pornografia infantil, conegut i elaborat per diferents òrgans i el contingut és controlat pel National Center for Missing and Exploited Children (NCMEC). Cadascuna d'aquestes fotografies té una signatura digital, invariable, i això és precisament el que s'utilitza per saber si l'usuari té aquestes fotografies o no. Compararà les signatures de les nostres fotografies amb les de l'CSAM seu només si hi ha coincidències saltarà l'alarma.

Per tant Apple no va a escanejar entre les nostres fotografies per veure si el contingut és sexual o no, no va a utilitzar la intel·ligència artificial, ni tan sols va a veure les nostres fotos. Només va a utilitzar les signatures digitals de cada fotografia i les va comparar amb les firmes incloses en el CSAM, i només en cas de coincidència de revisar el nostre contingut. I si per error s'identifica una de les meves fotos com contingut inadequat? Apple assegura que això és pràcticament impossible, però si passés no hi hauria problema. Primer, no és suficient amb una coincidència, han d'haver diverses coincidències (no sabem quantes), i si es supera aquest nombre límit (només si se supera) Apple revisaria aquestes fotografies en concret per valorar si en efecte es tracta de contingut de pornografia infantil o no abans d'avisar les autoritats.

Per això cal que les fotografies estiguin emmagatzemades en iCloud, perquè aquest procediment passa part en el dispositiu (la comparació de signatures digitals) però en cas que hi hagi un positiu, la revisió manual de l'contingut es fa per empleats d'Apple mitjançant la revisió de les fotos a iCloud, Ja que no accedeixen al nostre dispositiu de cap manera.

Dubtes sobre la teva privacitat?

Qualsevol sistema de detecció planteja dubtes sobre la seva eficàcia i / o sobre el respecte a la privacitat. Pot semblar que perquè un sistema de detecció sigui realment eficaç s'ha de vulnerar la privacitat de l'usuari, però la realitat és que Apple ha dissenyat un sistema en què la nostra privacitat està garantida. El sistema de detecció de Missatges i Siri no planteja dubtes, ja que passa dins del nostre dispositiu, Sense que Apple tingui coneixement de res. Només el sistema de detecció de fotografies en iCloud pot plantejar dubtes, però la realitat és que Apple s'ha cuidat molt de seguir garantint que les nostres dades siguin només nostres.

Només hi hauria un cas en què Apple accediria a les nostres dades en iCloud: si salta l'alarma per algunes fotografies nostres i han de revisar-les per veure si efectivament són contingut il·legal. La possibilitat que això passi per error és extraordinàriament baixa, infinitesimal. Personalment crec que val la pena assumir aquest risc altament improbable si amb això s'ajuda a lluitar contra la pornografia infantil.

Una porta de darrere per accedir al nostre iPhone?

En absolut. Apple en cap moment permet l'accés a les dades del nostre iPhone. El que passa en el nostre iPhone es queda en el nostre iPhone. L'únic punt en el qual pot arribar a accedir a les nostres dades és quan parlem de les fotografies emmagatzemades en iCloud, mai en el nostre iPhone. No hi ha la porta de darrere.

Puc seguir tenint fotos dels meus fills?

Sense el més mínim problema. Ho he repetit en diverses ocasions però ho diré un cop més: Apple no escanejarà les teves fotos per veure si inclouen contingut sexual infantil. Si tens fotos de la teva nadó a la banyera, no hi ha cap problema perquè no es va a detectar com a contingut inadequat. El que farà Apple és buscar identificadors de fotografies ja conegudes i catalogades CSAM i comparar-los amb els identificadors del teu iPhone, res més.


Segueix-nos a Google News

Sigues el primer a comentar

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: AB Internet Networks 2008 SL
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.