Cómo funciona el nuevo sistema contra la pornografía infantil de Apple (y cómo no funciona)

Cerrar cuenta de Facebook de un menor

Apple ha a anunciado nuevas medidas para mejorar su sistema de protección infantil y luchar contra la pornografía infantil. Os explicamos cómo funcionan estas nuevas medidas, y qué es lo que no hacen.

Apple ha añadido nuevas medidas en colaboración con expertos en seguridad infantil para luchar contra la difusión de materiales de abuso sexual infantil. Estas medidas se reparten en tres apartados diferentes: Mensajes, Siri y Fotos. Mensajes escaneará las fotos que se envían y reciben en dispositivos de menores, Siri avisará de la búsqueda de material ilegal y Fotos avisará a las autoridades en el caso en que se detecte material de pornografía infantil en nuestro dispositivo. El funcionamiento de estas medidas es bastante complejo sobre todo si se quiere mantener la privacidad del usuario, un reto que Apple cree haber conseguido superar y que os explicamos a continuación.

Mensajes

En España no está muy expandido, pero el sistema de Mensajes de Apple es ampliamente utilizado en Estados Unidos y en otros países. Por eso el control de la difusión de material sexual infantil en Mensajes es muy importante y ha sido uno de los pilares de estas nuevas medidas. El nuevo sistema avisará a niños y padres cuando se envíen o reciban fotografías con material sexual explícito. Esto únicamente ocurrirá en aquellos dispositivos de niños de 12 años o menos, con su cuenta de menor bien configurada.

Si un menor (12 años o menos) recibe una fotografía que Apple ha catalogado como “sexual explícita”, le llegará borrosa, y se le avisará en lenguaje comprensible para el menor que esa imagen puede no ser adecuada para él. Si decide verla (podrá verla si así lo decide) se le avisará de que se va a notificar a sus padres. Lo mismo ocurrirá si el menor decide enviar un mensaje que contiene una fotografía sexual.

Este proceso ocurre dentro del iPhone, no interviene Apple en ningún momento. La foto se escanea antes de enviarse o al recibirse en el iPhone, y utilizando un sistema de inteligencia artificial se decidirá si su contenido supone un riesgo o no. La notificación, en caso de producirse, sólo será recibida por los padres del menor (repetimos, 12 años o menos), ni Apple ni las autoridades tendrán ningún conocimiento sobre este hecho.

Siri

El asistente virtual de Apple también se actualizará para luchar contra la pornografía infantil. Si alguien realiza una búsqueda de este tipo de contenido, Siri le notificará de que el material es ilegal, y además le ofrecerá recursos que le pueden resultar de ayuda, como medios para denunciar este tipo de contenidos. De nuevo todo el procedimiento ocurrirá en nuestro propio dispositivo, ni Apple ni ninguna autoridad pertinente tendrá conocimiento de nuestras búsquedas ni de los avisos que Siri nos realice.

Fotos

Es sin ninguna duda el cambio más importante y el que más polémica ha generado, con informaciones erróneas sobre cómo funcionará. Apple ha anunciado que iCloud detectará imágenes de pornografía infantil que los usuarios tengan almacenadas en la nube. Si nos quedamos con esta afirmación, se generan muchas dudas sobre cómo se pude hacer esto respetando la privacidad de los usuarios. Pero Apple ha pensado en ello, y ha ideado un sistema que permite realizar esto sin vulnerar nuestra privacidad.

Lo más importante, y a pesar de los numerosos artículos que se han publicado con esta información, Apple no va a escanear tus fotos en búsqueda de contenido de pornografía infantil. No va a confundirte con un delincuente porque tengas fotografías de tu hijo o hija desnudos en la bañera. Lo que va a hacer Apple es buscar si tienes alguna de los millones de fotografías incluidas en CSAM como pornografía infantil.

¿Qué es  CSAM? “Child Sexual Abuse Material” o Material de abuso sexual infantil. Es un catálogo de fotografías con contenido de pornografía infantil, conocido y elaborado por diferentes órganos y cuyo contenido es controlado por el National Center for Missing and Exploited Children (NCMEC). Cada una de estas fotografías tiene una firma digital, invariable, y eso es precisamente lo que se utiliza para saber si el usuario tiene esas fotografías o no. Comparará las firmas de nuestras fotografías con las del CSAM su sólo si hay coincidencias saltará la alarma.

Por lo tanto Apple no va a escanear entre nuestras fotografías para ver si el contenido es sexual o no, no va a usar la inteligencia artificial, ni siquiera va a ver nuestras fotos. Sólo va a usar las firmas digitales de cada fotografía y las va a comparar con las firmas incluidas en el CSAM, y sólo en caso de coincidencia revisará nuestro contenido. ¿Y si por error se identifica una de mis fotos como contenido inadecuado? Apple asegura que esto es prácticamente imposible, pero si ocurriera no habría problema. Primero, no es suficiente con una coincidencia, deben haber varias coincidencias (no sabemos cuántas), y si se supera ese número límite (sólo si se supera) Apple revisaría esas fotografías en concreto para valorar si en efecto se trata de contenido de pornografía infantil o no antes de avisar a las autoridades.

Por esto es necesario que las fotografías estén almacenadas en iCloud, porque este procedimiento ocurre parte en el dispositivo (la comparación de firmas digitales) pero en caso de que haya un positivo, la revisión manual del contenido se hace por empleados de Apple mediante la revisión de las fotos en iCloud, ya que no acceden a nuestro dispositivo de ninguna forma.

¿Dudas sobre tu privacidad?

Cualquier sistema de detección plantea dudas sobre su eficacia y/o sobre el respeto a la privacidad. Puede parecer que para que un sistema de detección sea realmente eficaz se debe vulnerar la privacidad del usuario, pero la realidad es que Apple ha diseñado un sistema en el que nuestra privacidad está garantizada. El sistema de detección de Mensajes y Siri no plantea dudas, ya que ocurre dentro de nuestro dispositivo, sin que Apple tenga conocimiento de nada. Sólo el sistema de detección de fotografías en iCloud puede plantear dudas, pero la realidad es que Apple se ha cuidado mucho de seguir garantizando que nuestros datos sean solo nuestros.

Sólo habría un caso en el que Apple accedería a nuestros datos en iCloud: si salta la alarma por algunas fotografías nuestras y tienen que revisarlas para ver si efectivamente son contenido ilegal. La posibilidad de que esto ocurra por error es extraordinariamente baja, infinitesimal. Personalmente creo que merece la pena asumir este riesgo altamente improbable si con ello se ayuda a luchar contra la pornografía infantil.

¿Una puerta de atrás para acceder a nuestro iPhone?

En absoluto. Apple en ningún momento permite el acceso a los datos de nuestro iPhone. Lo que ocurre en nuestro iPhone se queda en nuestro iPhone. El único punto en el que puede llegar a acceder a nuestros datos es cuando hablamos de las fotografías almacenadas en iCloud, nunca en nuestro iPhone. No existe la puerta de atrás.

¿Puedo seguir teniendo fotos de mis hijos?

Sin el más mínimo problema. Lo he repetido en varias ocasiones pero lo diré una vez más: Apple no escaneará tus fotos para ver si incluyen contenido sexual infantil. Si tienes fotos de tu bebé en la bañera, no hay ningún problema porque no se va a detectar como contenido inadecuado. Lo que hará Apple es buscar identificadores de fotografías ya conocidas y catalogadas CSAM y compararlos con los identificadores de tu iPhone, nada más.


Síguenos en Google News

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.