Apple abandona el proyecto de escanear las fotos de iCloud buscando pornografía infantil

CSAM

La llegada de iOS 15 trajo consigo un gran repertorio de novedades para proteger a los menores de grandes problemas de hoy en día. De hecho se presentaron tres grandes grupos de funcionalidades. Las dos que hoy en día están disponibles son la seguridad en las comunicaciones dentro de iMessages y, por otro lado, las advertencias en torno a estos temas en Siri, Spotlight y Safari. Sin embargo, la función estrella de Apple era escanear las fotos de iCloud de los usuarios con el objetivo de encontrar pornografía infantil. Tras varios meses pospuesto, el proyecto ha sido abandonado por Apple.

Escáner de fotos en busca de CSAM, el proyecto de Apple

La herramienta estrella de Apple era conocida por su dilema tanto ético como a nivel de privacidad que suscitó cuando se presentó hace ya más de un año. El objetivo de la herramienta de Apple era escanear las fotos de iCloud de los usuarios en busca de pornografía infantil. Este término no es el utilizado de forma oficial sino que el término utilizado era CSAM (Child Sexual Abuse Material o Material de abuso sexual infantil).

Seguridad infantil

Algunas funciones de protección infantil que sí que están disponibles en iOS actualmente

Para ello, los de Cupertino se aliaron con la NCMEC, el Centro Nacional para Menores Desaparecidos y Explotados, de Estados Unidos. Este centro tiene una gran base de datos con imágenes de pornografía infantil o CSAM. Cada una de estas fotos tiene una firma o hash que no varía. Es decir, si una imagen con contenido delicado tiene una misma firma que una que tiene el usuario, saltarán las alarmas.

Antes de almacenar una imagen en Fotos de iCloud, se realiza un proceso de cotejo en el dispositivo de esa imagen con el conjunto ilegible de firmas CSAM conocidas. Este proceso de comparación se basa en una tecnología criptográfica denominada intersección de conjuntos privados, que determina si existe una coincidencia sin revelar el resultado. La intersección de conjuntos privados (PSI) permite a Apple saber si el hash de una imagen coincide con los hashes de imagen CSAM conocidos, sin saber nada de los hashes de imagen que no coinciden. PSI también impide que el usuario sepa si hay una coincidencia.
Artículo relacionado:
Cómo funciona el nuevo sistema contra la pornografía infantil de Apple (y cómo no funciona)

Apple aseguró que la probabilidad de que se diera una falsa alarma era mínima ya que había que tener más de 30 fotos cuyas firmas o hash fueran idénticas a la base de datos CSAM para que Apple interviniera. Sin embargo, la comunidad tanto tecnológica, como ética y de seguridad así como propios empleados de Apple provocaron una abalancha de críticas que produjeron que se pospusiera la función y no viera la luz en iOS 15.

El proyecto para escanear fotos en busca de pornografía infantil se paraliza

Hace unas horas se publicaba un comunicado de Apple en WIRED donde se anunciaba el abandono del desarrollo de este escáner de fotos de iCloud en busca de pornografía infantil:

Tras una amplia consulta con expertos para recabar opiniones sobre las iniciativas de protección de la infancia que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de las comunicaciones que pusimos a disposición por primera vez en diciembre de 2021. Además, hemos decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para Fotos de iCloud. Se puede proteger a los niños sin que las empresas rastreen sus datos personales, y seguiremos trabajando con gobiernos, defensores de la infancia y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros.

Por lo tanto, Apple abandona un proyecto que inició hace algo más de un año. Todo ello provocado por el aluvión de problemas y críticas de seguridad que tuvo la medida desde su presentación. De hecho, ahora los de Cupertino tratan de blanquear los problemas tratando de invertir en el origen, intentando evitar que la pornografía infantil se proudzca invirtiendo en otro tipo de medidas como la función Seguridad de las comunicaciones de iMessage.


Síguenos en Google News

Sé el primero en comentar

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.