Apple explica por qué abandonó el desarrollo del detector de pornografía infantil en iCloud

CSAM

Hace un año Apple anunciaba la cancelación de uno de los proyectos más ambiciosos dentro de iCloud. Se trataba de un escáner para la detección de pornografía infantil dentro del contenido almacenado en la nube de la gran manzana. Este movimiento fue totalmente inesperado y sin ninguna explicación por parte de la corporación. Sin embargo, hace unas horas se publicaba una nota en la cual Apple explicaba que el introducirse dentro del escaneo de archivos multimedia dentro de iCloud abría una puerta abierta al comportamiento malicioso y que tuvieron que dejar el desarrollo de la herramienta.

La privacidad, el eje del parón en el desarrollo de la detección de CSAM

El escáner de fotos de iCloud de los usuarios de Apple en busca de pornografía infantil era uno de los proyectos más importantes dentro de la nueva era de protección de los servicios de la gran manzana. El término utilizado realmente era CSAM (Child Sexual Abuse Material o Material de abuso sexual infantil). Y no era más ni menos que una herramienta para detectar a aquellos usuarios que almacenaban esta información en la nube de Apple y ponerlo en conocimiento de las autoridades competentes. Podéis consultar más acerca del funcionamiento del escáner en este artículo donde, además, anunciábamos la cancelación del desarrollo por parte de Apple.

CSAM
Artículo relacionado:
Apple abandona el proyecto de escanear las fotos de iCloud buscando pornografía infantil

En una nueva nota publicada en Wired, Apple da las razones por las cuales se dejó de lado el desarrollo de este escáner de pornografía infantil. Estas declaraciones provienen de Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de la compañía:

Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten. También inyectaría la posibilidad de una avalancha de consecuencias no deseadas. La exploración de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido

El ánimo de Apple sigue estando en comprometerse con romper la cadena de la pornografía y del tráfico de este tipo de datos. Sin embargo, después de realizar una exhaustiva investigación de privacidad y seguridad con equipos expertos en derechos digitales y defensores de la seguridad infantil se dieron cuenta de que el escaneo de archivos multimedia dentro de iCloud abriría un escenario en el que hasta ahora nunca visto. 

Quizá en un futuro Apple retome este proyecto, pero de momento las declaraciones parecen ser constantes con la decisión que se tomó hace un año de finalizar el proyecto, aunque la idea desde el comienzo era muy buena.


Síguenos en Google News

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.