Apple anunció la semana pasada un nuevo sistema de detección de CSAM (Child Sexual Abuse Material) en iCloud, una medida por muchos usuarios han visto como el fin de la privacidad a la que nos tiene acostumbrados Apple. Si tienes alguna duda sobre su funcionamiento, puedes visitar este enlace donde te explicamos qué es este sistema y como funciona realmente.
Mientras continúa la polémica acerca de este sistema, y algunas asociaciones de derechos invitan a Apple a que no lo implemente, un médico de la Bahía de San Francisco ha sido acusado de poseer pornografía infantil en su cuenta de Apple iCloud.
El Departamento de Justicia de Estados Unidos anunció el jueves que Andrew Mollick, de 58 años, tenía al menos 2.000 imágenes y vídeos de explotación sexual de niños almacenados en su cuenta de iCloud. Andrew Mollick es un especialista en oncología afiliado a varios centros médicos del área de la bahía de San Francisco además de profesor asociado de la Facultad de Medicina de la UCSF.
El detenido subió una de esas imágenes a la aplicación de redes sociales Kik, fue entonces cuando la policía federal realizó una investigación para dar con él. En ese momento, fue cuando los federales encontraron todo el contenido que tenía almacenado en iCloud.
Apple sigue adelante a pesar de la polémica
Apple ha anunciado recientemente planes para introducir un sistema diseñado para detectar material de abuso sexual infantil en iCloud y proporcionar un informe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC por sus siglas en inglés).
El sistema no escanea las imágenes de la cuenta de iCloud del usuario. En su lugar, comprueba los hashes (identificadores) de las imágenes almacenadas en iCloud con los hashes CSAM conocidos proporcionados por organizaciones de seguridad infantil. .
A pesar de la reacción, Apple sigue adelante con sus planes de estrenar el sistema de detección CSAM. Sostiene que la plataforma seguirá preservando la privacidad de los usuarios que no tienen colecciones de CSAM en sus cuentas de iCloud.