Últimamente ha caído la polémica como una losa sobre las oficinas de la empresa de Cupertino, el motivo es el CSAM, como se conoce al rastreo que las compañías tecnológicas realizan de sus servicios en busca de pornografía infantil con el fin de proteger a las posibles víctimas.
Apple advierte que su protocolo de rastreo de pornografía infantil no funciona en iCloud Fotos pero lleva años en Mail. De hecho, es una práctica que ya llevan a cabo otras muchas compañías y no parece haber levantado ampolla alguna durante estos tiempos pasados, ¿qué está pasando con los protocolos CSAM?
De hecho, Apple ha confirmado que escanea el contenido de iCloud Mail desde hace al menos tres años en busca de pornografía infantil y por razones de seguridad, algo que por ejemplo Google hace desde hace ya muchos años en Gmail. Sin embargo, han tenido a bien aclarar que este sistema de «escaneo» no se está llevando a cabo (por el momento) en las fotografías de iCloud.
De cualquier modo, este «rastreo» no afecta a las fotografías que se encuentran alojadas en la memoria física de nuestro dispositivo, sino únicamente en aquellas que pasan por los servidores de iCloud o son enviadas a través de Mail.
Apple utiliza una tecnología de análisis y búsqueda de imágenes para encontrar y reportar contenido relativo a la explotación infantil. Nuestro sistema utiliza firmas electrónicas avanzadas.
Esto nos dice entre poco y nada al respecto de cómo funciona el sistema de escaneo de Apple, sin embargo, a no ser que seas partícipe en este tipo de acciones delictivas, ¿qué problema existe en que un algoritmo identifique pornografía infantil en los servidores de Apple? Mientas tanto, la polémica sigue a la orden del día con respecto de este tema que parece estar preocupando de sobremanera en Estados Unidos de América.