Darrerament ha caigut la polèmica com una llosa sobre les oficines de l'empresa de Cupertino, el motiu és el csam, com es coneix a l'rastreig que les companyies tecnològiques realitzen dels seus serveis a la recerca de pornografia infantil per tal de protegir les possibles víctimes.
Apple adverteix que el seu protocol de rastreig de pornografia infantil no funciona en iCloud Fotos però porta anys en Mail. De fet, és una pràctica que ja porten a terme moltes altres companyies i no sembla haver aixecat ampolla alguna durant aquests temps passats, què està passant amb els protocols CSAM?
De fet, Apple ha confirmat que escaneja el contingut d'iCloud Mail des de fa al menys tres anys a la recerca de pornografia infantil i per raons de seguretat, una cosa que per exemple Google fa des de fa ja molts anys a Gmail. No obstant això, han tingut a bé aclarir que aquest sistema de «escaneig» no s'està duent a terme (de moment) a les fotografies d'iCloud.
De qualsevol manera, aquest «rastreig» no afecta les fotografies que es troben allotjades a la memòria física del nostre dispositiu, sinó únicament en aquelles que passen pels servidors d'iCloud o són enviades a través de Mail.
Apple utilitza una tecnologia d'anàlisi i recerca d'imatges per trobar i reportar contingut relatiu a l'explotació infantil. El nostre sistema utilitza signatures electròniques avançades.
Això ens diu entre poc i gens a l'respecte de com funciona el sistema d'escaneig d'Apple, però, tret que siguis partícip en aquest tipus d'accions delictives, Quin problema hi ha en què un algoritme identifiqui pornografia infantil en els servidors d'Apple? Mentre tant, la polèmica segueix a l'ordre del dia pel que fa d'aquest tema que sembla estar preocupant d'en gran manera als Estats Units d'Amèrica.