V poslední době se kontroverze v kancelářích společnosti Cupertino propadla jako příčina, důvodem je csam, je známo, že je známo sledování, které technologické společnosti provádějí při poskytování dětské pornografie za účelem ochrany potenciálních obětí.
Apple varuje, že jeho protokol pro sledování dětské pornografie nefunguje v iCloud Photos, ale je v Poště již roky. Ve skutečnosti je to praxe, kterou již provádí mnoho dalších společností, a nezdá se, že by v těchto minulých dobách vyvolala puchýře, co se děje s protokoly CSAM?
Ve skutečnosti společnost Apple potvrdila, že při sledování dětské pornografie a z bezpečnostních důvodů skenuje obsah iCloud Mailu nejméně tři roky, což je například to, co například Google v Gmailu dělá již mnoho let. Považovali však za vhodné objasnit, že tento „skenovací“ systém není (prozatím) prováděn na fotografiích na iCloudu.
Ať tak či onak, toto „procházení“ Nemá vliv na fotografie uložené ve fyzické paměti našeho zařízení, ale pouze v těch, které procházejí servery iCloud nebo jsou odesílány poštou.
Společnost Apple používá technologii vyhledávání a analýzy obrázků k vyhledávání a hlášení obsahu zneužívajícího děti. Náš systém používá pokročilé elektronické podpisy.
To nám nic neříká o tom, jak skenovací systém Apple funguje, pokud však nejste účastníkem tohoto druhu trestné činnosti, Jaký je problém s algoritmem identifikujícím dětskou pornografii na serverech Apple? Mezitím jsou kontroverze i nadále na denním pořádku ohledně tohoto problému, který se zdá být ve Spojených státech amerických velkým problémem.