最近,争议在库比蒂诺公司的办公室上像一块板子一样落下,原因是 csam, 众所周知,技术公司为保护潜在受害者而开展的搜索儿童色情内容的服务的跟踪是众所周知的。
苹果警告称,其儿童色情跟踪协议在 iCloud 照片中不起作用,但多年来一直在邮件中使用。 事实上,这是许多其他公司已经实施的做法,并且在过去的时间里似乎没有引起任何气泡,CSAM 协议发生了什么?
事实上,Apple 已经确认它已经扫描 iCloud Mail 的内容至少三年来搜索儿童色情内容并出于安全原因,例如谷歌多年来在 Gmail 中所做的事情。 然而,他们认为应该澄清这个“扫描”系统(目前)没有在 iCloud 照片上执行。
无论哪种方式,这种“爬行” 它不会影响存储在我们设备物理内存中的照片, 但仅限于通过 iCloud 服务器或通过邮件发送的那些。
Apple 使用图像搜索和分析技术来查找和报告虐待儿童的内容。 我们的系统使用先进的电子签名。
这几乎没有告诉我们 Apple 扫描系统的工作原理,但是,除非您是此类犯罪活动的参与者, 识别 Apple 服务器上儿童色情内容的算法有什么问题? 与此同时,关于这个似乎在美利坚合众国引起极大关注的问题仍然存在争议。