Apple 不会扫描儿童色情照片,但 Mail 会

最近,争议在库比蒂诺公司的办公室上像一块板子一样落下,原因是 csam, 众所周知,技术公司为保护潜在受害者而开展的搜索儿童色情内容的服务的跟踪是众所周知的。

苹果警告称,其儿童色情跟踪协议在 iCloud 照片中不起作用,但多年来一直在邮件中使用。 事实上,这是许多其他公司已经实施的做法,并且在过去的时间里似乎没有引起任何气泡,CSAM 协议发生了什么?

事实上,Apple 已经确认它已经扫描 iCloud Mail 的内容至少三年来搜索儿童色情内容并出于安全原因,例如谷歌多年来在 Gmail 中所做的事情。 然而,他们认为应该澄清这个“扫描”系统(目前)没有在 iCloud 照片上执行。

无论哪种方式,这种“爬行” 它不会影响存储在我们设备物理内存中的照片, 但仅限于通过 iCloud 服务器或通过邮件发送的那些。

Apple 使用图像搜索和分析技术来查找和报告虐待儿童的内容。 我们的系统使用先进的电子签名。

这几乎没有告诉我们 Apple 扫描系统的工作原理,但是,除非您是此类犯罪活动的参与者, 识别 Apple 服务器上儿童色情内容的算法有什么问题? 与此同时,关于这个似乎在美利坚合众国引起极大关注的问题仍然存在争议。


在 Google 新闻上关注我们

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责资料:AB Internet Networks 2008 SL
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。