Apple 的新儿童色情系统如何运作(以及它如何运作)

关闭未成年人的Facebook帐户

苹果宣布新措施 改善您的儿童保护系统并打击儿童色情制品. 我们解释了这些新措施是如何运作的,以及它们没有做什么。

苹果增加了 新措施 与儿童安全专家合作,打击儿童性虐待材料的传播。 这些测量分为三个不同的部分:信息、Siri 和照片。 信息将扫描在未成年人设备上发送和接收的照片,Siri 将警告搜索非法材料,如果检测到儿童色情材料,照片将通知当局 在我们的设备上。 这些措施的操作非常复杂,特别是如果您想维护用户隐私,Apple 认为它已经成功克服了这一挑战,我们将在下面解释。

帖子

在西班牙,它不是很普遍,但 Apple Message 系统在美国和其他国家被广泛使用。 这就是为什么控制 Messages 中儿童色情材料的传播非常重要,并且一直是这些新措施的支柱之一。 当发送或接收带有色情内容的照片时,新系统将通知儿童和父母。 这只会发生在 12 岁或以下儿童的设备上。,您的次要帐户配置良好。

如果未成年人(12 岁或以下)收到 Apple 归类为“露骨色情”的照片,照片将被模糊处理,并且会以未成年人可以理解的语言告知他们该图像可能不适合他们。 如果你决定看它(你可以选择看) 你会被告知你的父母会收到通知. 如果未成年人决定发送包含色情照片的消息,也会发生同样的情况。

这个过程发生在iPhone内部,苹果不会随时干预. 照片在发送之前或在 iPhone 上接收时会被扫描,并使用人工智能系统来决定其内容是否构成风险。 通知,如果发生,只会由未成年人的父母收到(我们再说一遍,12 岁或更短),Apple 和当局都不会知道这一事实。

Siri

苹果的虚拟助手也将更新以打击儿童色情。 如果有人搜索此类内容,Siri 会通知他们该材料是非法的,并且还会提供可能有用的资源,例如举报此类内容的方法。 整个过程将再次发生在我们自己的设备上,无论是 Apple 还是任何相关机构都不会知道我们的搜索或 Siri 向我们发出的警告。

照片

毫无疑问,这是最重要的变化,也是引起最多争议的变化,关于它将如何运作的错误信息。 苹果宣布 iCloud 将检测用户存储在云中的儿童色情图片. 如果我们坚持这一声明,就会对如何在尊重用户隐私的同时做到这一点提出许多疑问。 但 Apple 已经考虑过了,并设计了一个系统,允许我们在不侵犯我们隐私的情况下做到这一点。

最重要的是,尽管发布了许多带有此信息的文章,但 Apple 不会扫描您的照片以查找儿童色情内容。 他们不会把你误认为是罪犯,因为你有你在浴缸里赤身裸体的儿子或女儿的照片. Apple 要做的就是查看您是否有 CSAM 中列为儿童色情内容的数百万张照片中的任何一张。

什么是 CSAM? “儿童性虐待材料”或儿童性虐待材料。 它是包含儿童色情内容的照片目录,由不同机构已知和制作,其内容由国家失踪和受虐儿童中心 (NCMEC) 控制。 每张照片都有一个不变的数字签名,这正是用来知道用户是否拥有这些照片的. 它会将我们照片的签名与 CSAM 的签名进行比较,只有在巧合时才会发出警报。

因此,Apple 不会扫描我们的照片以查看内容是否与色情有关,它不会使用人工智能,甚至不会查看我们的照片。 它只会使用每张照片的数字签名,并将它们与 CSAM 中包含的签名进行比较,只有在巧合的情况下,它才会审查我们的内容。 如果我的其中一张照片被错误地识别为不当内容怎么办? Apple 保证这实际上是不可能的,但如果发生了就不会有问题。 首先,匹配是不够的,必须有多个匹配(我们不知道有多少),如果超过这个限制数量(只有超过)Apple 会审查那些特定的照片,以评估它们是否确实是儿童色情内容在通知当局之前内容与否。

出于这个原因,有必要将照片存储在 iCloud 中,因为此过程部分发生在设备上(数字签名的比较),但万一有一个积极的, 手动内容审核由 Apple 员工通过审核 iCloud 中的照片来完成,因为他们不会以任何方式访问我们的设备。

关于您的隐私的问题?

任何检测系统都会对其有效性和/或对隐私的尊重产生怀疑。 看似要让检测系统真正有效,就必须侵犯用户隐私,但事实是,Apple 设计了一个系统,可以保证我们的隐私。 Messages 和 Siri 的检测系统不会引起怀疑,因为它发生在我们的设备中,而 Apple 一无所知。 只有在 iCloud 中检测照片的系统才能引起怀疑,但事实是,Apple 非常谨慎地继续确保我们的数据只属于我们。

只有一种情况 Apple 会访问我们在 iCloud 中的数据:如果我们的某些照片发出警报,他们必须检查它们是否确实是非法内容。 这种错误发生的可能性非常低,非常小. 我个人认为,如果它有助于打击儿童色情制品,那么这种极不可能的风险是值得承担的。

访问我们 iPhone 的后门?

绝对地。 Apple 绝不允许访问我们 iPhone 上的数据。 我们 iPhone 上发生的事情会留在我们的 iPhone 上. 您可以访问我们数据的唯一点是当我们谈论存储在 iCloud 中的照片时,永远不会在我们的 iPhone 上。 没有后门。

我还能有我孩子的照片吗?

没有丝毫问题。 我已经重复了几次,但我会再说一遍:Apple 不会扫描您的照片以查看它们是否包含儿童色情内容。 如果你有宝宝在浴缸里的照片,没有问题,因为它不会被检测为不当内容. Apple 会做的是寻找已知照片的标识符,并进行 CSAM 编目,然后将它们与您的 iPhone 的标识符进行比较,仅此而已。


在 Google 新闻上关注我们

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责资料:AB Internet Networks 2008 SL
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。