Apple 的新兒童色情系統如何運作(以及它如何運作)

關閉未成年人的Facebook帳戶

蘋果公司宣布了新措施 完善兒童保護體系,打擊兒童色情製品。 我們解釋了這些新措施如何發揮作用以及它們沒有什麼作用。

蘋果增加了 新措施 與兒童安全專家合作,打擊兒童性虐待材料的傳播。 這些措施分為三個不同的部分:消息、Siri 和照片。 “消息”將掃描在小型設備上發送和接收的照片,Siri 將通知您搜索非法材料,“照片”將在檢測到兒童色情材料時通知當局。 在我們的設備上。 這些措施的操作相當複雜,特別是如果你想維護用戶的隱私,蘋果認為它已經成功克服了這一挑戰,我們將在下面解釋。

帖子

在西班牙,該系統還不是很普及,但 Apple Messages 系統在美國和其他國家/地區被廣泛使用。 這就是為什麼控制消息中兒童性內容的傳播非常重要,並且一直是這些新措施的支柱之一。 當發送或接收露骨色情照片時,新系統將通知兒童和家長。 這種情況只會發生在 12 歲或以下兒童的設備上。,您的小帳戶配置良好。

如果未成年人(12 歲或以下)收到 Apple 標記為“露骨色情”的照片,該照片將會變得模糊,並且會以未成年人可以理解的語言警告他們該圖像可能不適合他們。 如果您選擇查看(如果您選擇查看,您將能夠查看) 您將收到通知,您的父母將收到通知。 如果未成年人決定發送包含性照片的消息,也會發生同樣的情況。

這個過程發生在iPhone內部,蘋果不會隨時干預。 照片在發送之前或在 iPhone 上接收時都會被掃描,並使用人工智能係統來決定其內容是否構成風險。 如果發生這種情況,通知只會由未成年人(我們再說一遍,12 歲或以下)的父母收到,Apple 和當局都不會了解這一事實。

Siri的

蘋果的虛擬助手也將進行更新,以打擊兒童色情製品。 如果有人搜索此類內容,Siri 會通知您該材料是非法的,並提供有用的資源,例如舉報此類內容的方法。 同樣,整個過程將在我們自己的設備上進行,Apple 或任何相關機構都不會了解我們的搜索或 Siri 向我們發出的通知。

FOTOS

毫無疑問,這是最重要的變化,也是引起最多爭議的變化,關於其運作方式的信息是錯誤的。 蘋果宣布 iCloud 將檢測用戶存儲在雲中的兒童色情圖片。 如果我們堅持這一聲明,就會產生許多關於如何在尊重用戶隱私的同時做到這一點的疑問。 但蘋果已經考慮到了這一點,並設計了一個系統,允許我們在不侵犯我們隱私的情況下做到這一點。

最重要的是,儘管已經發表了大量包含此信息的文章,但蘋果不會掃描您的照片以查找兒童色情內容。 他不會因為你有你兒子或女兒在浴缸裡裸體的照片而誤認為你是罪犯。 Apple 要做的就是查明您是否擁有 CSAM 中包含的數百萬張兒童色情照片。

什麼是 CSAM? “兒童性虐待材料”或兒童性虐待材料。 它是包含兒童色情內容的照片目錄,由不同機構已知和製作,其內容由國家失踪和受虐兒童中心 (NCMEC) 控制。 每張照片都有一個不變的數字簽名,這正是用來了解用戶是否擁有這些照片的依據。。 它會將我們照片的簽名與 CSAM 的簽名進行比較,只有當出現巧合時才會響起警報。

因此,蘋果不會掃描我們的照片來查看內容是否涉及性,它不會使用人工智能,甚至不會看到我們的照片。 它只會使用每張照片的數字簽名,並將其與 CSAM 中包含的簽名進行比較,並且只有在巧合的情況下才會審查我們的內容。 如果我的一張照片被錯誤地識別為不當內容怎麼辦? 蘋果公司確保這實際上是不可能的,但如果發生了也不會有問題。 首先,一張匹配是不夠的,必須有幾張匹配(我們不知道有多少),如果超過該限制數量(僅當超過時)蘋果會審查這些特定照片以評估它們是否確實是兒童在通知當局之前是否包含色情內容。

因此,有必要將照片存儲在 iCloud 中,因為此過程部分發生在設備上(數字簽名的比較),但如果存在肯定的情況, 內容的手動審核由 Apple 員工通過審核 iCloud 中的照片來完成,因為他們不會以任何方式訪問我們的設備。

懷疑您的隱私?

任何檢測系統都會對其有效性和/或尊重隱私提出質疑。 看起來,一個檢測系統要想真正有效,就必須侵犯用戶的隱私,但事實是,蘋果設計了一個保證我們隱私的系統。 消息和 Siri 檢測系統不會引起懷疑,因為它發生在我們的設備內,而蘋果對此一無所知。 只有iCloud照片檢測系統才能引起質疑,但現實是蘋果已經非常小心地繼續確保我們的數據只屬於我們。

只有一種情況,蘋果才會訪問我們在 iCloud 中的數據:如果我們的某些照片發出警報,他們必須審查它們,看看它們是否確實是非法內容。 這種錯誤發生的可能性非常低,微乎其微。。 我個人認為,如果有助於打擊兒童色情製品,這種極不可能發生的風險是值得冒的。

訪問 iPhone 的後門?

絕對地。 Apple 絕不會允許訪問我們 iPhone 的數據。 iPhone 上發生的事情將保留在我們的 iPhone 上。 它可以訪問我們數據的唯一時刻是當我們談論存儲在 iCloud 中的照片時,而不是我們的 iPhone 上。 沒有後門。

我還能保留孩子的照片嗎?

沒有絲毫問題。 我已經說過好幾次了,但我還要再說一遍:Apple 不會掃描你的照片中是否存在兒童色情內容。 如果您有寶寶在浴缸裡的照片,沒有問題,因為它不會被檢測為不當內容。 Apple 要做的就是查找 CSAM 已知並編錄的照片標識符,並將它們與 iPhone 的標識符進行比較,僅此而已。


在 Google 新聞上關注我們

發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責資料:AB Internet Networks 2008 SL
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。