Apple 不會掃描兒童色情照片,但 Mail 會

最近,庫比蒂諾公司的辦公室裡爭議不斷,原因是 csam, 眾所周知,科技公司為了保護可能的受害者而對其服務進行追蹤以搜尋兒童色情內容。

蘋果警告稱,其兒童色情跟踪協議在 iCloud 照片中不起作用,但多年來一直在郵件中使用。 事實上,許多其他公司已經採取了這種做法,並且在過去的一段時間內似乎沒有引起任何關注,CSAM 協議到底發生了什麼?

事實上,蘋果已經確認,它已經掃描 iCloud Mail 的內容至少三年了,以搜尋兒童色情內容並出於安全原因,谷歌多年來一直在 Gmail 中這樣做。 然而,他們很友善地澄清說,這個「掃描」系統(目前)並未在 iCloud 照片上執行。

無論如何,這個“追蹤” 它不會影響儲存在我們設備實體記憶體中的照片, 但僅限於那些透過 iCloud 伺服器或透過郵件發送的郵件。

蘋果使用圖像分析和搜尋技術來尋找和報告與剝削兒童相關的內容。 我們的系統使用先進的電子簽名。

然而,這幾乎沒有告訴我們蘋果掃描系統的工作原理,除非你是此類犯罪行為的參與者, Apple 伺服器上識別兒童色情內容的演算法有什麼問題? 同時,關於這個問題的爭議仍然是當今美國最關心的問題。


在 Google 新聞上關注我們

發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責資料:AB Internet Networks 2008 SL
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。