최근 논란이 쿠퍼티노 회사 사무실에 돌처럼 떨어졌는데, 그 이유는 쌈, 잠재적인 피해자를 보호하기 위해 기술 회사가 아동 포르노를 찾아 서비스를 수행하는 것으로 알려져 있습니다.
Apple은 아동 포르노 추적 프로토콜이 iCloud 사진에서 작동하지 않지만 수년 동안 Mail에서 작동한다고 경고합니다. 사실, 이것은 많은 다른 회사들이 이미 수행하고 있는 관행이며 지난 시간 동안 눈살을 찌푸리지 않은 것 같습니다. CSAM 프로토콜에 무슨 일이 일어나고 있습니까?
실제로 Apple은 아동 포르노를 찾기 위해 그리고 보안상의 이유로 최소 XNUMX년 동안 iCloud Mail의 콘텐츠를 스캔한다고 확인했습니다. 예를 들어 Google은 Gmail에서 수년 동안 해왔습니다. 그러나 그들은 이 "스캐닝" 시스템이 iCloud 사진에서 (현재로서는) 수행되고 있지 않다는 점을 친절하게 설명했습니다.
어쨌든 이 "추적" 장치의 물리적 메모리에 저장된 사진에는 영향을 미치지 않으며, 그러나 iCloud 서버를 통과하거나 Mail을 통해 전송되는 것만 해당됩니다.
Apple은 이미지 검색 및 분석 기술을 사용하여 아동 착취와 관련된 콘텐츠를 찾고 신고합니다. 우리 시스템은 고급 전자 서명을 사용합니다.
이것은 Apple의 스캐닝 시스템이 작동하는 방식에 대해 거의 알려주지 않지만, 이러한 유형의 범죄 활동에 가담하지 않는 한, Apple 서버에서 아동 포르노를 식별하는 알고리즘에 어떤 문제가 있습니까? 한편, 미국 내에서 큰 우려를 불러일으키고 있는 것으로 보이는 이 문제에 대한 논란은 계속해서 시끌벅적하다.