샌프란시스코 의사, iCloud에 아동 음란물 소지 혐의로 기소

Apple은 지난주 iCloud의 CSAM(아동 성적 학대 자료)에 대한 새로운 탐지 시스템을 발표했습니다. Apple이 우리에게 익숙한 개인 정보 보호 종료. 작동에 대해 질문이 있는 경우 이 링크를 방문하여 설명할 수 있습니다. 이 시스템은 무엇이며 실제로 어떻게 작동합니까?

이 시스템에 대한 논란이 계속되고 일부 권리 협회는 Apple이 이를 구현하지 않도록 초대하지만 샌프란시스코 베이 의사는 다음과 같은 혐의를 받고 있습니다. Apple iCloud 계정에 아동 포르노 소지.

미국 법무부는 목요일(58세) 앤드류 몰릭(Andrew Mollick)이 아동에 대한 성적 착취에 관한 최소 2.000개의 이미지와 비디오를 보유하고 있다고 발표했습니다. iCloud 계정에 저장. Andrew Mollick은 여러 샌프란시스코 베이 지역 의료 센터와 제휴한 종양학 전문가이자 UCSF 의과 대학의 부교수입니다.

구금자는 소셜 미디어 애플리케이션 Kik에 그 이미지 중 하나를 업로드했고, 그 때 연방 경찰이 수행했습니다. 그를 찾기 위한 조사. 그 순간, 연방 정부가 그가 iCloud에 저장한 모든 콘텐츠를 찾았을 때였습니다.

논란에도 애플은 계속된다

Apple은 최근에 다음과 같이 설계된 시스템을 도입할 계획을 발표했습니다. iCloud에서 아동 성적 학대 자료 감지 NCMEC(National Center for Missing and Exploited Children)에 보고서를 제출합니다.

시스템 사용자의 iCloud 계정에서 이미지를 스캔하지 않습니다. 대신, 아이클라우드에 저장된 이미지의 해시(식별자)를 아동 안전 기관에서 제공하는 알려진 CSAM 해시와 대조합니다. .

반발에도 불구하고 Apple은 CSAM 탐지 시스템을 선보일 계획을 추진하고 있습니다. 그것을 유지 플랫폼은 계속해서 개인 정보를 보호할 것입니다. iCloud 계정에 CSAM 컬렉션이 없는 사용자의 수.


기사의 내용은 우리의 원칙을 준수합니다. 편집 윤리. 오류를보고하려면 여기에.

코멘트를 첫번째로 올려

코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다.

*

*

  1. 데이터 책임자: AB Internet Networks 2008 SL
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.