Apple의 새로운 아동 포르노 방지 시스템 작동 방식(및 작동하지 않는 방식)

미성년자의 Facebook 계정 폐쇄

Apple은 새로운 조치를 발표했습니다. 아동 보호 시스템을 개선하고 아동 포르노에 맞서 싸우십시오.. 우리는 이러한 새로운 조치가 어떻게 작동하고 무엇을 하지 않는지 설명합니다.

애플이 추가했습니다 새로운 조치 아동 성적 학대 자료의 확산을 방지하기 위해 아동 안전 전문가와 협력합니다. 이러한 측정은 메시지, Siri 및 사진의 세 가지 섹션으로 나뉩니다. 메시지는 미성년자의 기기로 주고받는 사진을 스캔하고, Siri는 불법 자료 검색에 대해 경고하고, 사진은 아동 포르노 자료가 감지되는 경우 당국에 알립니다. 우리 장치에. 이러한 조치의 작동은 특히 사용자 개인 정보를 유지하려는 경우 매우 복잡합니다. Apple은 이를 극복했다고 믿고 아래에서 설명할 문제입니다.

게시물

스페인에서는 널리 보급되지 않았지만 Apple Message 시스템은 미국 및 기타 국가에서 널리 사용됩니다. 그렇기 때문에 메시지에서 아동 성적 자료의 유포를 통제하는 것이 매우 중요하며 이러한 새로운 조치의 기둥 중 하나가 되었습니다. 새로운 시스템은 음란물이 포함된 사진을 보내거나 받으면 어린이와 부모에게 알립니다. 이는 12세 이하 어린이용 기기에서만 발생합니다., 마이너 계정이 잘 구성되어 있습니다.

미성년자(12세 이하)가 Apple이 "음란물"로 분류한 사진을 받으면 흐리게 처리되며 미성년자가 이해할 수 있는 언어로 해당 이미지가 적합하지 않을 수 있음을 안내합니다. 보기로 결정했다면 (선택하면 볼 수 있음) 부모님께 통보를 받게 될 것입니다.. 미성년자가 성적인 사진이 포함된 메시지를 보내기로 결정한 경우에도 마찬가지입니다.

이 프로세스는 iPhone 내부에서 발생하며 Apple은 어떠한 경우에도 개입하지 않습니다.. 사진은 보내기 전이나 아이폰으로 받을 때 스캔을 하고, 인공지능 시스템을 이용해 콘텐츠에 위험이 있는지 없는지를 판단한다. 통지가 발생하는 경우 해당 미성년자의 부모(12세 이하 반복)만 통지를 받으며 Apple도 당국도 이 사실을 알지 못합니다.

시리

Apple의 가상 비서도 아동 포르노와 싸우기 위해 업데이트됩니다. 누군가가 이러한 유형의 콘텐츠를 검색하는 경우 Siri는 해당 자료가 불법임을 알리고 이러한 유형의 콘텐츠를 신고하는 방법과 같이 도움이 될 수 있는 리소스도 제공합니다. 다시 전체 절차는 자체 장치에서 발생합니다., Apple이나 관련 기관은 우리의 검색이나 Siri가 우리에게 보내는 경고에 대해 알지 못합니다.

사진

그것은 의심할 여지 없이 가장 중요한 변경이며 작동 방식에 대한 잘못된 정보와 함께 가장 많은 논란을 일으킨 변경입니다. Apple은 iCloud가 사용자가 클라우드에 저장한 아동 포르노 이미지를 감지한다고 발표했습니다.. 이 진술을 유지하면 사용자의 개인 정보를 존중하면서 이것이 어떻게 수행될 수 있는지에 대한 많은 의구심이 제기됩니다. 그러나 Apple은 그것에 대해 생각했고 우리의 개인 정보를 침해하지 않고 이를 수행할 수 있는 시스템을 고안했습니다.

가장 중요한 것은 이 정보와 함께 게시된 많은 기사에도 불구하고 Apple은 아동 포르노 콘텐츠가 있는지 사진을 스캔하지 않습니다. 그들은 욕조에 벌거 벗은 아들이나 딸의 사진을 가지고 있기 때문에 범죄자로 착각하지 않을 것입니다.. Apple이 할 일은 CSAM에 아동 포르노로 등록된 수백만 장의 사진이 있는지 확인하는 것입니다.

CSAM이란 무엇입니까? "아동 성적 학대 자료" 또는 아동 성적 학대 자료. 이것은 여러 기관에서 알려지고 제작한 아동 포르노 콘텐츠가 포함된 사진 목록이며 그 콘텐츠는 NCMEC(National Center for Missing and Exploited Children)에서 관리합니다. 이러한 각 사진에는 디지털 서명이 있으며, 이는 사용자가 해당 사진을 가지고 있는지 여부를 확인하는 데 사용됩니다.. 우리 사진의 서명을 CSAM의 서명과 비교하지만 우연의 일치가 있는 경우에만 경보가 울립니다.

따라서 Apple은 콘텐츠가 성적인지 여부를 확인하기 위해 사진을 스캔하지 않고 인공 지능을 사용하지 않으며 사진을 보지도 않습니다. 각 사진의 디지털 서명만 사용하고 CSAM에 포함된 서명과 비교하며 우연의 경우에만 콘텐츠를 검토합니다. 내 사진 중 하나가 부적절한 콘텐츠로 잘못 식별되면 어떻게 합니까? Apple은 이것이 실질적으로 불가능하다고 확신하지만 만약 일어난다면 문제가 없을 것입니다. 첫째, 일치하는 것으로 충분하지 않고 여러 일치가 있어야 합니다(몇 개인지 알 수 없음). 해당 제한 수를 초과하는 경우(초과된 경우에만) Apple은 해당 사진을 검토하여 실제로 아동 포르노인지 평가합니다. 당국에 알리기 전에 내용 여부.

이 때문에 이 절차는 부분적으로 기기(전자서명 비교)에서 일어나기 때문에 사진을 iCloud에 저장하는 것이 필요하지만 긍정적인 경우, 수동 콘텐츠 검토는 iCloud에서 사진을 검토하여 Apple 직원이 수행합니다., 그들은 어떤 식 으로든 우리 장치에 액세스하지 않기 때문에.

개인 정보에 대한 질문이 있습니까?

모든 탐지 시스템은 그 효과 및/또는 개인 정보 보호에 대한 의구심을 제기합니다. 탐지 시스템이 진정으로 효과적이기 위해서는 사용자의 개인 정보가 침해되어야 하는 것처럼 보일 수 있지만, 현실은 Apple이 우리의 개인 정보가 보장되는 시스템을 설계한 것입니다. 메시지 및 Siri의 감지 시스템은 장치 내에서 발생하기 때문에 의심의 여지가 없습니다., Apple이 아무 것도 알지 못하는 상태에서. iCloud에서 사진을 감지하는 시스템만이 의심을 불러일으킬 수 있지만, 현실은 Apple이 우리의 데이터가 우리만의 것임을 계속해서 확인하기 위해 세심한 주의를 기울였다는 것입니다.

Apple이 iCloud의 데이터에 액세스하는 경우는 단 한 가지뿐입니다. 일부 사진에서 경보가 울리고 사진이 실제로 불법 콘텐츠인지 검토해야 하는 경우입니다. 실수로 이런 일이 일어날 확률은 매우 낮고 극소입니다.. 저는 개인적으로 이 가능성이 매우 낮은 위험이 아동 포르노와 싸우는 데 도움이 된다면 감수할 가치가 있다고 생각합니다.

iPhone에 액세스할 수 있는 뒷문?

전적으로. Apple은 iPhone의 데이터에 대한 액세스를 허용하지 않습니다. iPhone에서 일어나는 일은 iPhone에 그대로 유지됩니다.. 당신이 우리의 데이터에 접근할 수 있는 유일한 지점은 우리가 우리의 iPhone이 아닌 iCloud에 저장된 사진에 대해 이야기할 때입니다. 뒷문이 없습니다.

여전히 내 아이들의 사진을 가질 수 있습니까?

조금의 문제도 없이. 여러 번 반복했지만 다시 한 번 말씀드립니다. Apple은 사진에 아동 성적인 콘텐츠가 포함되어 있는지 확인하기 위해 사진을 스캔하지 않습니다. 욕조에 아기의 사진이 있으면 부적절한 콘텐츠로 감지되지 않으므로 문제가 없습니다.. Apple이 할 일은 이미 알려져 있고 CSAM으로 분류된 사진의 식별자를 찾아 iPhone의 식별자와 비교하는 것뿐입니다.


Google 뉴스에서 팔로우

코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자: AB Internet Networks 2008 SL
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.