Как работает новая система Apple по борьбе с детской порнографией (и как она не работает)

Закройте учетную запись несовершеннолетнего в Facebook

Apple объявила о новых мерах по улучшить вашу систему защиты детей и бороться с детской порнографией. Мы объясняем, как работают эти новые меры и чего они не делают.

Apple добавила Новые меры в сотрудничестве с экспертами по безопасности детей для борьбы с распространением материалов о сексуальном насилии над детьми. Эти измерения разделены на три разных раздела: «Сообщения», «Siri» и «Фотографии». Сообщения будут сканировать фотографии, которые отправляются и принимаются на устройства несовершеннолетних, Siri предупреждает о поиске незаконных материалов, а Фотографии уведомят власти в случае обнаружения материалов детской порнографии. на нашем устройстве. Действие этих мер является довольно сложным, особенно если вы хотите сохранить конфиденциальность пользователей - проблема, которую Apple считает, что ей удалось преодолеть, и которую мы объясним ниже.

Сообщения

В Испании это не очень распространено, но система Apple Message широко используется в США и других странах. Вот почему контроль распространения детских сексуальных материалов в Сообщениях очень важен и является одним из столпов этих новых мер. Новая система будет уведомлять детей и родителей, когда отправляются или получаются фотографии с материалами откровенно сексуального характера. Это произойдет только на устройствах для детей в возрасте 12 лет и младше., с хорошо настроенной вашей второстепенной учетной записью.

Если несовершеннолетний (12 лет и младше) получит фотографию, которую Apple классифицировала как «откровенно сексуальное», она будет размыта, и ему на языке, понятном для несовершеннолетнего, сообщат, что изображение может не подходить для него. Если вы решили его увидеть (вы можете увидеть это, если захотите) вам сообщат, что ваши родители будут уведомлены. То же самое произойдет, если несовершеннолетний решит отправить сообщение, содержащее сексуальную фотографию.

Этот процесс происходит внутри iPhone, Apple ни в коем случае не вмешивается.. Фотография сканируется перед отправкой или при получении на iPhone, и с помощью системы искусственного интеллекта будет решено, представляет ли ее содержание риск или нет. Уведомление, если оно произойдет, получат только родители несовершеннолетнего (повторяем, 12 лет или меньше), ни Apple, ни власти не будут знать об этом факте.

Siri

Виртуальный помощник Apple также будет обновлен для борьбы с детской порнографией. Если кто-то будет искать этот тип контента, Siri уведомит его о том, что этот материал является незаконным, а также предоставит ресурсы, которые могут быть полезны, например способы сообщить о таком типе контента. Опять же вся процедура будет происходить на нашем собственном устройстве., ни Apple, ни другие компетентные органы не будут знать ни о наших поисках, ни о предупреждениях, которые нам делает Siri.

фотографии

Это, несомненно, самое важное изменение, вызвавшее наибольшее количество споров из-за дезинформации о том, как оно будет работать. Apple объявила, что iCloud будет обнаруживать изображения детской порнографии, которые пользователи хранят в облаке.. Если мы останемся с этим заявлением, возникнет много сомнений в том, как это можно сделать, уважая конфиденциальность пользователей. Но Apple подумала об этом и разработала систему, которая позволяет нам делать это, не нарушая нашу конфиденциальность.

Самое главное, что, несмотря на множество статей, опубликованных с этой информацией, Apple не будет сканировать ваши фотографии на предмет содержания детской порнографии. Они не примут вас за преступника, потому что у вас есть фотографии обнаженного сына или дочери в ванной.. Apple собирается проверить, есть ли у вас какие-либо из миллионов фотографий, перечисленных в CSAM как детская порнография.

Что такое CSAM? «Материалы о сексуальном насилии над детьми» или материалы о сексуальном насилии над детьми. Это каталог фотографий с содержанием детской порнографии, известных и созданных различными организациями, содержание которых контролируется Национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC). Каждая из этих фотографий имеет неизменяемую цифровую подпись, и это именно то, что используется, чтобы узнать, есть ли у пользователя эти фотографии или нет.. Он будет сравнивать подписи наших фотографий с подписями CSAM, только в случае совпадения сработает сигнализация.

Поэтому Apple не будет сканировать наши фотографии, чтобы определить, является ли контент сексуальным или нет, она не будет использовать искусственный интеллект, она даже не увидит наши фотографии. Он будет использовать только цифровые подписи каждой фотографии и сравнивать их с подписями, включенными в CSAM, и только в случае совпадения он будет проверять наш контент. Что, если одна из моих фотографий ошибочно определена как неприемлемое содержание? Apple уверяет, что это практически невозможно, но если бы это произошло, не было бы проблем. Во-первых, совпадения недостаточно, должно быть несколько совпадений (мы не знаем, сколько), и если это ограничение будет превышено (только если оно превышено), Apple проверит эти конкретные фотографии, чтобы оценить, действительно ли они являются детской порнографией. содержание или нет до уведомления властей.

По этой причине необходимо, чтобы фотографии хранились в iCloud, потому что эта процедура частично происходит на устройстве (сравнение цифровых подписей), но в случае положительного результата ручная проверка содержимого выполняется сотрудниками Apple путем просмотра фотографий в iCloud., поскольку они никак не получают доступ к нашему устройству.

Есть вопросы о вашей конфиденциальности?

Любая система обнаружения вызывает сомнения в ее эффективности и / или в отношении соблюдения конфиденциальности. Может показаться, что для того, чтобы система обнаружения была действительно эффективной, необходимо нарушить конфиденциальность пользователей, но на самом деле Apple разработала систему, в которой гарантируется наша конфиденциальность. Система обнаружения Сообщений и Siri не вызывает сомнений, так как происходит внутри нашего устройства.без ведома Apple. Только система обнаружения фотографий в iCloud может вызвать сомнения, но реальность такова, что Apple приложила все усилия, чтобы гарантировать, что наши данные принадлежат только нам.

Будет только один случай, когда Apple получит доступ к нашим данным в iCloud: если сработает сигнал тревоги по некоторым из наших фотографий, и они должны будут просмотреть их, чтобы убедиться, что они действительно являются незаконным контентом. Вероятность того, что это произойдет по ошибке, чрезвычайно мала, бесконечно мала.. Я лично считаю, что стоит пойти на этот крайне маловероятный риск, если он помогает бороться с детской порнографией.

Черный ход для доступа к нашему iPhone?

Абсолютно. Apple ни в коем случае не разрешает доступ к данным на нашем iPhone. То, что происходит на нашем iPhone, остается на нашем iPhone. Единственный момент, когда вы можете получить доступ к нашим данным, - это когда мы говорим о фотографиях, хранящихся в iCloud, а не на нашем iPhone. Нет черного хода.

Могу ли я сохранить фотографии моих детей?

Без малейших проблем. Я повторил это несколько раз, но скажу еще раз: Apple не будет сканировать ваши фотографии, чтобы увидеть, содержат ли они контент сексуального характера. Если у вас есть фотографии вашего ребенка в ванне, это не проблема, потому что они не будут определены как неприемлемый контент.. Apple будет искать идентификаторы фотографий, уже известных и каталогизированных CSAM, и сравнивать их с идентификаторами вашего iPhone, не более того.


Следуйте за нами в Новостях Google

Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: AB Internet Networks 2008 SL
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.