Як працює нова система дитячої порнографії Apple (і як вона не працює)

Закрийте обліковий запис неповнолітньої в Facebook

Apple оголосила про нові заходи вдосконалити свою систему захисту дітей та боротися з дитячою порнографією. Ми пояснюємо, як ці нові заходи працюють, а що ні.

Apple додала Нові заходи у співпраці з експертами з питань безпеки дітей для боротьби з поширенням матеріалів про сексуальне насильство над дітьми. Ці виміри поділені на три різні розділи: Повідомлення, Siri та Фото. Повідомлення скануватимуть фотографії, надіслані та отримані на пристроях неповнолітніх, Siri попередить про пошук незаконного матеріалу, а "Фотографії" повідомить владу у разі виявлення матеріалу дитячої порнографії на нашому пристрої. Дії цих заходів досить складні, особливо якщо ви хочете зберегти конфіденційність користувачів, виклик, який Apple вважає, що йому вдалося подолати, і який ми пояснимо нижче.

Повідомлення

В Іспанії він не дуже поширений, але система повідомлень Apple широко використовується в США та інших країнах. Ось чому контроль розповсюдження дитячого статевого матеріалу в Повідомленнях є дуже важливим і став одним із стовпів цих нових заходів. Нова система сповіщатиме дітей та батьків про надсилання чи надходження фотографій із матеріалами сексуального характеру. Це трапляється лише на пристроях для дітей віком до 12 років., з вашим другорядним обліковим записом добре налаштованим.

Якщо неповнолітній (12 років або молодший) отримає фотографію, яку Apple класифікувала як «сексуально відверту», ​​вона буде розмита, і вони будуть повідомлені зрозумілою для неповнолітніх мовою, що зображення може не підходити їм. Якщо ви вирішили його побачити (ви можете побачити це, якщо захочете) вам буде повідомлено, що ваші батьки будуть повідомлені. Те саме станеться, якщо неповнолітній вирішить надіслати повідомлення, що містить сексуальну фотографію.

Цей процес відбувається всередині iPhone, Apple ніколи не втручається. Фотографію сканують перед її надсиланням або отриманням на iPhone, і за допомогою системи штучного інтелекту буде вирішено, чи становить її вміст загрозу чи ні. Повідомлення, якщо воно відбудеться, отримають лише батьки неповнолітнього (повторюємо, 12 років і менше), ні Apple, ні влада не матимуть жодного знання про цей факт.

Siri

Віртуальний помічник Apple також буде оновлено для боротьби з дитячою порнографією. Якщо хтось здійснить пошук такого типу вмісту, Siri повідомить його про те, що матеріал є незаконним, а також надасть ресурси, які можуть бути корисними, наприклад способи повідомити про цей тип вмісту. Знову вся процедура буде проходити на нашому власному пристрої, ні Apple, ні будь -який відповідний орган не будуть знати про наші пошуки або застереження, які робить нам Siri.

фотографії

Це, безсумнівно, найважливіша зміна і та, яка викликала найбільше суперечок, з дезінформацією про те, як вона буде працювати. Apple оголосила, що iCloud буде виявляти зображення дитячої порнографії, які користувачі зберігали в хмарі. Якщо ми залишимося з цим твердженням, виникає багато сумнівів щодо того, як це можна зробити, поважаючи конфіденційність користувачів. Але Apple подумала про це і розробила систему, яка дозволяє нам це робити, не порушуючи конфіденційності.

Найголовніше, незважаючи на багато статей, опублікованих з цією інформацією, Apple не буде сканувати ваші фотографії на предмет вмісту дитячої порнографії. Вони не приймуть вас за злочинця, оскільки у вас є фотографії вашого оголеного сина чи доньки у ванні. Apple збирається подивитися, чи є у вас якісь із мільйонів фотографій, перелічених у CSAM як дитяча порнографія.

Що таке CSAM? "Матеріал сексуального насильства над дітьми" або Матеріал сексуального насильства над дітьми. Це каталог фотографій із вмістом дитячої порнографії, відомих та виготовлених різними органами, вміст яких контролюється Національним центром зниклих та експлуатованих дітей (NCMEC). Кожна з цих фотографій має цифровий підпис, незмінний, і саме це використовується для того, щоб знати, чи є у користувача ці фотографії чи ні. Він буде порівнювати підписи наших фотографій з підписами CSAM, але лише за наявності збігів сигнал спрацює.

Тож Apple не збирається сканувати наші фотографії, щоб перевірити, чи вміст сексуальний чи ні, вона не збирається використовувати штучний інтелект, навіть не збирається бачити наші фотографії. Він буде використовувати лише цифрові підписи кожної фотографії та порівнюватиме їх із підписами, включеними до CSAM, і лише у разі збігу переглядатиме наш вміст. Що робити, якщо одну з моїх фотографій помилково визначено як неприйнятний вміст? Apple запевняє, що це практично неможливо, але якби це сталося, проблем би не було. По -перше, збігу недостатньо, має бути декілька збігів (ми не знаємо скільки), і якщо ця гранична кількість буде перевищена (тільки якщо вона буде перевищена), Apple перегляне ці конкретні фотографії, щоб оцінити, чи дійсно вони є дитячою порнографією змісту чи ні до того, як повідомити органи влади.

З цієї причини необхідно, щоб фотографії зберігалися в iCloud, оскільки ця процедура частково відбувається на пристрої (порівняння цифрових підписів), але у разі позитивного результату, ручний огляд вмісту здійснюється співробітниками Apple шляхом перегляду фотографій у iCloud, оскільки вони жодним чином не отримують доступу до нашого пристрою.

Сумніви щодо вашої конфіденційності?

Будь -яка система виявлення викликає сумніви щодо її ефективності та / або щодо поваги до конфіденційності. Може здатися, що для того, щоб система виявлення була дійсно ефективною, конфіденційність користувачів повинна бути порушена, але реальність така, що Apple розробила систему, в якій наша конфіденційність гарантується. Система виявлення повідомлень і Siri не викликає сумнівів, оскільки це відбувається всередині нашого пристрою, при цьому Apple нічого не знає. Тільки система виявлення фотографій в iCloud може викликати сумніви, але реальність така, що Apple піклувалася про те, щоб і надалі гарантувати, що наші дані лише наші.

Був би лише один випадок, коли Apple отримала б доступ до наших даних у iCloud: якщо на деяких наших фотографіях спрацює сигнал тривоги, і вони повинні їх переглянути, щоб перевірити, чи дійсно це незаконний вміст. Ймовірність того, що це станеться помилково, надзвичайно мала, нескінченно мала. Я особисто вважаю, що на цей малоймовірний ризик варто піти, якщо він допомагає боротися з дитячою порнографією.

Задні двері для доступу до нашого iPhone?

Абсолютно. Apple ніколи не дозволяє доступу до даних на нашому iPhone. Те, що відбувається на нашому iPhone, залишається на нашому iPhone. Єдиний момент, коли ви можете отримати доступ до наших даних, це коли ми говоримо про фотографії, що зберігаються в iCloud, а не на нашому iPhone. Задніх дверей немає.

Чи можна ще мати фотографії своїх дітей?

Без найменших проблем. Я повторював це кілька разів, але скажу ще раз: Apple не скануватиме ваші фотографії, щоб перевірити, чи містять вони вміст дитячого сексуального характеру. Якщо у вас є фотографії вашої дитини у ванні, це не проблема, тому що це не буде виявлено як неприйнятний вміст. Apple буде шукати ідентифікатори фотографій, які вже відомі, та каталог CSAM, і порівняти їх з ідентифікаторами вашого iPhone, і більше нічого.


Слідкуйте за нами в Новинах Google

Залиште свій коментар

Ваша електронна адреса не буде опублікований. Обов'язкові для заповнення поля позначені *

*

*

  1. Відповідальний за дані: AB Internet Networks 2008 SL
  2. Призначення даних: Контроль спаму, управління коментарями.
  3. Легітимація: Ваша згода
  4. Передача даних: Дані не передаватимуться третім особам, за винятком юридичних зобов’язань.
  5. Зберігання даних: База даних, розміщена в мережі Occentus Networks (ЄС)
  6. Права: Ви можете будь-коли обмежити, відновити та видалити свою інформацію.