Как работи новата система за борба с детската порнография на Apple (и как не работи)

Затворете профила във Facebook на непълнолетно лице

Apple обяви нови мерки за подобрете вашата система за закрила на детето и се борете срещу детската порнография. Обясняваме как работят тези нови мерки и какво не правят.

Apple добави Нови мерки в сътрудничество с експерти по безопасност на децата за борба с разпространението на материали за сексуално насилие над деца. Тези измервания са разделени на три различни раздела: Съобщения, Siri и Снимки. Съобщенията ще сканират снимките, които се изпращат и получават на устройства на непълнолетни, Siri ще предупреждава за търсенето на незаконни материали и Photos ще уведоми властите в случай, че бъде открит материал за детска порнография на нашето устройство. Действието на тези мерки е доста сложно, особено ако искате да запазите поверителността на потребителите, предизвикателство, което Apple смята, че е успяла да преодолее и което ще обясним по -долу.

мнения

В Испания тя не е много разпространена, но системата за съобщения на Apple се използва широко в САЩ и в други страни. Ето защо контролът върху разпространението на детски сексуален материал в Съобщенията е много важен и е един от стълбовете на тези нови мерки. Новата система ще уведомява децата и родителите, когато се изпращат или получават снимки със сексуално откровен материал. Това ще се случи само на устройства за деца на 12 години или по -млади., с добре конфигуриран второстепенен акаунт.

Ако непълнолетен (12 години или по -млад) получи снимка, която Apple е класифицирала като „сексуално явна“, тя ще бъде замъглена и те ще бъдат уведомени на разбираем за непълнолетните език, че изображението може да не е подходящо за тях. Ако решите да го видите (можете да го видите, ако решите) ще бъдете уведомени, че родителите ви ще бъдат уведомени. Същото ще се случи, ако непълнолетният реши да изпрати съобщение, съдържащо сексуална снимка.

Този процес се случва вътре в iPhone, Apple не се намесва по всяко време. Снимката се сканира, преди да бъде изпратена или когато бъде получена на iPhone, като с помощта на система с изкуствен интелект ще се реши дали съдържанието й представлява риск или не. Известието, ако се случи, ще бъде получено само от родителите на непълнолетния (повтаряме, 12 години или по -малко), нито Apple, нито властите няма да знаят за този факт.

Siri

Виртуалният асистент на Apple също ще бъде актуализиран за борба с детската порнография. Ако някой извърши търсене на този тип съдържание, Siri ще го уведоми, че материалът е незаконен, и също така ще предостави ресурси, които могат да бъдат полезни, като например начини за докладване на този тип съдържание. Отново цялата процедура ще се извърши на нашето собствено устройство, нито Apple, нито някой от съответните органи няма да знае за нашите търсения, нито за предупрежденията, които ни прави Siri.

снимки

Това без съмнение е най -важната промяна и тази, която предизвика най -много противоречия, с дезинформация за това как ще работи. Apple обяви, че iCloud ще открие изображения на детска порнография, които потребителите са съхранили в облака. Ако останем с това твърдение, се пораждат много съмнения относно това как това може да се направи, като се зачита поверителността на потребителите. Но Apple е помислила за това и е разработила система, която ни позволява да направим това, без да нарушаваме поверителността си.

Най -важното е, че въпреки многото статии, публикувани с тази информация, Apple няма да сканира вашите снимки за съдържание на детска порнография. Те няма да ви объркат с престъпник, защото имате снимки на вашия гол син или дъщеря във ваната. Това, което Apple ще направи, е да провери дали имате някоя от милионите снимки, изброени в CSAM като детска порнография.

Какво е CSAM? „Материал за сексуална злоупотреба с деца“ или Материал за сексуална злоупотреба с деца. Това е каталог със снимки със съдържание на детска порнография, познати и произведени от различни органи и чието съдържание се контролира от Националния център за изчезнали и експлоатирани деца (NCMEC). Всяка от тези снимки има цифров подпис, неизменен и точно това се използва, за да се знае дали потребителят има тези снимки или не. Той ще сравнява подписите на нашите снимки с тези на CSAM, само ако има съвпадения, алармата ще се включи.

Така че Apple няма да сканира нашите снимки, за да види дали съдържанието е сексуално или не, няма да използва изкуствен интелект, дори няма да види нашите снимки. Той ще използва само цифровите подписи на всяка снимка и ще ги сравнява с подписите, включени в CSAM, и само в случай на съвпадение ще прегледа съдържанието ни. Ами ако една от снимките ми погрешно бъде идентифицирана като неподходящо съдържание? Apple уверява, че това е практически невъзможно, но ако това се случи, нямаше да има проблем. Първо, съвпадението не е достатъчно, трябва да има няколко съвпадения (не знаем колко) и ако този граничен брой бъде надвишен (само ако е надвишен) Apple ще прегледа тези конкретни снимки, за да прецени дали наистина са детска порнография съдържание или не, преди да уведомите властите.

Поради тази причина е необходимо снимките да се съхраняват в iCloud, тъй като тази процедура се извършва частично на устройството (сравнението на цифровите подписи), но в случай, че има положителен резултат, ръчен преглед на съдържанието се извършва от служители на Apple чрез преглед на снимки в iCloud, тъй като те нямат достъп до нашето устройство по никакъв начин.

Съмнения относно поверителността ви?

Всяка система за откриване поражда съмнения относно нейната ефективност и / или относно зачитането на поверителността. Може да изглежда, че за да бъде системата за откриване наистина ефективна, поверителността на потребителите трябва да бъде нарушена, но реалността е, че Apple е проектирала система, в която нашата поверителност е гарантирана. Системата за откриване на Messages и Siri не поражда съмнения, тъй като се случва в нашето устройствобез Apple да знае за каквото и да било. Само системата за откриване на снимки в iCloud може да предизвика съмнения, но реалността е, че Apple полага големи грижи да продължи да гарантира, че нашите данни са само наши.

Ще има само един случай, в който Apple ще получи достъп до нашите данни в iCloud: ако алармата се включи от някои от нашите снимки и те трябва да ги прегледат, за да видят дали наистина са незаконни. Шансът това да се случи по погрешка е изключително нисък, безкрайно малък. Аз лично вярвам, че този много малко вероятно риск си струва да се поеме, ако помага в борбата с детската порнография.

Задна врата за достъп до нашия iPhone?

Абсолютно. Apple в нито един момент не позволява достъп до данните на нашия iPhone. Това, което се случва на нашия iPhone, остава на нашия iPhone. Единственият момент, в който можете да получите достъп до нашите данни, е когато говорим за снимките, съхранявани в iCloud, никога на нашия iPhone. Няма задна врата.

Мога ли все още да имам снимки на децата си?

Без най -малкия проблем. Повтарял съм го няколко пъти, но ще го кажа още веднъж: Apple няма да сканира вашите снимки, за да види дали съдържат детско сексуално съдържание. Ако имате снимки на вашето бебе във ваната, няма проблем, защото то няма да бъде разпознато като неподходящо съдържание. Това, което Apple ще направи, е да потърси идентификатори на вече известни снимки и CSAM каталогизирани и да ги сравни с идентификаторите на вашия iPhone, нищо повече.


Следвайте ни в Google Новини

Оставете вашия коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

*

*

  1. Отговорник за данните: AB Internet Networks 2008 SL
  2. Предназначение на данните: Контрол на СПАМ, управление на коментари.
  3. Легитимация: Вашето съгласие
  4. Съобщаване на данните: Данните няма да бъдат съобщени на трети страни, освен по законово задължение.
  5. Съхранение на данни: База данни, хоствана от Occentus Networks (ЕС)
  6. Права: По всяко време можете да ограничите, възстановите и изтриете информацията си.