Ako funguje nový systém detskej pornografie Apple (a ako nefunguje)

Zatvorte účet maloletej na Facebooku

Spoločnosť Apple oznámila nové opatrenia zlepšiť svoj systém ochrany detí a bojovať proti detskej pornografii. Vysvetľujeme, ako tieto nové opatrenia fungujú a čo nie.

Apple pridal Nové opatrenia v spolupráci s odborníkmi na bezpečnosť detí bojovať proti šíreniu materiálov týkajúcich sa sexuálneho zneužívania detí. Tieto merania sú rozdelené do troch rôznych sekcií: Správy, Siri a Fotky. Správy naskenujú fotografie, ktoré sa odosielajú a prijímajú na zariadeniach mladistvých, Siri upozorní na vyhľadávanie nezákonného materiálu a Fotky v prípade zistenia materiálu z detskej pornografie upozornia úrady na našom zariadení. Fungovanie týchto opatrení je pomerne zložité, najmä ak chcete zachovať súkromie používateľov, čo je výzva, ktorej sa spoločnosť Apple domnieva, že sa jej podarilo prekonať a ktorú vysvetlíme nižšie.

príspevky

V Španielsku nie je veľmi rozšírený, ale systém Apple Message je v USA a ďalších krajinách veľmi používaný. Preto je kontrola šírenia sexuálneho materiálu pre deti v správach veľmi dôležitá a bola jedným z pilierov týchto nových opatrení. Nový systém upozorní deti a rodičov na odoslanie alebo prijatie fotografií so sexuálne explicitným materiálom. K tomu dôjde iba na zariadeniach pre deti do 12 rokov alebo mladšie., s dobre nakonfigurovaným vašim vedľajším účtom.

Ak mladistvý (12 rokov alebo mladší) dostane fotografiu, ktorú spoločnosť Apple klasifikovala ako „sexuálne explicitnú“, bude rozmazaná a bude jej v jazyku zrozumiteľnom pre maloletú osobu oznámené, že obrázok pre nich nemusí byť vhodný. Ak sa to rozhodnete vidieť (môžete to vidieť, ak sa rozhodnete) dostanete upozornenie, že vaši rodičia budú upozornení. To isté sa stane, ak sa maloletý rozhodne poslať správu, ktorá obsahuje sexuálnu fotografiu.

Tento proces prebieha vo vnútri iPhonu, Apple v žiadnom prípade nezasahuje. Fotografia sa naskenuje pred odoslaním alebo prijatím na iPhone a pomocou systému umelej inteligencie sa rozhodne, či jej obsah predstavuje riziko alebo nie. Oznámenie, ak k nemu dôjde, dostane iba rodičov maloletých (opakujeme, 12 rokov alebo menej), ani Apple, ani úrady o tejto skutočnosti nevedia.

Siri

Aktualizovaný bude aj virtuálny asistent spoločnosti Apple s cieľom bojovať proti detskej pornografii. Ak niekto vyhľadáva tento typ obsahu, Siri ho upozorní, že materiál je nezákonný, a tiež poskytne zdroje, ktoré môžu byť užitočné, napríklad spôsoby nahlásenia tohto typu obsahu. Celý postup sa opäť uskutoční na našom vlastnom zariadení, spoločnosť Apple ani žiadny príslušný orgán nebudú mať znalosti o našich vyhľadávaniach ani o varovaniach, ktoré nám Siri poskytuje.

fotografie

Je to nepochybne najdôležitejšia zmena a tá, ktorá vyvolala najviac kontroverzií, s dezinformáciami o tom, ako bude fungovať. Spoločnosť Apple oznámila, že iCloud bude detekovať obrázky detskej pornografie, ktoré si používatelia uložili do cloudu. Ak zostaneme pri tomto vyhlásení, vyvoláva mnoho pochybností o tom, ako to je možné vykonať pri rešpektovaní súkromia používateľov. Spoločnosť Apple však o tom premýšľala a navrhla systém, ktorý nám to umožňuje bez narušenia nášho súkromia.

Najdôležitejšie je, že napriek mnohým článkom, ktoré boli s týmito informáciami publikované, spoločnosť Apple nebude skenovať vaše fotografie kvôli obsahu detskej pornografie. Nebudú si vás mýliť so zločincom, pretože máte vo vani fotografie vášho nahého syna alebo dcéry. Spoločnosť Apple sa chystá zistiť, či máte niektorú z miliónov fotografií uvedených v databáze CSAM ako detskú pornografiu.

Čo je CSAM? „Materiál pre sexuálne zneužívanie detí“ alebo materiál pre sexuálne zneužívanie detí. Je to katalóg fotografií s obsahom detskej pornografie, známy a vytvorený rôznymi orgánmi a ktorého obsah kontroluje Národné centrum pre nezvestné a zneužívané deti (NCMEC). Každá z týchto fotografií má digitálny podpis, nemenný, a to je presne to, čo sa používa na zistenie, či používateľ tieto fotografie má alebo nie.. Porovná podpisy našich fotografií s podpismi CSAM, iba ak dôjde k náhodám, spustí sa alarm.

Spoločnosť Apple preto nebude skenovať naše fotografie, aby zistila, či je obsah sexuálny alebo nie, nepoužije umelú inteligenciu, dokonca ani neuvidí naše fotografie. Použije iba digitálne podpisy každej fotografie a porovná ich s podpismi uvedenými v CSAM a iba v prípade náhody skontroluje náš obsah. Čo keď je jedna z mojich fotografií omylom identifikovaná ako nevhodný obsah? Apple uisťuje, že je to prakticky nemožné, ale ak by sa to stalo, nebol by žiadny problém. Po prvé, zhoda nestačí, musí existovať niekoľko zhôd (nevieme, koľko) a ak je tento limitný počet prekročený (iba ak je prekročený), spoločnosť Apple skontroluje tieto konkrétne fotografie a posúdi, či ide skutočne o detskú pornografiu. obsah alebo nie, skôr, ako to oznámite úradom.

Z tohto dôvodu je potrebné, aby boli fotografie uložené v službe iCloud, pretože tento postup sa vyskytuje čiastočne v zariadení (porovnanie digitálnych podpisov), ale v prípade pozitívneho, manuálnu kontrolu obsahu vykonávajú zamestnanci spoločnosti Apple prostredníctvom kontroly fotografií v službe iCloud, pretože žiadnym spôsobom nepristupujú k nášmu zariadeniu.

Máte otázky týkajúce sa vášho súkromia?

Akýkoľvek detekčný systém vyvoláva pochybnosti o jeho účinnosti a / alebo o rešpektovaní súkromia. Môže sa zdať, že aby bol detekčný systém skutočne účinný, musí byť porušené súkromie používateľov, ale realita je taká, že spoločnosť Apple navrhla systém, v ktorom je naše súkromie zaručené. Detekčný systém správ a Siri nevyvoláva pochybnosti, pretože sa vyskytuje v našom zariadeníbez toho, aby Apple o niečom vedel. Pochybnosti môže vzbudiť iba systém na zisťovanie fotografií v službe iCloud, ale realita je taká, že Apple si dal veľký pozor, aby aj naďalej zabezpečoval, že naše údaje sú iba naše.

Existoval by iba jeden prípad, v ktorom by spoločnosť Apple mala prístup k našim údajom v službe iCloud: ak sa pri niektorých našich fotografiách spustí alarm a musia ich skontrolovať, aby zistili, či ide skutočne o nezákonný obsah. Šanca, že sa to stane omylom, je mimoriadne nízka, nekonečne malá. Osobne sa domnievam, že toto vysoko nepravdepodobné riziko stojí za to podstúpiť, ak pomôže v boji proti detskej pornografii.

Zadné dvere na prístup k nášmu iPhone?

Absolútne. Spoločnosť Apple v žiadnom prípade neumožňuje prístup k údajom na našom iPhone. Čo sa stane na našom iPhone, zostane na našom iPhone. K našim údajom máte prístup iba vtedy, keď hovoríme o fotografiách uložených v iCloud, nikdy nie v našom iPhone. Neexistujú žiadne zadné dvere.

Môžem mať stále fotky svojich detí?

Bez najmenšieho problému. Opakoval som to niekoľkokrát, ale poviem to ešte raz: Spoločnosť Apple neskenuje vaše fotografie, aby zistila, či obsahujú sexuálny obsah pre deti. Ak máte fotky svojho dieťaťa vo vaničke, nie je problém, pretože nebude detekovaný ako nevhodný obsah. Spoločnosť Apple bude hľadať identifikátory fotografií, ktoré už sú známe, a CSAM katalogizovať, a porovnať ich s identifikátormi vášho iPhone, nič viac.


Sledujte nás na Google News

Zanechajte svoj komentár

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *

*

*

  1. Za údaje zodpovedá: AB Internet Networks 2008 SL
  2. Účel údajov: Kontrolný SPAM, správa komentárov.
  3. Legitimácia: Váš súhlas
  4. Oznamovanie údajov: Údaje nebudú poskytnuté tretím stranám, iba ak to vyplýva zo zákona.
  5. Ukladanie dát: Databáza hostená spoločnosťou Occentus Networks (EU)
  6. Práva: Svoje údaje môžete kedykoľvek obmedziť, obnoviť a vymazať.