Jak funguje nový systém Apple pro dětskou pornografii (a jak nefunguje)

Zavřete Facebook účet nezletilého

Apple oznámil nová opatření zlepšit svůj systém ochrany dětí a bojovat proti dětské pornografii. Vysvětlujeme, jak tato nová opatření fungují a co ne.

Apple přidal Nová opatření ve spolupráci s odborníky na bezpečnost dětí bojovat proti šíření materiálů týkajících se sexuálního zneužívání dětí. Tato měření jsou rozdělena do tří různých sekcí: Zprávy, Siri a Fotky. Zprávy budou skenovat fotografie odesílané a přijímané na zařízeních mladistvých, Siri bude varovat před hledáním nelegálního materiálu a Fotky v případě zjištění materiálu dětské pornografie upozorní úřady na našem zařízení. Fungování těchto opatření je poměrně složité, zvláště pokud chcete zachovat soukromí uživatelů, což je výzva, o které se Apple domnívá, že ji dokázala překonat a kterou vysvětlíme níže.

Příspěvky

Ve Španělsku to není příliš rozšířené, ale systém Apple Message je široce používán ve Spojených státech i v dalších zemích. Proto je kontrola šíření dětského sexuálního materiálu ve Zprávách velmi důležitá a byla jedním z pilířů těchto nových opatření. Nový systém upozorní děti a rodiče na odeslání nebo přijetí fotografií se sexuálně explicitním materiálem. K tomu dojde pouze na zařízeních pro děti do 12 let nebo mladší.s dobře nakonfigurovaným vedlejším účtem.

Pokud nezletilý (12 let nebo mladší) obdrží fotografii, kterou společnost Apple klasifikovala jako „sexuálně explicitní“, bude rozmazaná a bude jí v jazyce srozumitelném pro nezletilou sděleno, že obrázek pro ně nemusí být vhodný. Pokud se rozhodnete to vidět (můžete to vidět, pokud se rozhodnete) budete informováni, že vaši rodiče budou informováni. Totéž se stane, pokud se nezletilý rozhodne poslat zprávu, která obsahuje sexuální fotografii.

K tomuto procesu dochází uvnitř iPhonu, Apple v žádném případě nezasahuje. Fotografie se naskenuje před odesláním nebo přijetím na iPhone a pomocí systému umělé inteligence se rozhodne, zda její obsah představuje riziko či nikoli. Oznámení, pokud k němu dojde, obdrží pouze rodiče nezletilého (opakujeme, 12 let nebo méně), Apple ani úřady o této skutečnosti nevědí.

Siri

Virtuální asistent Apple bude také aktualizován v boji proti dětské pornografii. Pokud někdo vyhledává tento typ obsahu, Siri ho upozorní, že materiál je nezákonný, a nabídne vám také zdroje, které mohou být užitečné, například způsob nahlášení tohoto typu obsahu. Celá procedura bude opět probíhat na našem vlastním zařízení, ani Apple, ani žádná příslušná autorita nebudou mít znalosti o našich vyhledáváních ani o varováních, která nám Siri dává.

fotografie

Je to bezpochyby nejdůležitější změna a ta, která vyvolala nejvíce kontroverzí, s dezinformacemi o tom, jak bude fungovat. Apple oznámil, že iCloud bude detekovat obrázky dětské pornografie, které uživatelé uložili do cloudu. Pokud zůstaneme u tohoto prohlášení, vyvstává mnoho pochybností o tom, jak to lze provést při respektování soukromí uživatelů. Ale Apple o tom přemýšlel a navrhl systém, který nám to umožňuje bez porušení našeho soukromí.

A co je nejdůležitější, navzdory mnoha článkům, které byly s těmito informacemi publikovány, Apple nebude skenovat vaše fotografie kvůli obsahu dětské pornografie. Nebudou si vás mýlit se zločincem, protože máte ve vaně fotografie svého nahého syna nebo dcery. Co Apple udělá, je podívat se, jestli máte některou z milionů fotografií uvedených v CSAM jako dětskou pornografii.

Co je CSAM? „Materiál pro sexuální zneužívání dětí“ nebo materiál pro sexuální zneužívání dětí. Jedná se o katalog fotografií s obsahem dětské pornografie, známých a produkovaných různými subjekty, jejichž obsah je řízen Národním centrem pro pohřešované a zneužívané děti (NCMEC). Každá z těchto fotografií má digitální podpis, neměnný, a to je přesně to, co se používá ke zjištění, zda uživatel tyto fotografie má nebo ne. Porovná podpisy našich fotografií s podpisy CSAM, pouze pokud dojde k náhodám, spustí se alarm.

Apple proto nebude skenovat naše fotografie, aby zjistil, zda je obsah sexuální či nikoli, nebude používat umělou inteligenci, dokonce ani neuvidí naše fotografie. Použije pouze digitální podpisy každé fotografie a porovná je s podpisy obsaženými v CSAM a pouze v případě náhody zkontroluje náš obsah. Co když je jedna z mých fotografií omylem označena jako nevhodný obsah? Apple ujišťuje, že je to prakticky nemožné, ale pokud by k tomu došlo, nebyl by žádný problém. Za prvé, shoda nestačí, musí existovat několik shod (nevíme kolik), a pokud je tento limit překročen (pouze pokud je překročen), Apple zkontroluje tyto konkrétní fotografie a posoudí, zda se skutečně jedná o dětskou pornografii obsah nebo ne, než to oznámíte úřadům.

Z tohoto důvodu je nutné, aby byly fotografie uloženy na iCloudu, protože k tomuto postupu dochází částečně na zařízení (srovnání digitálních podpisů), ale v případě pozitivního, manuální kontrolu obsahu provádějí zaměstnanci společnosti Apple prohlížením fotografií na iCloudu, protože žádným způsobem nepřistupují k našemu zařízení.

Máte otázky ohledně svého soukromí?

Jakýkoli detekční systém vyvolává pochybnosti o jeho účinnosti a / nebo o respektování soukromí. Může se zdát, že aby byl detekční systém skutečně účinný, musí být narušeno soukromí uživatelů, ale realita je taková, že Apple navrhl systém, ve kterém je naše soukromí zaručeno. Detekční systém Zpráv a Siri nevyvolává pochybnosti, protože se vyskytuje v našem zařízení, aniž by Apple o něčem věděl. Pochybnosti může vzbuzovat pouze systém pro detekci fotografií na iCloudu, ale realita je taková, že Apple si dal velký pozor, aby i nadále zajišťoval, že naše data jsou pouze naše.

Existoval by pouze jeden případ, kdy by Apple přistoupil k našim datům na iCloudu: pokud se spustí poplach u některých našich fotografií a oni je musí zkontrolovat, aby zjistili, zda se skutečně jedná o nezákonný obsah. Šance, že k tomu dojde omylem, je mimořádně malá, nekonečně malá. Osobně se domnívám, že toto vysoce nepravděpodobné riziko stojí za to podstoupit, pokud pomáhá v boji proti dětské pornografii.

Zadní dveře pro přístup k našemu iPhonu?

Absolutně. Společnost Apple v žádném případě neumožňuje přístup k datům na našem iPhone. Co se stane na našem iPhonu, zůstane na našem iPhonu. Jediný bod, kde máte přístup k našim datům, je, když mluvíme o fotografiích uložených na iCloudu, nikdy ne na našem iPhonu. Neexistují žádná zadní vrátka.

Mohu mít stále fotografie svých dětí?

Bez nejmenších problémů. Opakoval jsem to několikrát, ale řeknu to ještě jednou: Apple nebude skenovat vaše fotografie, aby zjistil, zda obsahují sexuální obsah pro děti. Pokud máte fotky svého dítěte ve vaně, není problém, protože nebude detekován jako nevhodný obsah. Apple udělá, že bude hledat identifikátory již známých a CSAM katalogizovaných fotografií a porovnávat je s identifikátory vašeho iPhonu, nic víc.


Sledujte nás ve Zprávách Google

Buďte první komentář

Zanechte svůj komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny *

*

*

  1. Za data odpovídá: AB Internet Networks 2008 SL
  2. Účel údajů: Ovládací SPAM, správa komentářů.
  3. Legitimace: Váš souhlas
  4. Sdělování údajů: Údaje nebudou sděleny třetím osobám, s výjimkou zákonných povinností.
  5. Úložiště dat: Databáze hostovaná společností Occentus Networks (EU)
  6. Práva: Vaše údaje můžete kdykoli omezit, obnovit a odstranit.