Hoe het nieuwe anti-kinderpornosysteem van Apple werkt (en hoe het niet werkt)

Sluit het Facebook-account van een minderjarige

Apple heeft nieuwe maatregelen aangekondigd om uw kinderbeschermingssysteem verbeteren en kinderpornografie bestrijden. We leggen uit hoe deze nieuwe maatregelen werken en wat ze niet doen.

Apple heeft toegevoegd Nieuwe maatregelen in samenwerking met deskundigen op het gebied van kinderveiligheid om de verspreiding van materiaal voor seksueel misbruik van kinderen tegen te gaan. Deze metingen zijn onderverdeeld in drie verschillende secties: Berichten, Siri en Foto's. Berichten scannen de foto's die worden verzonden en ontvangen op de apparaten van minderjarigen, Siri waarschuwt voor het zoeken naar illegaal materiaal en Photos stelt de autoriteiten op de hoogte in het geval dat kinderpornografisch materiaal wordt gedetecteerd op ons apparaat. De werking van deze maatregelen is vrij complex, vooral als je de privacy van gebruikers wilt behouden, een uitdaging die Apple meent te hebben overwonnen en die we hieronder zullen uitleggen.

Berichten

In Spanje is het niet erg wijdverbreid, maar het Apple Message-systeem wordt veel gebruikt in de Verenigde Staten en in andere landen. Daarom is de controle op de verspreiding van seksueel kindermateriaal in Berichten erg belangrijk en is dit een van de pijlers geweest van deze nieuwe maatregelen. Het nieuwe systeem zal kinderen en ouders op de hoogte stellen wanneer foto's met seksueel expliciet materiaal worden verzonden of ontvangen. Dit gebeurt alleen op apparaten voor kinderen van 12 jaar of jonger., met uw kleine account goed geconfigureerd.

Als een minderjarige (12 jaar of jonger) een foto ontvangt die door Apple is geclassificeerd als 'seksueel expliciet', wordt deze onscherp weergegeven en wordt hem/haar in voor de minderjarige begrijpelijke taal geadviseerd dat de afbeelding mogelijk niet geschikt is voor hem. Als je besluit het te zien (je kunt het zien als je ervoor kiest) je krijgt bericht dat je ouders op de hoogte worden gesteld. Hetzelfde gebeurt als de minderjarige besluit een bericht te sturen dat een seksuele foto bevat.

Dit proces vindt plaats in de iPhone, Apple grijpt op geen enkel moment in. De foto wordt gescand voordat deze wordt verzonden of wanneer deze op de iPhone wordt ontvangen, en met behulp van een kunstmatige intelligentiesysteem wordt besloten of de inhoud een risico vormt of niet. De melding, als deze zich voordoet, zal alleen worden ontvangen door de ouders van de minderjarige (we herhalen, 12 jaar of minder), noch Apple noch de autoriteiten zullen hiervan op de hoogte zijn.

Siri

De virtuele assistent van Apple zal ook worden bijgewerkt om kinderpornografie te bestrijden. Als iemand naar dit soort inhoud zoekt, zal Siri hem of haar laten weten dat het materiaal illegaal is en zal hij ook bronnen verstrekken die nuttig kunnen zijn, zoals manieren om dit soort inhoud te melden. Nogmaals, de hele procedure zal op ons eigen apparaat plaatsvinden, zal noch Apple, noch enige relevante autoriteit kennis hebben van onze zoekopdrachten, noch van de waarschuwingen die Siri ons geeft.

foto's

Het is ongetwijfeld de belangrijkste verandering en degene die de meeste controverse heeft veroorzaakt, met verkeerde informatie over hoe het zal werken. Apple heeft aangekondigd dat iCloud afbeeldingen van kinderporno die gebruikers in de cloud hebben opgeslagen, gaat detecteren. Als we bij deze verklaring blijven, worden er veel twijfels geuit over hoe dit kan worden gedaan met respect voor de privacy van gebruikers. Maar Apple heeft erover nagedacht en een systeem bedacht waarmee we dit kunnen doen zonder onze privacy te schenden.

Het belangrijkste is dat Apple, ondanks de vele artikelen die met deze informatie zijn gepubliceerd, uw foto's niet scant op inhoud met kinderpornografie. Ze zullen je niet aanzien voor een crimineel omdat je foto's hebt van je naakte zoon of dochter in de badkuip. Wat Apple gaat doen, is kijken of je een van de miljoenen foto's hebt die in CSAM als kinderpornografie worden vermeld.

Wat is CSAM? 'Materiaal over seksueel misbruik van kinderen' of materiaal over seksueel misbruik van kinderen. Het is een catalogus van foto's met inhoud van kinderpornografie, bekend en geproduceerd door verschillende instanties en waarvan de inhoud wordt gecontroleerd door het National Center for Missing and Exploited Children (NCMEC). Elk van deze foto's heeft een digitale handtekening, onveranderlijk, en dat is precies wat wordt gebruikt om te weten of de gebruiker die foto's heeft of niet. Het zal de handtekeningen van onze foto's vergelijken met die van de CSAM, alleen als er toevalligheden zijn, gaat het alarm af.

Daarom zal Apple onze foto's niet doorzoeken om te zien of de inhoud seksueel is of niet, het zal geen kunstmatige intelligentie gebruiken, het zal zelfs onze foto's niet zien. Het zal alleen de digitale handtekeningen van elke foto gebruiken en deze vergelijken met de handtekeningen die zijn opgenomen in de CSAM, en alleen in geval van toeval zal het onze inhoud beoordelen. Wat moet ik doen als een van mijn foto's ten onrechte wordt geïdentificeerd als ongepaste inhoud? Apple verzekert dat dit praktisch onmogelijk is, maar als het zou gebeuren, zou er geen probleem zijn. Ten eerste is een match niet genoeg, er moeten meerdere matches zijn (we weten niet hoeveel), en als dat limietaantal wordt overschreden (alleen als het wordt overschreden) zou Apple die specifieke foto's beoordelen om te beoordelen of het inderdaad kinderporno is inhoud of niet voordat de autoriteiten hiervan op de hoogte worden gesteld.

Om deze reden is het noodzakelijk dat de foto's worden opgeslagen in iCloud, omdat deze procedure deels op het apparaat plaatsvindt (de vergelijking van digitale handtekeningen) maar in het geval er een positieve, handmatige inhoudscontrole wordt gedaan door Apple-medewerkers door foto's in iCloud te bekijken, omdat ze op geen enkele manier toegang hebben tot ons apparaat.

Twijfels over uw privacy?

Elk detectiesysteem roept twijfels op over de doeltreffendheid ervan en/of over het respect voor de privacy. Het lijkt misschien dat een detectiesysteem pas echt effectief is als de privacy van gebruikers wordt geschonden, maar de realiteit is dat Apple een systeem heeft ontworpen waarin onze privacy wordt gegarandeerd. Het detectiesysteem van Berichten en Siri roept geen twijfels op, aangezien het binnen ons apparaat voorkomt, zonder dat Apple iets weet. Alleen het systeem voor het detecteren van foto's in iCloud kan twijfel oproepen, maar de realiteit is dat Apple er alles aan heeft gedaan om ervoor te zorgen dat onze gegevens alleen van ons zijn.

Er zou maar één geval zijn waarin Apple toegang zou krijgen tot onze gegevens in iCloud: als het alarm afgaat bij sommige van onze foto's en ze deze moeten bekijken om te zien of het inderdaad illegale inhoud is. De kans dat dit per ongeluk gebeurt is buitengewoon klein, oneindig klein. Persoonlijk geloof ik dat dit hoogst onwaarschijnlijke risico het nemen waard is als het helpt bij het bestrijden van kinderpornografie.

Een achterdeur om toegang te krijgen tot onze iPhone?

Absoluut. Apple geeft op geen enkel moment toegang tot de gegevens op onze iPhone. Wat er op onze iPhone gebeurt, blijft op onze iPhone. Het enige punt waar u toegang hebt tot onze gegevens, is wanneer we het hebben over de foto's die zijn opgeslagen in iCloud, nooit op onze iPhone. Er is geen achterdeur.

Mag ik nog foto's van mijn kinderen hebben?

Zonder het minste probleem. Ik heb het verschillende keren herhaald, maar ik zal het nog een keer zeggen: Apple zal je foto's niet scannen om te zien of ze seksuele inhoud voor kinderen bevatten. Als je foto's hebt van je baby in de badkuip, is er geen probleem omdat deze niet als ongepaste inhoud wordt gedetecteerd. Wat Apple zal doen is zoeken naar identifiers van foto's die al bekend zijn en gecatalogiseerd zijn door CSAM en deze vergelijken met de identifiers van je iPhone, meer niet.


Volg ons op Google Nieuws

Laat je reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

*

*

  1. Verantwoordelijk voor de gegevens: AB Internet Networks 2008 SL
  2. Doel van de gegevens: Controle SPAM, commentaarbeheer.
  3. Legitimatie: uw toestemming
  4. Mededeling van de gegevens: De gegevens worden niet aan derden meegedeeld, behalve op grond van wettelijke verplichting.
  5. Gegevensopslag: database gehost door Occentus Networks (EU)
  6. Rechten: u kunt uw gegevens op elk moment beperken, herstellen en verwijderen.