Hur Apples nya anti-barnpornografisystem fungerar (och hur det inte fungerar)

Stäng en minderårigs Facebook-konto

Apple har meddelat nya åtgärder för att förbättra sitt barnskyddssystem och bekämpa barnpornografi. Vi förklarar hur dessa nya åtgärder fungerar och vad de inte gör.

Apple har lagt till Nya åtgärder i samarbete med barnsäkerhetsexperter för att bekämpa spridningen av material för sexuella övergrepp mot barn. Dessa åtgärder är uppdelade i tre olika sektioner: Meddelanden, Siri och Foton. Meddelanden kommer att skanna foton som skickas och tas emot på mindre enheter, Siri kommer att meddela dig om en sökning efter olagligt material och Photos kommer att meddela myndigheterna i händelse av att barnpornografiskt material upptäcks. på vår enhet. Driften av dessa åtgärder är ganska komplex, speciellt om du vill behålla användarens integritet, en utmaning som Apple tror att de har lyckats övervinna och som vi kommer att förklara nedan.

Inlägg

I Spanien är det inte särskilt utbrett, men Apple Messages-systemet används flitigt i USA och i andra länder. Det är därför kontrollen av spridningen av barnsexuellt material i Messages är mycket viktig och har varit en av grundpelarna i dessa nya åtgärder. Det nya systemet kommer att meddela barn och föräldrar när sexuellt explicita bilder skickas eller tas emot. Detta kommer bara att hända på enheter för barn som är 12 år eller yngre., med ditt mindre konto välkonfigurerat.

Om en minderårig (12 år eller yngre) får ett foto som Apple har märkt som "sexuellt explicit", kommer det att anlända suddigt och de kommer att varnas på ett språk som är förståeligt för den minderårige om att bilden kanske inte är lämplig för dem. Om du väljer att se den (du kommer att kunna se den om du väljer att) du kommer att meddelas att dina föräldrar kommer att meddelas. Detsamma kommer att hända om den minderårige bestämmer sig för att skicka ett meddelande som innehåller ett sexuellt fotografi.

Denna process sker inom iPhone, Apple ingriper inte när som helst. Fotot skannas innan det skickas eller när det tas emot på iPhone, och med hjälp av ett artificiellt intelligenssystem kommer det att avgöra om innehållet utgör en risk eller inte. Meddelandet, om det inträffar, kommer endast att tas emot av den minderåriges föräldrar (vi upprepar, 12 år eller yngre), varken Apple eller myndigheterna kommer att ha någon kännedom om detta faktum.

Siri

Apples virtuella assistent kommer också att uppdateras för att bekämpa barnpornografi. Om någon söker efter den här typen av innehåll kommer Siri att meddela dig att materialet är olagligt, samt erbjuda användbara resurser, till exempel sätt att rapportera denna typ av innehåll. Återigen kommer hela proceduren att ske på vår egen enhet, kommer varken Apple eller någon relevant myndighet att känna till våra sökningar eller meddelanden som Siri gör till oss.

Bilder

Det är utan tvekan den viktigaste förändringen och den som har genererat mest kontrovers, med felaktig information om hur det kommer att fungera. Apple har meddelat att iCloud kommer att upptäcka barnpornografiska bilder som användare har lagrat i molnet. Om vi ​​håller fast vid detta uttalande genereras många tvivel om hur detta skulle kunna göras med respekt för användarnas integritet. Men Apple har tänkt på det och har tagit fram ett system som låter oss göra detta utan att kränka vår integritet.

Viktigast av allt, trots de många artiklarna som har publicerats med denna information, kommer Apple inte att skanna dina bilder efter barnpornografiskt innehåll. Han kommer inte att missta dig för en brottsling eftersom du har bilder på din son eller dotter naken i badkaret. Vad Apple kommer att göra är att ta reda på om du har någon av de miljontals bilder som ingår i CSAM som barnpornografi.

Vad är CSAM? "Material för sexuella övergrepp mot barn" eller material för sexuella övergrepp mot barn. Det är en katalog över fotografier med barnpornografiskt innehåll, kända och producerade av olika organ och vars innehåll kontrolleras av National Center for Missing and Exploited Children (NCMEC). Var och en av dessa fotografier har en oföränderlig digital signatur, och det är precis vad som används för att veta om användaren har dessa fotografier eller inte.. Den kommer att jämföra signaturerna för våra fotografier med dem från CSAM endast om det finns tillfälligheter kommer larmet att gå.

Därför kommer Apple inte att skanna igenom våra bilder för att se om innehållet är sexuellt eller inte, det kommer inte att använda artificiell intelligens, det kommer inte ens att se våra bilder. Den kommer endast att använda de digitala signaturerna för varje fotografi och kommer att jämföra dem med signaturerna som ingår i CSAM, och endast i händelse av tillfälligheter kommer den att granska vårt innehåll. Vad händer om ett av mina foton av misstag identifieras som olämpligt innehåll? Apple ser till att detta är praktiskt taget omöjligt, men om det hände skulle det inte vara några problem. För det första räcker det inte med en matchning, det måste finnas flera matchningar (vi vet inte hur många), och om det gränstalet överskrids (endast om det överskrids) skulle Apple granska dessa specifika fotografier för att bedöma om de verkligen är barn pornografiskt innehåll eller inte innan du underrättar myndigheterna.

Av denna anledning är det nödvändigt att fotografierna lagras i iCloud, eftersom denna procedur sker delvis på enheten (jämförelse av digitala signaturer) men om det finns en positiv, manuell granskning av innehåll görs av Apples anställda genom att granska bilder i iCloud, eftersom de inte kommer åt vår enhet på något sätt.

Tvivlar du på din integritet?

Alla detekteringssystem väcker frågor om dess effektivitet och/eller respekt för integritet. Det kan tyckas att för att ett upptäcktssystem verkligen ska vara effektivt måste användarens integritet kränkas, men verkligheten är att Apple har designat ett system där vår integritet är garanterad. Meddelanden och Siri-detektionssystemet väcker inga tvivel, eftersom det sker inom vår enhet, utan att Apple vet något. Endast iCloud-fotodetektionssystemet kan väcka tvivel, men verkligheten är att Apple har varit mycket noga med att fortsätta att säkerställa att vår data bara är vår.

Det skulle bara finnas ett fall där Apple skulle komma åt vår data i iCloud: om larmet går för några av våra bilder och de måste granska dem för att se om de verkligen är olagligt innehåll. Möjligheten att detta inträffar av misstag är utomordentligt låg, oändligt liten.. Jag tror personligen att denna högst osannolika risk är värd att ta om den hjälper till att bekämpa barnpornografi.

En bakdörr för att komma åt vår iPhone?

Absolut. Apple tillåter inte vid något tillfälle tillgång till data på vår iPhone. Det som händer på vår iPhone stannar på vår iPhone. Den enda punkt där den kan komma åt våra data är när vi pratar om bilderna som är lagrade i iCloud, aldrig på vår iPhone. Det finns ingen bakdörr.

Kan jag fortfarande ha bilder på mina barn?

Utan det minsta problem. Jag har sagt det flera gånger, men jag säger det en gång till: Apple skannar inte dina bilder efter sexuellt innehåll för barn. Om du har bilder på din bebis i badkaret är det inga problem eftersom det inte kommer att upptäckas som olämpligt innehåll. Vad Apple kommer att göra är att leta efter identifierare för foton som redan är kända och katalogiserade av CSAM och jämföra dem med identifierarna för din iPhone, inget mer.


Följ oss på Google Nyheter

Bli först att kommentera

Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för data: AB Internet Networks 2008 SL
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.