Hvordan Apples nye børnepornografisystem fungerer (og hvordan det ikke virker)

Luk en mindreåriges Facebook-konto

Apple har annonceret nye foranstaltninger til forbedre dit børnesikringssystem og bekæmpe børnepornografi. Vi forklarer, hvordan disse nye foranstaltninger fungerer, og hvad de ikke gør.

Apple har tilføjet Nye foranstaltninger i samarbejde med børnesikkerhedseksperter for at bekæmpe spredning af materialer til seksuelt misbrug af børn. Disse målinger er opdelt i tre forskellige sektioner: Beskeder, Siri og Fotos. Meddelelser scanner de fotos, der sendes og modtages på mindreåriges enheder, Siri advarer om søgning efter ulovligt materiale, og Fotos underretter myndighederne i tilfælde af, at der opdages børnepornografisk materiale på vores enhed. Betjeningen af ​​disse foranstaltninger er ret kompleks, især hvis du vil bevare brugerens privatliv, en udfordring, som Apple mener, at den har formået at overvinde, og som vi vil forklare nedenfor.

Indlæg

I Spanien er det ikke særlig udbredt, men Apple Message -systemet er meget udbredt i USA og i andre lande. Derfor er kontrollen med formidlingen af ​​seksuelt materiale fra børn i Beskeder meget vigtig og har været en af ​​søjlerne i disse nye foranstaltninger. Det nye system vil underrette børn og forældre, når fotos med seksuelt eksplicit materiale sendes eller modtages. Dette sker kun på enheder til børn 12 år eller yngre., med din mindre konto godt konfigureret.

Hvis en mindreårig (12 år eller yngre) modtager et fotografi, som Apple har klassificeret som "seksuelt eksplicit", vil det blive sløret, og de vil blive informeret på et sprog, der er forståeligt for den mindreårige, at billedet muligvis ikke er egnet til dem. Hvis du beslutter dig for at se det (du kan se det, hvis du vælger) får du besked om, at dine forældre får besked. Det samme vil ske, hvis den mindreårige beslutter at sende en besked, der indeholder et seksuelt fotografi.

Denne proces sker inde i iPhone, Apple griber ikke ind på noget tidspunkt. Billedet scannes, før det sendes, eller når det modtages på iPhone, og ved hjælp af et kunstigt intelligenssystem afgøres det, om dets indhold udgør en risiko eller ej. Meddelelsen, hvis den forekommer, vil kun blive modtaget af den mindreåriges forældre (vi gentager, 12 år eller derunder), hverken Apple eller myndighederne vil have kendskab til denne kendsgerning.

Siri

Apples virtuelle assistent vil også blive opdateret til at bekæmpe børnepornografi. Hvis nogen foretager en søgning efter denne type indhold, vil Siri underrette dem om, at materialet er ulovligt, og vil også give ressourcer, der kan være nyttige, f.eks. Måder at rapportere denne type indhold på. Igen vil hele proceduren forekomme på vores egen enhed, hverken Apple eller nogen relevant myndighed vil have kendskab til vores søgninger eller til de advarsler, som Siri giver os.

billeder

Det er utvivlsomt den vigtigste ændring og den, der har skabt mest kontrovers, med misinformation om, hvordan det vil fungere. Apple har meddelt, at iCloud vil registrere billeder af børnepornografi, som brugerne har gemt i skyen. Hvis vi bliver ved med denne erklæring, rejses der mange tvivl om, hvordan dette kan gøres, samtidig med at brugernes privatliv respekteres. Men Apple har tænkt over det og har udviklet et system, der giver os mulighed for at gøre dette uden at krænke vores privatliv.

Vigtigst af alt, på trods af de mange artikler, der er blevet offentliggjort med disse oplysninger, vil Apple ikke scanne dine fotos for børnepornografisk indhold. De vil ikke tage fejl af dig som en kriminel, fordi du har fotografier af din nøgne søn eller datter i badekarret. Hvad Apple vil gøre er at se, om du har nogle af de millioner af billeder, der er anført i CSAM som børnepornografi.

Hvad er CSAM? “Materialer til seksuelt misbrug af børn” eller materiale til seksuelt misbrug af børn. Det er et katalog over fotografier med børnepornografisk indhold, kendt og produceret af forskellige organer, og hvis indhold kontrolleres af National Center for Missing and Exploited Children (NCMEC). Hvert af disse fotografier har en digital signatur, uundgåelig, og det er præcis det, der bruges til at vide, om brugeren har disse fotografier eller ej. Det vil sammenligne vores fotografiers underskrifter med CSAM's, kun hvis der er tilfældigheder, vil alarmen gå.

Derfor vil Apple ikke scanne vores fotografier for at se, om indholdet er seksuelt eller ej, det vil ikke bruge kunstig intelligens, det kommer ikke engang til at se vores fotos. Det vil kun bruge de digitale signaturer for hvert fotografi, og det vil sammenligne dem med underskrifterne i CSAM, og kun i tilfælde af tilfældigheder vil det gennemgå vores indhold. Hvad hvis et af mine fotos fejlagtigt er identificeret som upassende indhold? Apple forsikrer, at dette praktisk talt er umuligt, men hvis det skete, ville der ikke være noget problem. For det første er en kamp ikke nok, der skal være flere kampe (vi ved ikke hvor mange), og hvis dette grænseantal overskrides (kun hvis det overskrides) ville Apple gennemgå de specifikke fotografier for at vurdere, om det virkelig er børnepornografi indhold eller ej, før de underretter myndighederne.

Af denne grund er det nødvendigt, at fotografierne gemmes i iCloud, fordi denne procedure dels sker på enheden (sammenligning af digitale signaturer), men hvis der er en positiv, manuel indholdsgennemgang udføres af Apple -medarbejdere ved at gennemgå fotos i iCloud, da de ikke har adgang til vores enhed på nogen måde.

Spørgsmål om dit privatliv?

Ethvert registreringssystem rejser tvivl om dets effektivitet og / eller om respekten for privatlivets fred. Det kan se ud til, at for at et registreringssystem skal være virkelig effektivt, skal brugerens privatliv krænkes, men virkeligheden er, at Apple har designet et system, hvor vores privatliv er garanteret. Registreringssystemet for Beskeder og Siri rejser ikke tvivl, da det forekommer i vores enhed, uden at Apple har kendskab til noget. Kun systemet til registrering af fotos i iCloud kan rejse tvivl, men virkeligheden er, at Apple har været meget omhyggelig med fortsat at sikre, at vores data kun er vores.

Der ville kun være et tilfælde, hvor Apple ville få adgang til vores data i iCloud: hvis alarmen går af nogle af vores fotografier, og de skal gennemgå dem for at se, om det virkelig er ulovligt indhold. Chancen for at dette sker ved en fejl er ekstraordinært lav, uendelig. Jeg tror personligt, at denne meget usandsynlige risiko er værd at tage, hvis den hjælper med at bekæmpe børnepornografi.

En bagdør for at få adgang til vores iPhone?

Absolut. Apple giver på intet tidspunkt adgang til dataene på vores iPhone. Hvad der sker på vores iPhone, forbliver på vores iPhone. Det eneste punkt, hvor du kan få adgang til vores data, er, når vi taler om de fotos, der er gemt i iCloud, aldrig på vores iPhone. Der er ingen bagdør.

Kan jeg stadig have billeder af mine børn?

Uden det mindste problem. Jeg har gentaget det flere gange, men jeg vil sige det en gang mere: Apple scanner ikke dine fotos for at se, om de indeholder seksuelt indhold fra børn. Hvis du har fotos af din baby i badekarret, er der ikke noget problem, fordi det ikke vil blive opdaget som upassende indhold. Hvad Apple vil gøre er at kigge efter identifikatorer af fotografier, der allerede er kendte og CSAM katalogiseret og sammenligne dem med identifikatorerne for din iPhone, ikke mere.


Følg os på Google Nyheder

Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for data: AB Internet Networks 2008 SL
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.