Kuidas töötab Apple'i uus lastevastane pornograafiasüsteem (ja kuidas see ei tööta)

Sulgege alaealise Facebooki konto

Apple on teatanud uutest meetmetest parandada oma lastekaitsesüsteemi ja võidelda lasteporno vastu. Me selgitame, kuidas need uued meetmed toimivad ja mida nad ei tee.

Apple on lisanud Uued meetmed koostöös laste turvalisuse ekspertidega, et võidelda laste seksuaalse kuritarvitamise materjalide leviku vastu. Need mõõtmised on jagatud kolmeks erinevaks osaks: Sõnumid, Siri ja Fotod. Sõnumid skannivad alaealiste seadmetesse saadetud ja vastuvõetud fotosid, Siri hoiatab ebaseadusliku materjali otsimise eest ja Photos teavitab ametivõime, kui avastatakse lapsporno materjali meie seadmes. Nende meetmete toimimine on üsna keeruline, eriti kui soovite säilitada kasutajate privaatsust, väljakutset, mille Apple on suutnud ületada ja mida me allpool selgitame.

Postitusi

Hispaanias pole see kuigi laialt levinud, kuid Apple Message'i süsteemi kasutatakse laialdaselt Ameerika Ühendriikides ja teistes riikides. Seetõttu on laste seksuaalse materjali levitamise kontrollimine sõnumites väga oluline ja see on olnud nende uute meetmete üks alustaladest. Uus süsteem teavitab lapsi ja vanemaid seksuaalse sisuga materjaliga fotode saatmisest või vastuvõtmisest. See juhtub ainult seadmetes, mis on mõeldud 12 -aastastele või noorematele lastele., kui teie alaealine konto on hästi konfigureeritud.

Kui alaealine (12 -aastane või noorem) saab foto, mille Apple on klassifitseerinud seksuaalselt seksuaalseks, on see hägune ja talle teatatakse alaealisele arusaadavas keeles, et pilt ei pruugi neile sobida. Kui otsustate seda näha (näete seda, kui valite) teile teatatakse, et teie vanemaid teavitatakse sellest. Sama juhtub siis, kui alaealine otsustab saata sõnumi, mis sisaldab seksuaalset fotot.

See protsess toimub iPhone'i sees, Apple ei sekku igal ajal. Foto skaneeritakse enne selle saatmist või iPhone'i vastuvõtmist ning tehisintellekti süsteemi kasutades otsustatakse, kas selle sisu kujutab endast ohtu või mitte. Kui see juhtub, saavad selle teate ainult alaealise vanemad (kordame, 12 aastat või vähem), ei Apple ega ametivõimud ei tea sellest fakti.

Siri

Lapseporno vastu võitlemiseks uuendatakse ka Apple'i virtuaalset assistenti. Kui keegi otsib seda tüüpi sisu, teatab Siri talle, et materjal on ebaseaduslik, ning pakub ka ressursse, millest võib abi olla, näiteks seda tüüpi sisust teatamise viisid. Jällegi toimub kogu protseduur meie enda seadmes, ei Apple ega ükski asjaomane asutus ei tea meie otsingutest ega Siri meile antud hoiatustest.

pildid

See on kahtlemata kõige olulisem muutus ja see, mis on tekitanud kõige rohkem vaidlusi koos valeinformatsiooniga selle toimimise kohta. Apple teatas, et iCloud tuvastab kasutajate pilve salvestatud lasteporno pildid. Kui jääme selle väite juurde, tekib palju kahtlusi, kuidas seda saab teha, austades samal ajal kasutajate privaatsust. Kuid Apple on sellele mõelnud ja välja töötanud süsteemi, mis võimaldab meil seda teha ilma meie privaatsust rikkumata.

Kõige tähtsam on see, et vaatamata paljudele artiklitele, mis on selle teabega avaldatud, ei skaneeri Apple teie fotosid lapsporno sisu otsimiseks. Nad ei pea teid kurjategijaks, sest teil on vannis fotod oma alasti pojast või tütrest. Mida Apple kavatseb teha, on vaadata, kas teil on miljoneid CSAM -is lapspornograafiana loetletud fotosid.

Mis on CSAM? „Laste seksuaalse kuritarvitamise materjal” või laste seksuaalse väärkohtlemise materjal. See on lasteporno sisuga fotode kataloog, mida teavad ja toodavad erinevad asutused ning mille sisu kontrollib kadunud ja ärakasutatud laste riiklik keskus (NCMEC). Kõigil neil fotodel on muutumatu digitaalallkiri ja just seda kasutatakse teadmiseks, kas kasutajal on need fotod või mitte. See võrdleb meie fotode allkirju CSAM -i allkirjadega, ainult siis, kui juhtub juhuseid, hakkab alarm tööle.

Nii et Apple ei skaneeri meie fotosid, et näha, kas sisu on seksuaalne või mitte, ta ei kasuta tehisintellekti ega näe isegi meie fotosid. See kasutab ainult iga foto digitaalallkirju ja võrdleb neid CSAM -is sisalduvate allkirjadega ning vaatab ainult kokkusattumuste korral meie sisu üle. Mis saab siis, kui üks minu fotodest tuvastatakse ekslikult sobimatu sisuna? Apple kinnitab, et see on praktiliselt võimatu, kuid kui see juhtuks, poleks probleemi. Esiteks, vastest ei piisa, peab olema mitu vastet (me ei tea, kui palju) ja kui see piirnumber on ületatud (ainult siis, kui see on ületatud), vaatab Apple need konkreetsed fotod üle, et hinnata, kas need on tõepoolest lapspornograafia sisu või mitte enne ametiasutustele teatamist.

Sel põhjusel on vaja fotod iCloudi salvestada, kuna see protseduur toimub osaliselt seadmes (digitaalallkirjade võrdlus), kuid positiivse tulemuse korral käsitsi sisu ülevaatamist teevad Apple'i töötajad, vaadates üle fotod iCloudis, kuna nad ei pääse mingil viisil meie seadmele juurde.

Kas kahtlete oma privaatsuses?

Igasugune avastamissüsteem tekitab kahtlusi selle tõhususes ja / või privaatsuse austamises. Võib tunduda, et avastamissüsteemi tõeliselt tõhusaks toimimiseks tuleb kasutaja privaatsust rikkuda, kuid reaalsus on see, et Apple on välja töötanud süsteemi, milles meie privaatsus on tagatud. Sõnumite ja Siri tuvastussüsteem ei tekita kahtlusi, kuna see toimub meie seadmes, ilma et Apple oleks millestki teadlik. Kahtlusi võib tekitada ainult iCloudis fotode tuvastamise süsteem, kuid reaalsus on see, et Apple on hoolitsenud selle eest, et meie andmed oleksid ainult meie omad.

Oleks ainult üks juhtum, mil Apple pääseks meie andmetele juurde iCloudis: kui mõni meie fotodest häire käivitub ja nad peavad need üle vaatama, et näha, kas tegemist on tõepoolest ebaseadusliku sisuga. Võimalus, et see juhtub kogemata, on erakordselt väike ja lõpmata väike. Mina isiklikult usun, et seda väga ebatõenäolist riski tasub võtta, kui see aitab võidelda lapsporno vastu.

Tagauks meie iPhone'i pääsemiseks?

Absoluutselt. Apple ei luba kunagi juurdepääsu meie iPhone'i andmetele. See, mis juhtub meie iPhone'is, jääb meie iPhone'i. Ainus punkt, kuhu pääsete meie andmetele juurde, on see, kui räägime iCloudi salvestatud fotodest, mitte kunagi meie iPhone'ist. Tagaukse puudub.

Kas ma saan oma lastest veel fotosid hoida?

Ilma vähimagi probleemita. Olen seda mitu korda kordanud, kuid ütlen veel kord: Apple ei skaneeri teie fotosid, et näha, kas need sisaldavad laste seksuaalset sisu. Kui teil on vannis fotosid oma lapsest, pole probleemi, sest seda ei tuvastata sobimatu sisuna. Apple otsib juba teadaolevate ja CSAM -i kataloogitud fotode identifikaatoreid ja võrdleb neid teie iPhone'i identifikaatoritega.


Jälgige meid Google Newsis

Jäta oma kommentaar

Sinu e-postiaadressi ei avaldata. Kohustuslikud väljad on tähistatud *

*

*

  1. Andmete eest vastutav: AB Internet Networks 2008 SL
  2. Andmete eesmärk: Rämpsposti kontrollimine, kommentaaride haldamine.
  3. Seadustamine: teie nõusolek
  4. Andmete edastamine: andmeid ei edastata kolmandatele isikutele, välja arvatud juriidilise kohustuse alusel.
  5. Andmete salvestamine: andmebaas, mida haldab Occentus Networks (EL)
  6. Õigused: igal ajal saate oma teavet piirata, taastada ja kustutada.