Kuinka Applen uusi lapsipornografiajärjestelmä toimii (ja miten se ei toimi)

Sulje alaikäisen Facebook-tili

Apple on ilmoittanut uusista toimenpiteistä parantaa lastensuojelujärjestelmääsi ja torjua lapsipornografiaa. Selitämme, miten nämä uudet toimenpiteet toimivat ja mitä ne eivät tee.

Apple on lisännyt Uudet toimenpiteet yhteistyössä lapsiturvallisuusasiantuntijoiden kanssa lasten seksuaalista hyväksikäyttöä koskevien materiaalien leviämisen torjumiseksi. Nämä mittaukset on jaettu kolmeen eri osaan: Viestit, Siri ja Valokuvat. Viestit skannaavat alaikäisten laitteilla lähetetyt ja vastaanotetut valokuvat, Siri varoittaa laittoman materiaalin etsimisestä ja Kuvat ilmoittavat viranomaisille, jos lapsipornografista materiaalia havaitaan laitteessamme. Näiden toimenpiteiden toiminta on varsin monimutkaista, varsinkin jos haluat säilyttää käyttäjien yksityisyyden - haasteen, jonka Apple uskoo onnistuneen voittamaan ja jonka selitämme alla.

Viestejä

Espanjassa se ei ole kovin laajalle levinnyt, mutta Apple Message -järjestelmää käytetään laajalti Yhdysvalloissa ja muissa maissa. Siksi lasten seksuaalisen materiaalin levittämisen valvonta viesteissä on erittäin tärkeää, ja se on ollut yksi näiden uusien toimenpiteiden pilareista. Uusi järjestelmä ilmoittaa lapsille ja vanhemmille, kun seksuaalista materiaalia sisältäviä valokuvia lähetetään tai vastaanotetaan. Tämä tapahtuu vain laitteissa, jotka on tarkoitettu 12 -vuotiaille tai sitä nuoremmille lapsille., ja alaikäinen tilisi on hyvin määritetty.

Jos alaikäinen (12 -vuotias tai sitä nuorempi) saa valokuvan, jonka Apple on luokitellut "seksuaalisesti eksplisiittiseksi", se sumentuu ja hänelle ilmoitetaan alaikäiselle ymmärrettävällä kielellä, että kuva ei ehkä sovi hänelle. Jos päätät nähdä sen (näet sen, jos valitset) sinulle ilmoitetaan, että vanhemmillesi ilmoitetaan asiasta. Sama tapahtuu, jos alaikäinen päättää lähettää viestin, joka sisältää seksuaalisen valokuvan.

Tämä prosessi tapahtuu iPhonen sisällä, Apple ei puutu asiaan milloin tahansa. Valokuva skannataan ennen lähettämistä tai kun se vastaanotetaan iPhonessa, ja tekoälyjärjestelmän avulla päätetään, aiheuttaako sen sisältö riskin vai ei. Ilmoituksen, jos se tapahtuu, saavat vain alaikäisen vanhemmat (toistamme, 12 vuotta tai vähemmän), eivätkä Apple tai viranomaiset tiedä tästä asiasta.

Siri

Applen virtuaalinen avustaja päivitetään myös lapsipornografian torjumiseksi. Jos joku hakee tämän tyyppistä sisältöä, Siri ilmoittaa heille, että materiaali on laitonta, ja tarjoaa myös resursseja, joista voi olla apua, kuten tapoja ilmoittaa tällaisesta sisällöstä. Jälleen koko menettely tapahtuu omalla laitteellamme, Applella tai muulla asiaankuuluvalla viranomaisella ei ole tietoa hauistamme eikä Sirin tekemistä varoituksista.

kuvat

Se on epäilemättä tärkein muutos ja se, joka on herättänyt eniten kiistoja ja jossa on väärää tietoa siitä, miten se toimii. Apple on ilmoittanut, että iCloud tunnistaa käyttäjien pilveen tallentamat kuvat lapsipornografiasta. Jos pysymme tämän lausunnon luona, herää monia epäilyksiä siitä, miten tämä voidaan tehdä kunnioittaen käyttäjien yksityisyyttä. Mutta Apple on ajatellut sitä ja kehittänyt järjestelmän, jonka avulla voimme tehdä tämän rikkomatta yksityisyyttämme.

Mikä tärkeintä, huolimatta monista artikkeleista, jotka on julkaistu näiden tietojen kanssa, Apple ei skannaa valokuviasi lapsipornografisen sisällön varalta. He eivät pidä sinua rikollisena, koska sinulla on kuvia alastomasta pojastasi tai tyttärestäsi kylpyammeessa. Mitä Apple aikoo tehdä, on katsoa, ​​onko sinulla miljoonia valokuvia, jotka on lueteltu CSAM: ssä lapsipornografiana.

Mikä on CSAM? "Lasten seksuaalista hyväksikäyttöä koskeva materiaali" tai lasten seksuaalista hyväksikäyttöä koskeva materiaali. Se on luettelo valokuvista, joissa on lapsipornografian sisältöä ja jotka ovat eri elinten tiedossa ja tuottamia ja joiden sisältöä valvoo kadonnut ja hyväksikäytettyjen lasten kansallinen keskus (NCMEC). Jokaisella näistä valokuvista on digitaalinen allekirjoitus, joka on muuttumaton, ja juuri sitä käytetään tietämään, onko käyttäjällä näitä valokuvia vai ei. Se vertaa valokuviemme allekirjoituksia CSAM: n allekirjoituksiin, vain jos sattuu sattumia, hälytys soi.

Siksi Apple ei aio selata valokuviamme nähdäkseen, onko sisältö seksuaalista vai ei, se ei aio käyttää tekoälyä, se ei edes näe valokuviamme. Se käyttää vain kunkin valokuvan digitaalisia allekirjoituksia ja vertaa niitä CSAM -dokumenttiin sisältyviin allekirjoituksiin, ja vain sattuman sattuessa se tarkistaa sisältömme. Mitä jos yksi kuvistani tunnistetaan virheellisesti sopimattomaksi sisällöksi? Apple vakuuttaa, että tämä on käytännössä mahdotonta, mutta jos se tapahtuisi, ei olisi mitään ongelmaa. Ensinnäkin, ottelu ei riitä, sillä on oltava useita osumia (emme tiedä kuinka monta), ja jos tämä raja -arvo ylitetään (vain jos se ylitetään), Apple tarkistaisi kyseiset valokuvat arvioidakseen, ovatko ne todellakin lapsipornografiaa sisältöä tai ei ennen kuin ilmoitat asiasta viranomaisille.

Tästä syystä valokuvat on tallennettava iCloudiin, koska tämä toimenpide suoritetaan osittain laitteessa (digitaalisten allekirjoitusten vertailu), mutta jos manuaalisen sisällön tarkistuksen suorittavat Applen työntekijät tarkastelemalla valokuvia iCloudissa, koska he eivät pääse käyttämään laitettamme millään tavalla.

Onko sinulla kysymyksiä yksityisyydestäsi?

Mikä tahansa havaitsemisjärjestelmä herättää epäilyksiä sen tehokkuudesta ja / tai yksityisyyden kunnioittamisesta. Saattaa tuntua siltä, ​​että havaitsemisjärjestelmä on todella tehokas, käyttäjän yksityisyyttä on loukattava, mutta todellisuus on, että Apple on suunnitellut järjestelmän, jossa yksityisyytemme on taattu. Viestien ja Sirin tunnistusjärjestelmä ei herätä epäilyksiä, koska se tapahtuu laitteessamme, ilman että Apple tietäisi mitään. Vain järjestelmä iCloudin valokuvien havaitsemiseksi voi herättää epäilyksiä, mutta todellisuus on se, että Apple on huolehtinut edelleen siitä, että tietomme ovat vain meidän.

Olisi vain yksi tapaus, jossa Apple pääsisi tietoihimme iCloudissa: jos hälytys soi joidenkin valokuvistamme ja heidän on tarkistettava ne nähdäkseen, ovatko ne todella laitonta sisältöä. Mahdollisuus, että tämä tapahtuu vahingossa, on poikkeuksellisen pieni, äärettömän pieni. Uskon henkilökohtaisesti, että tämä erittäin epätodennäköinen riski kannattaa ottaa, jos se auttaa torjumaan lapsipornografiaa.

Takaovi iPhoneen pääsemiseksi?

Ehdottomasti. Apple ei milloinkaan salli pääsyä iPhonemme tietoihin. Mitä tapahtuu iPhonellamme, pysyy iPhonessa. Ainoa kohta, jossa voit käyttää tietojamme, on silloin, kun puhumme iCloudiin tallennetuista valokuvista, ei koskaan iPhonellamme. Takaovia ei ole.

Saanko vielä kuvia lapsistani?

Ilman pienintäkään ongelmaa. Olen toistanut sen useita kertoja, mutta sanon sen vielä kerran: Apple ei skannaa valokuviasi nähdäkseen, sisältävätkö ne lasten seksuaalista sisältöä. Jos sinulla on kuvia vauvastasi kylpyammeessa, ei ole ongelma, koska sitä ei tunnisteta sopimattomaksi sisällöksi. Mitä Apple aikoo tehdä, on etsiä jo tunnettujen ja CSAM -luetteloitujen valokuvien tunnisteita ja verrata niitä iPhonen tunnisteisiin.


Seuraa meitä Google-uutisissa

Jätä kommentti

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

*

*

  1. Vastaa tiedoista: AB Internet Networks 2008 SL
  2. Tietojen tarkoitus: Roskapostin hallinta, kommenttien hallinta.
  3. Laillistaminen: Suostumuksesi
  4. Tietojen välittäminen: Tietoja ei luovuteta kolmansille osapuolille muutoin kuin lain nojalla.
  5. Tietojen varastointi: Occentus Networks (EU) isännöi tietokantaa
  6. Oikeudet: Voit milloin tahansa rajoittaa, palauttaa ja poistaa tietojasi.