Hogyan működik az Apple új gyermekellenes pornográf rendszere (és hogyan nem működik)

Zárja be egy kiskorú Facebook-fiókját

Az Apple új intézkedéseket jelentett be javítsa gyermekvédelmi rendszerét és harcoljon a gyermekpornográfia ellen. Elmagyarázzuk, hogyan működnek ezek az új intézkedések, és mit nem.

Az Apple hozzátette Új intézkedések gyermekbiztonsági szakértőkkel együttműködve a gyermekek szexuális bántalmazásával kapcsolatos anyagok terjedésének leküzdése érdekében. Ezek a mérések három különböző részre oszlanak: Üzenetek, Siri és Fotók. Az üzenetek szkennelik a kiskorúak készülékein küldött és fogadott fényképeket, a Siri figyelmeztet az illegális anyagok keresésére, a Fotók pedig értesítik a hatóságokat, ha gyermekpornográfiai anyagot észlelnek eszközünkön. Ezeknek az intézkedéseknek a működése meglehetősen összetett, különösen, ha meg akarja őrizni a felhasználók magánéletét, ezt a kihívást az Apple szerint sikerült leküzdenie, és amelyet az alábbiakban ismertetünk.

Hozzászólások

Spanyolországban nem túl elterjedt, de az Apple Message rendszert széles körben használják az Egyesült Államokban és más országokban. Ezért nagyon fontos a gyermekek szexuális anyagainak üzenetekben való terjesztésének ellenőrzése, és ez volt az új intézkedések egyik pillére. Az új rendszer értesíti a gyerekeket és a szülőket, ha szexuális jellegű anyagokat tartalmazó fényképeket küldenek vagy kapnak. Ez csak a 12 éves vagy annál fiatalabb gyermekek számára készült eszközökön fordul elő., jól konfigurált kisebb fiókjával.

Ha egy kiskorú (12 éves vagy annál fiatalabb) olyan fényképet kap, amelyet az Apple „szexuális jellegűnek” minősített, az elmosódik, és a kiskorú számára érthető nyelven tájékoztatják, hogy a kép nem megfelelő számukra. Ha úgy dönt, hogy megnézi (láthatja, ha úgy dönt) figyelmeztetni fogja, hogy a szüleit értesítik. Ugyanez fog történni, ha a kiskorú úgy dönt, hogy szexuális fényképet tartalmazó üzenetet küld.

Ez a folyamat az iPhone -on belül történik, az Apple nem lép közbe. A fényképet a beküldés előtt vagy az iPhone -on történő beérkezéskor beszkennelik, és mesterséges intelligencia rendszer segítségével eldöntik, hogy tartalma veszélyt jelent -e vagy sem. Az értesítést, ha megtörténik, csak a kiskorú szülei kapják meg (ismételjük, 12 év vagy kevesebb), sem az Apple, sem a hatóságok nem tudnak erről a tényről.

Siri

Az Apple virtuális asszisztense is frissül a gyermekpornográfia elleni küzdelem érdekében. Ha valaki ilyen típusú tartalmat keres, a Siri értesíti őket arról, hogy az anyag illegális, és olyan forrásokat is biztosít, amelyek hasznosak lehetnek, például az ilyen típusú tartalom bejelentésének módjait. Ismét az egész eljárás a saját eszközünkön történik, sem az Apple, sem az illetékes hatóságok nem ismerik a kereséseinket és a Siri figyelmeztetéseit.

Fotók

Kétségtelenül ez a legfontosabb változás, és ez váltotta ki a legtöbb vitát, téves információkkal a működéséről. Az Apple bejelentette, hogy az iCloud észleli a gyermekpornográfia képeit, amelyeket a felhasználók a felhőben tároltak. Ha ennél a kijelentésnél maradunk, sok kétely merül fel azzal kapcsolatban, hogy ez hogyan tehető meg, miközben tiszteletben tartja a felhasználók magánéletét. De az Apple elgondolkodott rajta, és kifejlesztett egy rendszert, amely lehetővé teszi számunkra, hogy ezt a magánéletünk megsértése nélkül tegyük meg.

A legfontosabb, és annak ellenére, hogy az ezzel az információval kapcsolatos számos cikk megjelent, az Apple nem szkenneli a fotóit gyermekpornográf tartalom után. Nem fognak tévedni bűnözőnek, mert meztelen fiáról vagy lányáról vannak képek a fürdőkádban. Amit az Apple tenni fog, megnézi, hogy rendelkezik -e a CSAM -ban gyermekpornográfiaként felsorolt ​​fényképek milliói közül.

Mi a CSAM? "Gyermekekkel való szexuális bántalmazás" vagy "Gyermekekkel való szexuális bántalmazás". Ez a gyermekpornográfiát tartalmazó fényképek katalógusa, amelyet különböző szervek ismertek és készítettek, és amelyek tartalmát az eltűnt és kizsákmányolt gyermekek nemzeti központja (NCMEC) ellenőrzi. Ezeknek a fényképeknek mindegyike digitális aláírással rendelkezik, változatlanul, és pontosan ez az, amiről tudni kell, hogy a felhasználó rendelkezik -e ilyen fényképekkel vagy sem. Összehasonlítja fotóink aláírásait a CSAM -éval, csak véletlenek esetén a riasztó megszólal.

Ezért az Apple nem fogja szkennelni a fényképeinket, hogy megnézze, szexuális tartalom -e, vagy sem, nem fog mesterséges intelligenciát használni, sőt, nem is fogja látni a fotóinkat. Csak az egyes fényképek digitális aláírásait használja, és összehasonlítja azokat a CSAM -ban szereplő aláírásokkal, és csak véletlenség esetén vizsgálja felül tartalmunkat. Mi van, ha az egyik fotómat tévesen nem megfelelő tartalomként azonosítják? Az Apple biztosítja, hogy ez gyakorlatilag lehetetlen, de ha ez megtörténne, nem lenne probléma. Először is, egy egyezés nem elegendő, több egyezésnek kell lennie (nem tudjuk, hány), és ha ezt a határértéket túllépik (csak akkor, ha túllépik), az Apple áttekinti ezeket a fényképeket, hogy megállapítsa, valóban gyermekpornográfiáról van -e szó. tartalom vagy sem, mielőtt értesíti a hatóságokat.

Emiatt szükséges, hogy a fényképeket az iCloudban tároljuk, mivel ez az eljárás részben az eszközön történik (a digitális aláírások összehasonlítása), de ha pozitív, a tartalom manuális ellenőrzését az Apple alkalmazottai végzik, a fényképek iCloudban történő áttekintésével, mivel semmilyen módon nem férnek hozzá eszközünkhöz.

Kérdései vannak a magánéletével kapcsolatban?

Bármely észlelési rendszer kétségeket vet fel hatékonyságában és / vagy a magánélet tiszteletben tartásában. Úgy tűnhet, hogy ahhoz, hogy egy észlelési rendszer valóban hatékony legyen, meg kell sérteni a felhasználói adatvédelmet, de a valóság az, hogy az Apple olyan rendszert tervezett, amelyben garantált a magánéletünk. Az Üzenetek és a Siri észlelési rendszere nem vet fel kétségeket, mivel az eszközünkön belül történik, anélkül, hogy az Apple bármiről is tudna. Csak az iCloudban található fotók észlelésének rendszere okozhat kétségeket, de a valóság az, hogy az Apple nagy gondot fordított arra, hogy továbbra is biztosítsa, hogy adataink csak a miénk legyenek.

Csak egyetlen eset lenne, amikor az Apple hozzáférne az adatainkhoz az iCloud -ban: ha a riasztás néhány fényképünknél megszólal, és át kell nézniük, hogy valóban illegális tartalom -e. Ennek esélye tévedésből rendkívül alacsony, végtelenül kicsi. Én személy szerint úgy vélem, hogy ezt a rendkívül valószínűtlen kockázatot érdemes vállalni, ha segít a gyermekpornográfia elleni küzdelemben.

Hátsó ajtó az iPhone eléréséhez?

Teljesen. Az Apple soha nem teszi lehetővé az iPhone -on lévő adatokhoz való hozzáférést. Ami az iPhone -on történik, az az iPhone -on marad. Az egyetlen pont, ahol hozzáférhet az adatainkhoz, ha az iCloudban tárolt fényképekről beszélünk, soha nem az iPhone -on. Nincs hátsó ajtó.

Kaphatok még fotókat a gyerekeimről?

A legkisebb probléma nélkül. Többször megismételtem, de még egyszer elmondom: az Apple nem szkenneli a fényképeket, hogy lássa, nem tartalmaznak -e gyermeki szexuális tartalmat. Ha fényképek vannak a babáról a fürdőkádban, akkor nincs probléma, mert nem észleli, hogy nem megfelelő tartalom. Az Apple nem fog mást tenni, mint megkeresni a már ismert és a CSAM katalógusba vett fényképek azonosítóit, és összehasonlítani őket az iPhone azonosítóival.


Kövessen minket a Google Hírekben

Hagyja megjegyzését

E-mail címed nem kerül nyilvánosságra. Kötelező mezők vannak jelölve *

*

*

  1. Az adatokért felelős: AB Internet Networks 2008 SL
  2. Az adatok célja: A SPAM ellenőrzése, a megjegyzések kezelése.
  3. Legitimáció: Az Ön beleegyezése
  4. Az adatok közlése: Az adatokat csak jogi kötelezettség alapján továbbítjuk harmadik felekkel.
  5. Adattárolás: Az Occentus Networks (EU) által üzemeltetett adatbázis
  6. Jogok: Bármikor korlátozhatja, helyreállíthatja és törölheti adatait.