Paano Gumagana ang Bagong Batang Batang Batang Batang Babae sa System (At Paano Ito Hindi Gumagana)

Isara ang Facebook account ng isang menor de edad

Inanunsyo ng Apple ang mga bagong hakbang sa pagbutihin ang iyong sistema ng proteksyon ng anak at labanan ang pornograpiya ng bata. Ipinapaliwanag namin kung paano gumagana ang mga bagong hakbang na ito, at kung ano ang hindi nila ginagawa.

Nagdagdag si Apple Mga bagong hakbang sa pakikipagtulungan sa mga eksperto sa kaligtasan ng bata upang labanan ang pagkalat ng mga materyal na pang-aabuso sa sekswal na bata. Ang mga sukat na ito ay nahahati sa tatlong magkakaibang seksyon: Mga Mensahe, Siri at Mga Larawan. Sine-scan ng mga mensahe ang mga larawang ipinadala at natanggap sa mga aparato ng mga menor de edad, babalaan ni Siri ang paghahanap ng iligal na materyal at aabisuhan ng mga Larawan ang mga awtoridad sa kaganapan na nakita ang materyal na pornograpiya ng bata sa aming aparato. Ang pagpapatakbo ng mga hakbang na ito ay medyo kumplikado, lalo na kung nais mong panatilihin ang privacy ng gumagamit, isang hamon na naniniwala ang Apple na nagawa nitong mapagtagumpayan at ipapaliwanag namin sa ibaba.

Mga mensahe

Sa Espanya hindi ito gaanong kalat, ngunit ang sistemang Apple Message ay malawakang ginagamit sa Estados Unidos at sa iba pang mga bansa. Iyon ang dahilan kung bakit ang kontrol ng pagpapakalat ng materyal na sekswal ng bata sa Mga Mensahe ay napakahalaga at naging isa sa mga haligi ng mga bagong hakbang. Aabisuhan ng bagong sistema ang mga bata at magulang kapag ang mga litrato na may malalaswang materyal na sekswal ay naipadala o natanggap. Magaganap lamang ito sa mga aparato para sa mga batang 12 taong gulang o mas bata., kasama ang iyong menor de edad na account na naayos na.

Kung ang isang menor de edad (12 taon o mas bata) ay tumatanggap ng litrato na inuri ng Apple bilang "tahasang sekswal," malabo ito, at payuhan sila sa wikang naiintindihan ng menor de edad na ang imahen ay maaaring hindi angkop para sa kanila. Kung magpapasya kang makita ito (maaari mo itong makita kung pinili mo) papayuhan ka na aabisuhan ang iyong mga magulang. Mangyayari ang pareho kung magpasya ang menor de edad na magpadala ng isang mensahe na naglalaman ng isang sekswal na litrato.

Ang prosesong ito ay nangyayari sa loob ng iPhone, ang Apple ay hindi makagambala anumang oras. Ang larawan ay na-scan bago ito maipadala o kapag natanggap ito sa iPhone, at gumagamit ng isang artipisyal na sistema ng katalinuhan ay mapasya kung ang nilalaman nito ay nagdudulot ng panganib o hindi. Ang abiso, kung nangyari ito, tatanggapin lamang ng mga magulang ng menor de edad (inuulit namin, 12 taon o mas mababa), alinman sa Apple o mga awtoridad ay walang anumang kaalaman sa katotohanang ito.

Siri

Ang virtual na katulong ng Apple ay maa-update din upang labanan ang pornograpiya ng bata. Kung may nagsasagawa ng paghahanap para sa ganitong uri ng nilalaman, aabisuhan sila ni Siri na labag sa batas ang materyal, at magbibigay din ng mga mapagkukunan na maaaring maging kapaki-pakinabang, tulad ng mga paraan upang iulat ang ganitong uri ng nilalaman. Muli ang buong pamamaraan ay magaganap sa aming sariling aparato, alinman sa Apple o anumang may kinalaman na awtoridad ay walang kaalaman sa aming mga paghahanap o ng mga babalang ginagawa sa amin ni Siri.

Larawan

Ito ay walang duda ang pinakamahalagang pagbabago at ang isa na nakabuo ng pinaka-kontrobersya, na may maling impormasyon tungkol sa kung paano ito gagana. Inanunsyo ng Apple na makakakita ang iCloud ng mga larawan ng pornograpiya ng bata na naimbak ng mga gumagamit sa cloud. Kung mananatili kami sa pahayag na ito, maraming pagdududa ang inilalabas tungkol sa kung paano ito magagawa habang iginagalang ang privacy ng mga gumagamit. Ngunit naisip ito ng Apple, at gumawa ng isang system na nagpapahintulot sa amin na gawin ito nang hindi lumalabag sa aming privacy.

Pinakamahalaga, sa kabila ng maraming mga artikulo na na-publish na may impormasyong ito, hindi i-scan ng Apple ang iyong mga larawan para sa nilalamang pornograpiya ng bata. Hindi ka nila mapagkamalan ng isang kriminal dahil mayroon kang mga litrato ng iyong hubad na anak na lalaki o anak na babae sa bathtub. Ang gagawin ni Apple ay titingnan upang makita kung mayroon kang anumang milyun-milyong mga larawan na nakalista sa CSAM bilang pornograpiya ng bata.

Ano ang CSAM? "Materyal na Sekswal na Pang-aabuso sa Bata" o Materyal na Sekswal na Pang-aabuso sa Bata. Ito ay isang katalogo ng mga litrato na may nilalaman ng pornograpiya ng bata, na kilala at ginawa ng iba't ibang mga katawan at ang nilalaman ay kinokontrol ng National Center for Missing and Exploited Children (NCMEC). Ang bawat isa sa mga litratong ito ay may digital na lagda, hindi maaring gamitin, at iyon ang tiyak na ginagamit upang malaman kung ang gumagamit ay mayroong mga litratong iyon o wala. Ihahambing nito ang mga lagda ng aming mga litrato sa mga ng CSAM, kung may mga pagkakataon lamang na mawawala ang alarma.

Kaya't ang Apple ay hindi mag-scan sa pamamagitan ng aming mga litrato upang makita kung ang nilalaman ay sekswal o hindi, hindi ito gagamit ng artipisyal na katalinuhan, hindi rin nito makikita ang aming mga larawan. Gagamitin lamang nito ang mga digital na lagda ng bawat litrato at ihahambing ito sa mga lagda na kasama sa CSAM, at kung sakali lamang na susuriin nito ang aming nilalaman. Paano kung ang isa sa aking mga larawan ay nagkakamali na nakilala bilang hindi naaangkop na nilalaman? Tinitiyak ng Apple na ito ay halos imposible, ngunit kung nangyari ito ay walang problema. Una, ang isang tugma ay hindi sapat, dapat mayroong maraming mga tugma (hindi namin alam kung gaano karami), at kung ang bilang ng limitasyong iyon ay lumampas (kung ito ay lumampas) Susuriin ng Apple ang mga tukoy na larawan upang masuri kung sila talaga ang pornograpiya ng bata nilalaman o hindi bago ipagbigay-alam sa mga awtoridad.

Para sa kadahilanang ito, kinakailangan na ang mga larawan ay nakaimbak sa iCloud, dahil ang pamamaraang ito ay bahagyang nangyayari sa aparato (ang paghahambing ng mga digital na lagda) ngunit kung sakaling may positibo, ang pagsusuri ng manu-manong nilalaman ay ginagawa ng mga empleyado ng Apple sa pamamagitan ng pagsusuri ng mga larawan sa iCloud, dahil hindi nila na-access ang aming aparato sa anumang paraan.

Mga pagdududa tungkol sa iyong privacy?

Ang anumang sistema ng pagtuklas ay nagtataas ng mga pagdududa tungkol sa pagiging epektibo nito at / o tungkol sa paggalang sa privacy. Maaaring mukhang para sa isang sistema ng pagtuklas na maging tunay na epektibo, ang privacy ng gumagamit ay dapat na lumabag, ngunit ang totoo ay ang Apple ay nagdisenyo ng isang sistema kung saan garantisado ang aming privacy. Ang sistema ng pagtuklas ng Mga Mensahe at Siri ay hindi nagtataas ng mga pagdududa, dahil nangyayari ito sa loob ng aming aparato, nang walang kaalaman ang Apple sa anumang bagay. Ang system lamang para sa pagtuklas ng mga larawan sa iCloud ang maaaring magtaas ng mga pagdududa, ngunit ang totoo ay nag-ingat ng mabuti ang Apple upang magpatuloy na matiyak na ang aming data ay sa amin lamang.

Magkakaroon lamang ng isang kaso kung saan mai-access ng Apple ang aming data sa iCloud: kung ang alarma ay napapatay ng ilan sa aming mga litrato at susuriin nila ang mga ito upang makita kung sila ay talagang iligal na nilalaman. Ang pagkakataon na mangyari ito nang hindi sinasadya ay labis na mababa, walang hanggan. Personal kong naniniwala na ang malamang na hindi malamang panganib na ito ay nagkakahalaga ng pagkuha kung makakatulong ito sa paglaban sa pornograpiya ng bata.

Isang pintuan sa likuran upang ma-access ang aming iPhone?

Ganap na Pinapayagan ng Apple nang walang oras ang pag-access sa data sa aming iPhone. Ang nangyayari sa aming iPhone ay mananatili sa aming iPhone. Ang tanging punto kung saan maaari mong ma-access ang aming data ay kapag pinag-uusapan namin ang tungkol sa mga larawan na nakaimbak sa iCloud, hindi kailanman sa aming iPhone. Walang pintuan sa likod.

Maaari pa ba akong magkaroon ng mga larawan ng aking mga anak?

Nang walang kahit kaunting problema. Inulit ko ito nang maraming beses ngunit sasabihin ko ito ng isa pang beses: Hindi i-scan ng Apple ang iyong mga larawan upang makita kung naglalaman sila ng nilalamang sekswal sa bata. Kung mayroon kang mga larawan ng iyong sanggol sa bathtub, walang problema dahil hindi ito matutukoy bilang hindi naaangkop na nilalaman. Ang gagawin ng Apple ay maghanap ng mga identifier ng mga litrato na kilala at na-catalog ng CSAM at ihambing ang mga ito sa mga identifier ng iyong iPhone, wala nang iba.


Ang nilalaman ng artikulo ay sumusunod sa aming mga prinsipyo ng etika ng editoryal. Upang mag-ulat ng isang pag-click sa error dito.

Maging una sa komento

Iwanan ang iyong puna

Ang iyong email address ay hindi nai-publish. Mga kinakailangang patlang ay minarkahan ng *

*

*

  1. Responsable para sa data: Miguel Ángel Gatón
  2. Layunin ng data: Kontrolin ang SPAM, pamamahala ng komento.
  3. Legitimation: Ang iyong pahintulot
  4. Komunikasyon ng data: Ang data ay hindi maiparating sa mga third party maliban sa ligal na obligasyon.
  5. Imbakan ng data: Ang database na naka-host ng Occentus Networks (EU)
  6. Mga Karapatan: Sa anumang oras maaari mong limitahan, mabawi at tanggalin ang iyong impormasyon.