Kiel funkcias la Nova Infana Pornografia Sistemo de Apple (Kaj Kiel Ĝi Ne Funkcias)

Fermu la Facebook-konton de neplenaĝulo

Apple anoncis novajn rimedojn por plibonigu vian infanan protektan sistemon kaj batalu kontraŭ infana pornografio. Ni klarigas kiel funkcias ĉi tiuj novaj rimedoj, kaj kion ili ne faras.

Apple aldonis Novaj mezuroj kunlabore kun spertuloj pri infana sekureco por batali la disvastiĝon de materialoj pri infana seksumado. Ĉi tiuj mezuroj estas dividitaj en tri malsamajn sekciojn: Mesaĝoj, Siri kaj Fotoj. Mesaĝoj skanos la fotojn senditajn kaj ricevitajn per aparatoj de neplenaĝuloj, Siri avertos pri la serĉado de kontraŭleĝa materialo kaj Fotoj informos la aŭtoritatojn en la okazo ke detektas materialon pri infana pornografio. sur nia aparato. La funkciado de ĉi tiuj rimedoj estas sufiĉe kompleksa, precipe se vi volas konservi privatecon de uzanto, defio, kiun Apple kredas, ke ĝi sukcesis superi, kaj kiun ni klarigos sube.

Mesaĝoj

En Hispanio ĝi ne estas tre disvastigita, sed la sistemo Apple Message estas vaste uzata en Usono kaj en aliaj landoj. Tial la kontrolo de disvastigo de infana seksa materialo en Mesaĝoj estas tre grava kaj estis unu el la kolonoj de ĉi tiuj novaj rimedoj. La nova sistemo sciigos infanojn kaj gepatrojn kiam fotoj kun sekse eksplicita materialo estas senditaj aŭ ricevitaj. Ĉi tio okazos nur sur aparatoj por infanoj de 12 jaroj aŭ pli junaj., kun via negrava konto bone agordita.

Se neplenaĝulo (12-jara aŭ malpli) ricevas foton, kiun Apple klasifikis kiel "sekse eksplicita", ĝi estos nebuleca, kaj oni informos ilin en lingvo komprenebla al la neplenaĝulo, ke la bildo eble ne taŭgas por ili. Se vi decidas vidi ĝin (vi povas vidi ĝin se vi elektas) oni informos vin, ke viaj gepatroj estos sciigitaj. La samo okazos se la neplenaĝulo decidos sendi mesaĝon, kiu enhavas seksan foton.

Ĉi tiu procezo okazas ene de la iPhone, Apple ne intervenas iam ajn. La foto estas skanita antaŭ ol ĝi estas sendita aŭ kiam ĝi estas ricevita per la iPhone, kaj uzante artefaritan inteligentecan sistemon oni decidos, ĉu ĝia enhavo prezentas riskon aŭ ne. La sciigo, se ĝi okazos, estos ricevita nur de la gepatroj de la neplenaĝulo (ni ripetas, 12 jaroj aŭ malpli), nek Apple nek la aŭtoritatoj scios ĉi tiun fakton.

Siri

La virtuala asistanto de Apple ankaŭ estos ĝisdatigita por batali kontraŭ infana pornografio. Se iu serĉas ĉi tiun tipon de enhavo, Siri sciigos al ili, ke la materialo estas kontraŭleĝa, kaj ankaŭ provizos rimedojn, kiuj eble helpos, kiel manieroj raporti ĉi tiun tipon de enhavo. Denove la tuta procedo okazos per nia propra aparato, nek Apple nek iu ajn taŭga aŭtoritato scios niajn serĉojn nek la avertojn, kiujn Siri faras al ni.

Fotoj

Ĝi estas sendube la plej grava ŝanĝo kaj tiu, kiu generis la plej multajn disputojn, kun misinformado pri kiel ĝi funkcios. Apple anoncis, ke iCloud detektos bildojn de infana pornografio, kiujn uzantoj stokis en la nubo. Se ni restos kun ĉi tiu aserto, multaj duboj leviĝas pri tio, kiel oni povas fari, respektante la privatecon de uzantoj. Sed Apple pripensis ĝin kaj elpensis sistemon, kiu permesas al ni fari ĉi tion sen malobservi nian privatecon.

Plej grave, malgraŭ la multaj artikoloj publikigitaj kun ĉi tiuj informoj, Apple ne skanos viajn fotojn pri infana pornografio. Ili ne konfuzos vin kun krimulo, ĉar vi havas fotojn de via nuda filo aŭ filino en la bankuvo. Kion Apple faros estas rigardi, ĉu vi havas iujn el la milionoj da fotoj listigitaj en CSAM kiel infana pornografio.

Kio estas CSAM? "Infana Seksa Misuzo-Materialo" aŭ Infana Seksa Misuzo-Materialo. Ĝi estas katalogo de fotoj kun infana pornografia enhavo, konata kaj produktita de malsamaj korpoj kaj kies enhavo estas kontrolita de la Nacia Centro por Mankantaj kaj Ekspluatitaj Infanoj (NCMEC). Ĉiu el ĉi tiuj fotoj havas ciferecan subskribon, senŝanĝan, kaj ĝuste tion oni uzas por scii ĉu la uzanto havas tiujn fotojn aŭ ne.. Ĝi komparos la subskribojn de niaj fotoj kun tiuj de la CSAM, nur se okazos, la alarmo sonos.

Tial Apple ne esploros niajn fotojn por vidi ĉu la enhavo estas seksa aŭ ne, ĝi ne uzos artefaritan inteligentecon, ĝi eĉ ne vidos niajn fotojn. Ĝi nur uzos la ciferecajn subskribojn de ĉiu foto kaj ĝi komparos ilin kun la subskriboj inkluzivitaj en la CSAM, kaj nur en kazo de koincido ĝi revizios nian enhavon. Kio se unu el miaj fotoj estas erare identigita kiel netaŭga enhavo? Apple certigas, ke tio estas preskaŭ neebla, sed se ĝi okazus, ne estus problemo. Unue matĉo ne sufiĉas, devas esti pluraj matĉoj (ni ne scias kiom), kaj se tiu limnombro superas (nur se ĝi superas) Apple revizius tiujn specifajn fotojn por taksi ĉu ili efektive estas infana pornografio kontenta aŭ ne antaŭ ol sciigi la aŭtoritatojn.

Tial necesas, ke la fotoj estu konservitaj en iCloud, ĉar ĉi tiu procedo okazas parte sur la aparato (la komparo de ciferecaj subskriboj) sed en la kazo, ke estas pozitiva, mana enhavo-revizio estas farita de dungitoj de Apple recenzante fotojn en iCloud, ĉar ili neniel aliras nian aparaton.

Ĉu demandoj pri via privateco?

Ĉiu detekta sistemo estigas dubojn pri ĝia efikeco kaj / aŭ pri respekto de privateco. Eble ŝajnas, ke por ke detekta sistemo estu efika, la privateco de uzanto devas esti malobservita, sed la realo estas, ke Apple projektis sistemon, en kiu nia privateco estas garantiita. La detekta sistemo de Mesaĝoj kaj Siri ne starigas dubojn, ĉar ĝi okazas ene de nia aparato, sen ke Apple sciu ion. Nur la sistemo por detekti fotojn en iCloud povas estigi dubojn, sed la realo estas, ke Apple tre zorgis daŭre certigi, ke niaj datumoj estas nur niaj.

Nur estus unu kazo, en kiu Apple alirus niajn datumojn en iCloud: se la alarmo sonos per iuj el niaj fotoj kaj ili devas revizii ilin por vidi ĉu ili efektive estas kontraŭleĝaj enhavoj. La ŝanco, ke ĉi tio okazas erare, estas eksterordinare malalta, senfina. Mi persone kredas, ke ĉi tiu tre neverŝajna risko indas, se ĝi helpas batali infanan pornografion.

Ĉu malantaŭa pordo por aliri nian iPhone?

Absolute. Apple en neniu momento permesas aliron al la datumoj en nia iPhone. Kio okazas ĉe nia iPhone restas ĉe nia iPhone. La sola punkto, kie vi povas aliri niajn datumojn, estas kiam ni parolas pri la fotoj konservitaj en iCloud, neniam sur nia iPhone. Ne estas malantaŭa pordo.

Ĉu mi ankoraŭ povas havi fotojn de miaj infanoj?

Sen la plej eta problemo. Mi ripetis ĝin plurfoje sed mi diros ĝin ankoraŭfoje: Apple ne skanos viajn fotojn por vidi ĉu ili enhavas infanan seksan enhavon. Se vi havas fotojn de via bebo en la bankuvo, estas neniu problemo, ĉar ĝi ne estos detektita kiel netaŭga enhavo. Kion Apple faros estas serĉi identigilojn de fotoj jam konataj kaj CSAM katalogitaj kaj kompari ilin kun la identigiloj de via iPhone, nenio pli.


La enhavo de la artikolo aliĝas al niaj principoj de redakcia etiko. Por raporti eraron alklaku Ĉi tie.

Estu la unua por komenti

Lasu vian komenton

Via retpoŝta adreso ne estos eldonita. Postulita kampojn estas markita per *

*

*

  1. Respondeculo pri la datumoj: Miguel Ángel Gatón
  2. Celo de la datumoj: Kontrola SPAM, administrado de komentoj.
  3. Legitimado: Via konsento
  4. Komunikado de la datumoj: La datumoj ne estos komunikitaj al triaj krom per laŭleĝa devo.
  5. Stokado de datumoj: Datumbazo gastigita de Occentus Networks (EU)
  6. Rajtoj: Iam ajn vi povas limigi, retrovi kaj forigi viajn informojn.